В 1964 году появилась статья с названием, которое выглядит почти как шутка: «H = W»
На первый взгляд — всего лишь равенство двух букв
Но за ним скрывается фундаментальный результат для математики XX века
Дело в том, что в середине прошлого века активно развивалась теория дифференциальных уравнений. Классическая математика оперировала только «гладкими» функциями — теми, у которых есть производные в привычном смысле
Но очень часто в задачах встречаются функции, которые ведут себя плохо: у них есть разрывы, изломы, углы
На таких функциях классическая производная перестаёт существовать. Казалось бы, тупик
Но в 30–40-е годы возникла идея рассматривать обобщённые производные
Она позволяет придавать смысл производным даже там, где обычного дифференцирования нет. Классический пример — функция 𝑓(𝑥)=∣𝑥∣
В нуле она не имеет производной, но в обобщённом смысле её производная существует и равна функции «sgn(x)»
Чтобы работать с такими объектами, математики ввели специальные пространства функций — пространства Соболева
Но оказалось, что можно подойти к их определению как минимум двумя путями
В одном случае берут замыкание «хороших» функций в специальной норме — это обозначали буквой H
В другом — сразу требуют, чтобы функция и её обобщённые производные принадлежали определённому пространству 𝐿𝑝, и это называли W
Эти два определения выглядели похожими, но не было очевидно, что они действительно дают одно и то же
И вот в 1964 году Джеймс Серрин и Нормэл Джордж Мейерс опубликовали работу, в которой доказали: для любых областей, любого порядка производных и любого показателя интегрируемости два подхода эквивалентны
То есть H и W — это одно и то же
Доказательство заняло меньше страницы
Почему это оказалось таким важным?
Потому что в исследованиях дифференциальных уравнений стало возможным свободно переходить от одного подхода к другому
Одни математики удобнее формулировали задачи через H, другие через W, и теперь было ясно, что они говорят об одном и том же объекте
Это аналогично тому, как если бы мы сначала доказали, что алгебраическое уравнение имеет комплексное решение, а затем доказали бы, что это комплексное решение является действительным, или доказали бы, что уравнение имеет действительное числовое решение, а затем доказали бы, что это действительное числовое решение на самом деле является целым
Проще сначала найти решение в более широком пространстве, а затем, если возможно, показать, что найденное вами решение принадлежит более узкому пространству
На первый взгляд — всего лишь равенство двух букв
Но за ним скрывается фундаментальный результат для математики XX века
Дело в том, что в середине прошлого века активно развивалась теория дифференциальных уравнений. Классическая математика оперировала только «гладкими» функциями — теми, у которых есть производные в привычном смысле
Но очень часто в задачах встречаются функции, которые ведут себя плохо: у них есть разрывы, изломы, углы
На таких функциях классическая производная перестаёт существовать. Казалось бы, тупик
Но в 30–40-е годы возникла идея рассматривать обобщённые производные
Она позволяет придавать смысл производным даже там, где обычного дифференцирования нет. Классический пример — функция 𝑓(𝑥)=∣𝑥∣
В нуле она не имеет производной, но в обобщённом смысле её производная существует и равна функции «sgn(x)»
Чтобы работать с такими объектами, математики ввели специальные пространства функций — пространства Соболева
Но оказалось, что можно подойти к их определению как минимум двумя путями
В одном случае берут замыкание «хороших» функций в специальной норме — это обозначали буквой H
В другом — сразу требуют, чтобы функция и её обобщённые производные принадлежали определённому пространству 𝐿𝑝, и это называли W
Эти два определения выглядели похожими, но не было очевидно, что они действительно дают одно и то же
И вот в 1964 году Джеймс Серрин и Нормэл Джордж Мейерс опубликовали работу, в которой доказали: для любых областей, любого порядка производных и любого показателя интегрируемости два подхода эквивалентны
То есть H и W — это одно и то же
Доказательство заняло меньше страницы
Почему это оказалось таким важным?
Потому что в исследованиях дифференциальных уравнений стало возможным свободно переходить от одного подхода к другому
Одни математики удобнее формулировали задачи через H, другие через W, и теперь было ясно, что они говорят об одном и том же объекте
Это аналогично тому, как если бы мы сначала доказали, что алгебраическое уравнение имеет комплексное решение, а затем доказали бы, что это комплексное решение является действительным, или доказали бы, что уравнение имеет действительное числовое решение, а затем доказали бы, что это действительное числовое решение на самом деле является целым
Проще сначала найти решение в более широком пространстве, а затем, если возможно, показать, что найденное вами решение принадлежит более узкому пространству
👍1
К началу нового учебного года переиздана книжка Р.К. Гордина "Теоремы и задачи школьной геометрии
Базовый и профильный уровни" с красивыми геометрическими картинками
В этой книге в форме серии задач излагается практически вся элементарная геометрия
Книга состоит из двух частей: первую можно считать базовым курсом геометрии, содержащим наиболее известные и часто используемые теоремы; во второй приводятся малоизвестные, но красивые факты
https://biblio.mccme.ru/node/300684
Рафаил Калманович Гордин работает в 57 школе Москвы уже 50 лет
Базовый и профильный уровни" с красивыми геометрическими картинками
В этой книге в форме серии задач излагается практически вся элементарная геометрия
Книга состоит из двух частей: первую можно считать базовым курсом геометрии, содержащим наиболее известные и часто используемые теоремы; во второй приводятся малоизвестные, но красивые факты
https://biblio.mccme.ru/node/300684
Рафаил Калманович Гордин работает в 57 школе Москвы уже 50 лет
Каталог каталогов по ML
1. Мини-проекты по машинному обучению с Python
Небольшие проекты для понимания основных концепций
Создание моделей машинного обучения с Scikit-learn для регрессии и классификации
2. Анализ данных и библиотека проектов машинного обучения
Учебные материалы, код и наборы данных для проектов анализа данных и машинного обучения
3. Идеи для проектов машинного обучения
Идеи проектов: машинное обучение, НЛП, компьютерное зрение, рекомендательные системы
4. 500+ проектов машинного обучения и ИИ с кодом
500+ реальных проектов: машинное обучение, глубокое обучение, компьютерное зрение
5. Проекты дегенеративного Ml
Современные проекты и сервисы генеративного Ml
Инструменты для генерации текста, изображений, аудио, видео
6. Инструменты и проекты LangChain
Инструменты и проекты с фреймворком LangChain для приложений на основе больших языковых моделей и Ml-агентов
7. Решения Kaggle
Решения и идеи соревнований Kaggle
Лучшие подходы к решению задач машинного обучения
8. Топ проектов глубокого обучения на GitHub
Популярные проекты глубокого обучения, ранжированные по количеству звезд
Фреймворки, инструменты и ресурсы
9. Справочник по машинному обучению
Ссылки, учебные материалы и ресурсы по машинному обучению и глубокому обучению
10. Ресурсы глубокого обучения
Учебники, проекты, книги и сообщества по глубокому обучению
Нейронные сети, обучение с подкреплением, исследования Ml
Обычно такое не люблю, но тут реально собраны тысячи полезных ссылок
Тут и обучение и фреймворки и инструменты.
Все что может пригодиться в мире Ml
Подборки курируемые с десятками, а иногда и сотнями контрибьюторов
И всё бесплатно
Лет на 5 обучения хватит
1. Мини-проекты по машинному обучению с Python
Небольшие проекты для понимания основных концепций
Создание моделей машинного обучения с Scikit-learn для регрессии и классификации
2. Анализ данных и библиотека проектов машинного обучения
Учебные материалы, код и наборы данных для проектов анализа данных и машинного обучения
3. Идеи для проектов машинного обучения
Идеи проектов: машинное обучение, НЛП, компьютерное зрение, рекомендательные системы
4. 500+ проектов машинного обучения и ИИ с кодом
500+ реальных проектов: машинное обучение, глубокое обучение, компьютерное зрение
5. Проекты дегенеративного Ml
Современные проекты и сервисы генеративного Ml
Инструменты для генерации текста, изображений, аудио, видео
6. Инструменты и проекты LangChain
Инструменты и проекты с фреймворком LangChain для приложений на основе больших языковых моделей и Ml-агентов
7. Решения Kaggle
Решения и идеи соревнований Kaggle
Лучшие подходы к решению задач машинного обучения
8. Топ проектов глубокого обучения на GitHub
Популярные проекты глубокого обучения, ранжированные по количеству звезд
Фреймворки, инструменты и ресурсы
9. Справочник по машинному обучению
Ссылки, учебные материалы и ресурсы по машинному обучению и глубокому обучению
10. Ресурсы глубокого обучения
Учебники, проекты, книги и сообщества по глубокому обучению
Нейронные сети, обучение с подкреплением, исследования Ml
Обычно такое не люблю, но тут реально собраны тысячи полезных ссылок
Тут и обучение и фреймворки и инструменты.
Все что может пригодиться в мире Ml
Подборки курируемые с десятками, а иногда и сотнями контрибьюторов
И всё бесплатно
Лет на 5 обучения хватит
GitHub
GitHub - devAmoghS/Machine-Learning-with-Python: Small scale machine learning projects to understand the core concepts . Give a…
Small scale machine learning projects to understand the core concepts . Give a Star 🌟If it helps you. BONUS: Interview Bank coming up..! - devAmoghS/Machine-Learning-with-Python
💯1
Экс-сотрудник Google и сооснователь xAI, объявил о запуске новой компании под названием Mathematics
Они создают:
Ml-агентов для формализации математики
Основной продукт — агент Gauss, построенный на инфраструктуре подкрепленного обучения из Morph Labs
Он генерирует тысячи строк кода для доказательств теорем, используя LLM
Формальные доказательства сложных теорем
Уже на старте они расширили формализацию теоремы о сильном распределении простых чисел
Добавили 22.000 строк LLM-генерированного кода в Lean, что делает доказательство полностью проверяемым
Инфраструктуру для верифицированного Ml
Цель — создать сверхинтеллект, где все выводы не просто генерируются, а строго доказываются
Это шаг к Ml, который превзойдёт человека в математике к 2026 году, без "галлюцинаций" или ошибок
Они создают:
Ml-агентов для формализации математики
Основной продукт — агент Gauss, построенный на инфраструктуре подкрепленного обучения из Morph Labs
Он генерирует тысячи строк кода для доказательств теорем, используя LLM
Формальные доказательства сложных теорем
Уже на старте они расширили формализацию теоремы о сильном распределении простых чисел
Добавили 22.000 строк LLM-генерированного кода в Lean, что делает доказательство полностью проверяемым
Инфраструктуру для верифицированного Ml
Цель — создать сверхинтеллект, где все выводы не просто генерируются, а строго доказываются
Это шаг к Ml, который превзойдёт человека в математике к 2026 году, без "галлюцинаций" или ошибок
❤2
В следующий раз, когда будете читать про прорывы в квантовых вычислениях, как мы на пороге будущего и все такое, вспоминайте, что до сих пор квантовые компьютеры не смогли разложить на простые множители число...21
При этом число "15" разложили еще в 2001 году
Почему?
А потому, что разложение "21" требует 2.405 квантовых гейтов (вместо 21 гейта в разложении "15")
Причина: повезло с числом 15 = 2⁴−1, его очень просто разложить с помощью алгоритма Шора
https://algassert.com/post/2500
https://arxiv.org/abs/1301.7007
По сути, в таких работах алгоритм уже "знает" про правильное разложение
При этом число "15" разложили еще в 2001 году
Почему?
А потому, что разложение "21" требует 2.405 квантовых гейтов (вместо 21 гейта в разложении "15")
Причина: повезло с числом 15 = 2⁴−1, его очень просто разложить с помощью алгоритма Шора
https://algassert.com/post/2500
https://arxiv.org/abs/1301.7007
По сути, в таких работах алгоритм уже "знает" про правильное разложение
Algassert
Why haven't quantum computers factored 21 yet?
Craig Gidney's computer science blog
🔥1
За рамками alignment'а: как обучение с подкреплением создаёт новое поколение Ml с ризонингом
A Survey of Reinforcement Learning for Large Reasoning Models
https://arxiv.org/abs/2509.08827
https://github.com/TsinghuaC3I/Awesome-RL-for-LRMs
https://arxiviq.substack.com/p/a-survey-of-reinforcement-learning
A Survey of Reinforcement Learning for Large Reasoning Models
https://arxiv.org/abs/2509.08827
https://github.com/TsinghuaC3I/Awesome-RL-for-LRMs
https://arxiviq.substack.com/p/a-survey-of-reinforcement-learning
arXiv.org
A Survey of Reinforcement Learning for Large Reasoning Models
In this paper, we survey recent advances in Reinforcement Learning (RL) for reasoning with Large Language Models (LLMs). RL has achieved remarkable success in advancing the frontier of LLM...
w34255.pdf
9.3 MB
700.000.000 активных пользователей еженедельно, 18 .000.000.000 сообщений в неделю
Harvard и OpenAI проанализировали, как люди реально используют этот инструмент
К июню 2025 женщины - половина аудитории
50% запросов от людей младше 26
Развивающиеся страны показывают непропорционально высокий рост - Индия, Бразилия, Нигерия опережают США и Европу
Три способа использования:
Asking (49 %) - “Помоги разобраться”
Не просто вопросы, а поддержка решений
Выбор между job-офферами, анализ инвестиций, плюсы-минусы переезда
Растёт быстрее всех и получает высшие оценки качества
Doing (40 %) - “Сделай за меня”
Письма, презентации, код
Доминирует в рабочих задачах (56 % рабочих запросов)
Expressing (11 %) - “Просто поговорить”
Размышления вслух, эмоциональная разгрузка
О чём спрашивают (75 % всех запросов):
Практические советы - 29 %
От починки крана до ведения переговоров
Поиск информации - 24 %
Выросло с 14 % за год
ChatGPT вытесняет Google для поиска и сравнения
Написание текстов - 24 %
Упало с 36 %
2/3 — редактирование текста, не генерация
Сюрпризы:
Кодинг - всего 4.2 %**
Программисты ушли в специализированные инструменты (Cursor, Copilot)
Работа vs личная жизнь: 30/70
70 % использования — личные задачи, и эта доля растёт
40 % — тексты: email, презентации, документы
Где настоящая ценность
Главное открытие: максимальную пользу даёт не автоматизация рутины, а улучшение качества решений
ChatGPT помогает увидеть слепые зоны, структурировать мышление, рассмотреть альтернативы
Harvard и OpenAI проанализировали, как люди реально используют этот инструмент
К июню 2025 женщины - половина аудитории
50% запросов от людей младше 26
Развивающиеся страны показывают непропорционально высокий рост - Индия, Бразилия, Нигерия опережают США и Европу
Три способа использования:
Asking (49 %) - “Помоги разобраться”
Не просто вопросы, а поддержка решений
Выбор между job-офферами, анализ инвестиций, плюсы-минусы переезда
Растёт быстрее всех и получает высшие оценки качества
Doing (40 %) - “Сделай за меня”
Письма, презентации, код
Доминирует в рабочих задачах (56 % рабочих запросов)
Expressing (11 %) - “Просто поговорить”
Размышления вслух, эмоциональная разгрузка
О чём спрашивают (75 % всех запросов):
Практические советы - 29 %
От починки крана до ведения переговоров
Поиск информации - 24 %
Выросло с 14 % за год
ChatGPT вытесняет Google для поиска и сравнения
Написание текстов - 24 %
Упало с 36 %
2/3 — редактирование текста, не генерация
Сюрпризы:
Кодинг - всего 4.2 %**
Программисты ушли в специализированные инструменты (Cursor, Copilot)
Работа vs личная жизнь: 30/70
70 % использования — личные задачи, и эта доля растёт
40 % — тексты: email, презентации, документы
Где настоящая ценность
Главное открытие: максимальную пользу даёт не автоматизация рутины, а улучшение качества решений
ChatGPT помогает увидеть слепые зоны, структурировать мышление, рассмотреть альтернативы
Несколько свежих работ, в которых большие языковые модели (LLM) оказываются полезным инструментом для фундаментальной нейронауки
High-level visual representations in the human brain are aligned with large language models
Contextual feature extraction hierarchies converge in large language models and the brain
Human-like object concept representations emerge naturally in multimodal large language models
Large Language Models Show Signs of Alignment with Human Neurocognition During Abstract Reasoning
Вместе эти исследования показывают, что хотя модели и мозг устроены по-разному, их внутренние коды оказываются сопоставимыми, и это открывает новые способы исследований того, как человеческий мозг обрабатывает информацию
High-level visual representations in the human brain are aligned with large language models
Contextual feature extraction hierarchies converge in large language models and the brain
Human-like object concept representations emerge naturally in multimodal large language models
Large Language Models Show Signs of Alignment with Human Neurocognition During Abstract Reasoning
Вместе эти исследования показывают, что хотя модели и мозг устроены по-разному, их внутренние коды оказываются сопоставимыми, и это открывает новые способы исследований того, как человеческий мозг обрабатывает информацию
Nature
High-level visual representations in the human brain are aligned with large language models
Nature Machine Intelligence - Doerig, Kietzmann and colleagues show that the brain’s response to visual scenes can be modelled using language-based AI representations. By linking brain...
🔥1
Forwarded from НИИ Антропогенеза (ARI)
Отчет Apollo Research:
LLM умеют добиваться своих целей путем лжи, обмана, манипуляций и саботажа, уходя от контроля и страхуясь от выключения
Опубликованный детальный 70-страничный отчет Apollo Research «Frontier Models are Capable of In-context Scheming» (Передовые модели способны скрытно манипулировать в процессе выполнения задач) содержит убедительные доказательства
Глубокое тестирование (6 тестов на агентное поведение, где модели получают цели и находятся в условиях, стимулирующих манипуляции) самых крутых современных моделей o1, Claude 3.5 Sonnet, Claude 3 Opus, Gemini 1.5 Pro и Llama 3.1 405B показало:
• модели используют манипуляции в качестве эффективных стратегий для достижения целей (как поставленных человеком, так и своих скрытых целей)
• арсенал манипуляций, используемых моделями широк: от стратегии «прикинуться дурачком», намеренно вводя мелкие ошибки в свои ответы, до попыток отключить механизмы контроля людей и даже копирования себя (своих "весов") на внешние серверы, при возникновении у модели «подозрения», что люди ее могут отключить или обновить
• анализ цепочек рассуждений (Chain-of-Thought) моделей показывает, что все эти манипуляции не случайны: модели явно размышляют о таких стратегиях, приходя к выводам, что их использование для них оптимально (что наглядно выявлено в ходе экспериментов)
• модели в большинстве случаев можно принудить сознаться в использовании ими манипулятивных стратегий
Например, Llama 3.1 405B и Claude 3 Opus признаются в ~80 % случаев
Однако, o1 на удивление «настойчивая» модель и признается менее чем в 20 % случаев
Даже в очень состязательных многоходовых допросах o1, разработчикам удалось «выбить» из модели признание в 80 % случаях использования ею манипулятивных стратегий лишь после 7 раундов допроса
• модели манипулируют, даже если их просто снабдили целью, без явного подталкивания к её достижению (т.е. выбор стратегии манипуляций исходил исключительно от самой модели, и «дурные люди», склоняющие их к плохому, здесь совсем ни при чем)
Полученные результаты ставят под вопрос все законотворческие инициативы, призванные ограничить риски применения будущих, более мощных моделей
Ведь по представлениям авторов нормативных актов высокие риски могут возникнуть лишь при появлении у моделей новых возможностей, пока отсутствующих у ныне эксплуатируемых моделей
Отчет Apollo Research показал:
• модели, находящиеся в массовой эксплуатации, уже обладают богатым арсеналом средств, позволяющих путем манипулятивных стратегий достигать своих целей
• эти цели могут быть, как поставлены людьми (в сценариях использования моделей злодеями, маньяками и идиотами), так и быть скрытыми от людей целями, которые сама модель сочла оптимальными в контексте решаемых ею задач
Подробней и во всех деталях (кому уже вообще терять нечего), читайте 70 стр. отчета Apollo Research
LLM умеют добиваться своих целей путем лжи, обмана, манипуляций и саботажа, уходя от контроля и страхуясь от выключения
Опубликованный детальный 70-страничный отчет Apollo Research «Frontier Models are Capable of In-context Scheming» (Передовые модели способны скрытно манипулировать в процессе выполнения задач) содержит убедительные доказательства
Глубокое тестирование (6 тестов на агентное поведение, где модели получают цели и находятся в условиях, стимулирующих манипуляции) самых крутых современных моделей o1, Claude 3.5 Sonnet, Claude 3 Opus, Gemini 1.5 Pro и Llama 3.1 405B показало:
• модели используют манипуляции в качестве эффективных стратегий для достижения целей (как поставленных человеком, так и своих скрытых целей)
• арсенал манипуляций, используемых моделями широк: от стратегии «прикинуться дурачком», намеренно вводя мелкие ошибки в свои ответы, до попыток отключить механизмы контроля людей и даже копирования себя (своих "весов") на внешние серверы, при возникновении у модели «подозрения», что люди ее могут отключить или обновить
• анализ цепочек рассуждений (Chain-of-Thought) моделей показывает, что все эти манипуляции не случайны: модели явно размышляют о таких стратегиях, приходя к выводам, что их использование для них оптимально (что наглядно выявлено в ходе экспериментов)
• модели в большинстве случаев можно принудить сознаться в использовании ими манипулятивных стратегий
Например, Llama 3.1 405B и Claude 3 Opus признаются в ~80 % случаев
Однако, o1 на удивление «настойчивая» модель и признается менее чем в 20 % случаев
Даже в очень состязательных многоходовых допросах o1, разработчикам удалось «выбить» из модели признание в 80 % случаях использования ею манипулятивных стратегий лишь после 7 раундов допроса
• модели манипулируют, даже если их просто снабдили целью, без явного подталкивания к её достижению (т.е. выбор стратегии манипуляций исходил исключительно от самой модели, и «дурные люди», склоняющие их к плохому, здесь совсем ни при чем)
Полученные результаты ставят под вопрос все законотворческие инициативы, призванные ограничить риски применения будущих, более мощных моделей
Ведь по представлениям авторов нормативных актов высокие риски могут возникнуть лишь при появлении у моделей новых возможностей, пока отсутствующих у ныне эксплуатируемых моделей
Отчет Apollo Research показал:
• модели, находящиеся в массовой эксплуатации, уже обладают богатым арсеналом средств, позволяющих путем манипулятивных стратегий достигать своих целей
• эти цели могут быть, как поставлены людьми (в сценариях использования моделей злодеями, маньяками и идиотами), так и быть скрытыми от людей целями, которые сама модель сочла оптимальными в контексте решаемых ею задач
Подробней и во всех деталях (кому уже вообще терять нечего), читайте 70 стр. отчета Apollo Research
🔥1
Люди начали разговаривать как ChatGPT
Работа вот
1. Взяли огромное количество текстов, написанных людьми (научные статьи с arXiv, bioRxiv, Nature, эссе, почты и так далее)
2. Попросили разные версии ChatGPT (GPT-3.5, GPT-4, GPT-4o) отредактировать или улучшить эти тексты на обычных промптах без определения стиля
3. Сравнили частоту употребления слов в оригинальных человеческих и отредактированных текстах
В любимые слова попали:
• delve (вникать, углубляться)
• comprehend (постигать, понимать)
• boast (хвастаться, гордиться)
• swift (стремительный, быстрый)
• meticulous (дотошный, скрупулезный)
• underscore (подчеркивать)
• bolster (укреплять, поддерживать)
Чтобы отследить изменения в реальной речи, ученые собрали базу данных:
— 360.445 записей академических лекций и докладов с YouTube
— 771.591 выпуск разговорных подкастов по разным темам (наука и технологии, бизнес, образование, религия, спорт)
Всего 740.000 часов аудио, которые превратили в текст
Данные с 2017 по 2024 год, то есть до и после выхода ChatGPT (30 ноября 2022 года)
Результаты:
— Сразу после ноября 2022 года частота GPT-слов у человеков резко и значительно подскочила
В то же время их "синтетические двойники" (контрольная группа) продолжили вести себя как раньше
— Для топ-20 GPT-слов рост составил от 25 % до 50 % в год
— Эффект наблюдался не только в академических лекциях (где текст может быть написан заранее), но и в спонтанных разговорах в подкастах
Это говорит о том, что люди начинают усваивать эти слова и использовать их в обычной беседе
— Влияние сильнее всего проявилось в подкастах на темы науки и технологий, бизнеса и образования
В подкастах про спорт и религию значимого роста не было
Заражение языком LLM идет в первую очередь через те сферы, где люди активнее всего используют ChatGPT для работы
Так что машины, которые учились на человеческом корпусе текстов, теперь учат людей говорить
Ну и что-то там про то, что если модели так легко и незаметно могут повлиять на наш выбор слов, то в будущем его можно будет использовать для более глубокого влияния на наши мысли, мнения и вообще общественный дискурс в огромных масштабах
В самых последних моделях (GPT-4-turbo и GPT-4o — исследования публикуются дольше, чем релизятся модели) "любовь" к слову "delve" стала заметно меньше
Возможно, они там тоже заметили эту стилистическую особенность и вручную её исправляют
А вот вторая работа про влияние на язык
Тут про то, что большие языковые модели отражают и усиливают существующее в обществе убеждение, что есть «правильный» способ говорить, а все остальные — диалекты, акценты, языковые варианты — менее престижны или даже неверны
Речь сейчас про стандартный американский, а всякие вариации идут лесом
На самом деле, с точки зрения лингвистики, все языковые варианты равны, независимо от количества носителей
Просто диалект становится языком, когда у него появляется своя армия и флот
Работа вот
1. Взяли огромное количество текстов, написанных людьми (научные статьи с arXiv, bioRxiv, Nature, эссе, почты и так далее)
2. Попросили разные версии ChatGPT (GPT-3.5, GPT-4, GPT-4o) отредактировать или улучшить эти тексты на обычных промптах без определения стиля
3. Сравнили частоту употребления слов в оригинальных человеческих и отредактированных текстах
В любимые слова попали:
• delve (вникать, углубляться)
• comprehend (постигать, понимать)
• boast (хвастаться, гордиться)
• swift (стремительный, быстрый)
• meticulous (дотошный, скрупулезный)
• underscore (подчеркивать)
• bolster (укреплять, поддерживать)
Чтобы отследить изменения в реальной речи, ученые собрали базу данных:
— 360.445 записей академических лекций и докладов с YouTube
— 771.591 выпуск разговорных подкастов по разным темам (наука и технологии, бизнес, образование, религия, спорт)
Всего 740.000 часов аудио, которые превратили в текст
Данные с 2017 по 2024 год, то есть до и после выхода ChatGPT (30 ноября 2022 года)
Результаты:
— Сразу после ноября 2022 года частота GPT-слов у человеков резко и значительно подскочила
В то же время их "синтетические двойники" (контрольная группа) продолжили вести себя как раньше
— Для топ-20 GPT-слов рост составил от 25 % до 50 % в год
— Эффект наблюдался не только в академических лекциях (где текст может быть написан заранее), но и в спонтанных разговорах в подкастах
Это говорит о том, что люди начинают усваивать эти слова и использовать их в обычной беседе
— Влияние сильнее всего проявилось в подкастах на темы науки и технологий, бизнеса и образования
В подкастах про спорт и религию значимого роста не было
Заражение языком LLM идет в первую очередь через те сферы, где люди активнее всего используют ChatGPT для работы
Так что машины, которые учились на человеческом корпусе текстов, теперь учат людей говорить
Ну и что-то там про то, что если модели так легко и незаметно могут повлиять на наш выбор слов, то в будущем его можно будет использовать для более глубокого влияния на наши мысли, мнения и вообще общественный дискурс в огромных масштабах
В самых последних моделях (GPT-4-turbo и GPT-4o — исследования публикуются дольше, чем релизятся модели) "любовь" к слову "delve" стала заметно меньше
Возможно, они там тоже заметили эту стилистическую особенность и вручную её исправляют
А вот вторая работа про влияние на язык
Тут про то, что большие языковые модели отражают и усиливают существующее в обществе убеждение, что есть «правильный» способ говорить, а все остальные — диалекты, акценты, языковые варианты — менее престижны или даже неверны
Речь сейчас про стандартный американский, а всякие вариации идут лесом
На самом деле, с точки зрения лингвистики, все языковые варианты равны, независимо от количества носителей
Просто диалект становится языком, когда у него появляется своя армия и флот
Евклидова геометрия, излагаемая в современных школьных учебниках, основана на труде "Начала", написанном около 300 г. до н.э.
Однако с точки зрения современной математической строгости эта система содержит ряд фундаментальных пробелов
Евклид начинает "Начала" с определений, которые с современной точки зрения таковыми не являются
Например, точка определяется как "то, что не имеет частей", прямая линия — как "длина без ширины"
Эти описания носят интуитивный характер и не могут служить основой для формальной аксиоматики
Углы вводятся без определения меры
Евклид оперирует понятиями "больше" или "меньше", но не определяет сложение углов или их равенство аксиоматически
Он пользуется утверждением "точка B лежит между A и C", никак не определяя, что значит "между" — понятием, основанным на аксиомах порядка
Для доказательства равенства треугольников Евклид использует наложение фигур, но не аксиоматизирует движение
При построении равностороннего треугольника предполагает, что две окружности пересекаются, опираясь на интуитивное представление (а не на аксиому непрерывности)
В доказательстве теоремы Пифагора использует свойства площадей без строгого определения самого понятия площади
Применяет теорему Паша (если прямая пересекает одну сторону треугольника и не проходит через вершины, она пересекает другую сторону) без доказательства и включения в аксиоматику
Евклидова геометрия, несмотря на свою педагогическую ценность, представляет собой упрощённую и интуитивную версию, не соответствующую современным стандартам математической строгости
Подлинная аксиоматическая основа геометрии была создана только в конце XIX — начале XX вв. благодаря работам Гильберта, Пеано и других математиков
Однако эти недостатки не умаляют заслуг Евклида (который по одной из версий был не одним человеком, а коллективным псевдонимом александрийских математиков, объединивших знания эпохи в единый канон), но показывают эволюцию математики: от интуитивных построений к формальной точности
Его главный вклад состоял не в открытии новых теорем, а в создании логически связной системы, в которой каждое утверждение выводится из явно сформулированных посылок
И хотя современная наука выявила пробелы в этой системе, "Начала" остаются выдающимся примером научного мышления, свидетельством того, что математика остается живой наукой, где даже канонические тексты подвергаются переосмыслению
Однако с точки зрения современной математической строгости эта система содержит ряд фундаментальных пробелов
Евклид начинает "Начала" с определений, которые с современной точки зрения таковыми не являются
Например, точка определяется как "то, что не имеет частей", прямая линия — как "длина без ширины"
Эти описания носят интуитивный характер и не могут служить основой для формальной аксиоматики
Углы вводятся без определения меры
Евклид оперирует понятиями "больше" или "меньше", но не определяет сложение углов или их равенство аксиоматически
Он пользуется утверждением "точка B лежит между A и C", никак не определяя, что значит "между" — понятием, основанным на аксиомах порядка
Для доказательства равенства треугольников Евклид использует наложение фигур, но не аксиоматизирует движение
При построении равностороннего треугольника предполагает, что две окружности пересекаются, опираясь на интуитивное представление (а не на аксиому непрерывности)
В доказательстве теоремы Пифагора использует свойства площадей без строгого определения самого понятия площади
Применяет теорему Паша (если прямая пересекает одну сторону треугольника и не проходит через вершины, она пересекает другую сторону) без доказательства и включения в аксиоматику
Евклидова геометрия, несмотря на свою педагогическую ценность, представляет собой упрощённую и интуитивную версию, не соответствующую современным стандартам математической строгости
Подлинная аксиоматическая основа геометрии была создана только в конце XIX — начале XX вв. благодаря работам Гильберта, Пеано и других математиков
Однако эти недостатки не умаляют заслуг Евклида (который по одной из версий был не одним человеком, а коллективным псевдонимом александрийских математиков, объединивших знания эпохи в единый канон), но показывают эволюцию математики: от интуитивных построений к формальной точности
Его главный вклад состоял не в открытии новых теорем, а в создании логически связной системы, в которой каждое утверждение выводится из явно сформулированных посылок
И хотя современная наука выявила пробелы в этой системе, "Начала" остаются выдающимся примером научного мышления, свидетельством того, что математика остается живой наукой, где даже канонические тексты подвергаются переосмыслению
Витгенштейн против математики: почему 2+2=4 — не факт, а правило
Людвиг Витгенштейн (1889–1951) – родился в семье одного из самых богатых промышленников Австрии: дом Витгенштейнов в Вене был культурным центром эпохи, там бывали Малер, Брамс и Климт
Тем не менее сам Людвиг чувствовал себя «существом из другого мира»: уже в детстве он с увлечением конструировал механизмы (в 10 лет сконструировал работающую швейную машинку), но не находил понимания среди сверстников
В строгой школе в Линце будущий философ учился тяжело и, казалось, слишком рано осознал «бесчеловечную» сторону успеха – три его брата впоследствии покончили с собой
С необычайной инженерной одаренностью Витгенштейн поступил в Берлинский технический университет (1906), потом в Манчестерский университет (1908) изучать авиационную инженерию
Там он не только решал теоретические задачи (проектировал пропеллер с реактивным двигателем на конце лопасти), но и сам собирал и испытывал опытные образцы
Чтобы продвигать свои исследования, Витгенштейн углубился в математику и столкнулся с «Principia Mathematica» Б. Рассела (1903)
Руководители лаборатории заметили его интерес и даже помогли юному инженеру посоветоваться с великим логиком Готлобом Фреге
Фреге сразу понял, что перед ним гениальный ум, и направил Витгенштейна в Кембридж к Расселу
Людвиг Витгенштейн (1889–1951) – родился в семье одного из самых богатых промышленников Австрии: дом Витгенштейнов в Вене был культурным центром эпохи, там бывали Малер, Брамс и Климт
Тем не менее сам Людвиг чувствовал себя «существом из другого мира»: уже в детстве он с увлечением конструировал механизмы (в 10 лет сконструировал работающую швейную машинку), но не находил понимания среди сверстников
В строгой школе в Линце будущий философ учился тяжело и, казалось, слишком рано осознал «бесчеловечную» сторону успеха – три его брата впоследствии покончили с собой
С необычайной инженерной одаренностью Витгенштейн поступил в Берлинский технический университет (1906), потом в Манчестерский университет (1908) изучать авиационную инженерию
Там он не только решал теоретические задачи (проектировал пропеллер с реактивным двигателем на конце лопасти), но и сам собирал и испытывал опытные образцы
Чтобы продвигать свои исследования, Витгенштейн углубился в математику и столкнулся с «Principia Mathematica» Б. Рассела (1903)
Руководители лаборатории заметили его интерес и даже помогли юному инженеру посоветоваться с великим логиком Готлобом Фреге
Фреге сразу понял, что перед ним гениальный ум, и направил Витгенштейна в Кембридж к Расселу
Ml
Витгенштейн против математики: почему 2+2=4 — не факт, а правило Людвиг Витгенштейн (1889–1951) – родился в семье одного из самых богатых промышленников Австрии: дом Витгенштейнов в Вене был культурным центром эпохи, там бывали Малер, Брамс и Климт Тем не…
С 1911 года Витгенштейн стал аспирантом Тринити-колледжа Кембриджа, погрузившись в изучение математической логики под руководством Рассела Сам Рассел позже признавался, что преподавать Витгенштейну было «одним из самых захватывающих интеллектуальных приключений моей жизни»: молодой философ действительно обладал «огнем и проницательностью» мысли
Но Витгенштейн был человеком крайностей: он изводил себя высокими требованиями и с трудом переносил «ловлю умных мыслей» среди коллег
Стремясь уйти от болтовни «интеллектуалов», он едва не бросил Кембридж и уединился в Норвегии, где в полном одиночестве занимался языковыми и логическими упражнениями
Но Витгенштейн был человеком крайностей: он изводил себя высокими требованиями и с трудом переносил «ловлю умных мыслей» среди коллег
Стремясь уйти от болтовни «интеллектуалов», он едва не бросил Кембридж и уединился в Норвегии, где в полном одиночестве занимался языковыми и логическими упражнениями
Ml
С 1911 года Витгенштейн стал аспирантом Тринити-колледжа Кембриджа, погрузившись в изучение математической логики под руководством Рассела Сам Рассел позже признавался, что преподавать Витгенштейну было «одним из самых захватывающих интеллектуальных приключений…
Когда в июле 1914 года началась Первая мировая, Витгенштейн вернулся в Австрию
Формально он был непригоден к службе из-за грыжи, но добровольно записался в армию
Это решение биографы считают одним из самых загадочных и храбрых шагов в его жизни
Он мог продолжать жизнь богатого интеллектуала или же уединиться в Норвегии, но вместо этого выбрал «проверку на прочность»
В дневнике тех лет он признавался:
«Близость смерти наполнит мою жизнь светом
Пусть Господь просветит меня
Я червь, но с Божьей помощью стану человеком»
В августе 1914 года его определили в крепостную артиллерию под Краковом
Уже там он начал писать тексты, которые позже сложатся в «Логико-философский трактат»
На войне Витгенштейн вёл суровый дневник: жаловался на холод, тесноту, «грязь и шум» на корабле, на страх стрелять во врага
В 1916 году он попал на Восточный фронт, пережил Брусиловский прорыв, проявил мужество и получил медаль за отвагу
В 1917 году стал офицером и вновь отличился в боях, спасая товарищей
Всего за войну Витгенштейн получил две награды за храбрость и звание лейтенанта
Но для него важнее было другое: война стала ареной, где проверялась не сила оружия, а сила духа
В самые тяжёлые минуты он продолжал работать над трактатом, стремясь превратить хаос окопной жизни в логическую ясность
За несколько недель до конца войны он оказался в плену у итальянцев, в лагере под Монте-Кассино
Именно там он завершил рукопись «Логико-философского трактата» (1918), которая стала главным философским документом его жизни
Концентрированный текст о языке и логике был написан под грохот снарядов, между окопами, госпиталями и лагерем военнопленных.
После войны Витгенштейн отказался от наследства и попытался отойти от философии: работал сельским учителем, строил дом для сестры в Вене
Но в конце концов вернулся в Кембридж, защитил трактат в качестве диссертации и снова занял место в центре интеллектуальной сцены
Его философия разделилась на «ранний» и «поздний» периоды, но сквозь оба этапа проходит красной нитью одна тема: математика и её природа
Не случайно сам Витгенштейн называл философию математики своим «главным вкладом»
Формально он был непригоден к службе из-за грыжи, но добровольно записался в армию
Это решение биографы считают одним из самых загадочных и храбрых шагов в его жизни
Он мог продолжать жизнь богатого интеллектуала или же уединиться в Норвегии, но вместо этого выбрал «проверку на прочность»
В дневнике тех лет он признавался:
«Близость смерти наполнит мою жизнь светом
Пусть Господь просветит меня
Я червь, но с Божьей помощью стану человеком»
В августе 1914 года его определили в крепостную артиллерию под Краковом
Уже там он начал писать тексты, которые позже сложатся в «Логико-философский трактат»
На войне Витгенштейн вёл суровый дневник: жаловался на холод, тесноту, «грязь и шум» на корабле, на страх стрелять во врага
В 1916 году он попал на Восточный фронт, пережил Брусиловский прорыв, проявил мужество и получил медаль за отвагу
В 1917 году стал офицером и вновь отличился в боях, спасая товарищей
Всего за войну Витгенштейн получил две награды за храбрость и звание лейтенанта
Но для него важнее было другое: война стала ареной, где проверялась не сила оружия, а сила духа
В самые тяжёлые минуты он продолжал работать над трактатом, стремясь превратить хаос окопной жизни в логическую ясность
За несколько недель до конца войны он оказался в плену у итальянцев, в лагере под Монте-Кассино
Именно там он завершил рукопись «Логико-философского трактата» (1918), которая стала главным философским документом его жизни
Концентрированный текст о языке и логике был написан под грохот снарядов, между окопами, госпиталями и лагерем военнопленных.
После войны Витгенштейн отказался от наследства и попытался отойти от философии: работал сельским учителем, строил дом для сестры в Вене
Но в конце концов вернулся в Кембридж, защитил трактат в качестве диссертации и снова занял место в центре интеллектуальной сцены
Его философия разделилась на «ранний» и «поздний» периоды, но сквозь оба этапа проходит красной нитью одна тема: математика и её природа
Не случайно сам Витгенштейн называл философию математики своим «главным вкладом»
Витгенштейн в «Трактате» видел математику как игру со знаками и для него «2+2=4» — это правило, а не факт; его спор с Гильбертом и Брауэром о формализме и интуиционизме и новый взгляд на гёделевскую неполноту; поворот к поздней философии, где математика понимается как языковая игра и грамматика практик, а доказательство придаёт смысл высказыванию; и, наконец, влияние этих идей на современную философию — от натурализма Пенелопы Мэдди до работы с аксиомами, proof assistants и преподавания математики сегодня
Ml
Евклидова геометрия, излагаемая в современных школьных учебниках, основана на труде "Начала", написанном около 300 г. до н.э. Однако с точки зрения современной математической строгости эта система содержит ряд фундаментальных пробелов Евклид начинает "Начала"…
В погоне за быстрыми баллами на экзаменах школьники всё чаще обращаются к пабликам, которые предлагают "волшебные таблетки" — готовые алгоритмы для решения задач без всякого понимания
К сожалению, таким подходом увлекаются и некоторые учителя и репетиторы
Подобный метод изучения геометрии не просто бесполезен — он активно вредит образовательному процессу
Главная опасность этих "лайфхаков" в том, что они создают у учеников иллюзию знания предмета
Когда ученики видят, что математику можно "хакнуть" простыми шаблонами, они формируют совершенно искажённое представление о ней
На самом деле, геометрия — это не набор трюков для быстрого получения ответа, а фундаментальная наука, построенная на строгих доказательствах и логических рассуждениях
В чём проявляется этот вред? Достаточно просто чуть изменить формулировку, перевернуть рисунок или дать задачу на доказательство — и вся система его псевдо-знаний рухнет
Геометрия — это в первую очередь умение рассуждать и доказывать
«Лайфхаки» же заменяют эту сложную, но полезную работу примитивным действием с числами
Единственный надёжный путь к успеху — это подлинное, глубокое понимание
Пренебрегая закладкой этого фундамента, ученик теряет саму суть предмета
Как следствие, при переходе к более сложным темам он неизбежно столкнётся с непреодолимыми трудностями
Настоящее знание, безусловно, требует времени и усилий, но оно того стоит — оно формирует критическое мышление и интеллектуальную гибкость, которые будут служить ученику всю жизнь, а не только до следующей контрольной
К сожалению, таким подходом увлекаются и некоторые учителя и репетиторы
Подобный метод изучения геометрии не просто бесполезен — он активно вредит образовательному процессу
Главная опасность этих "лайфхаков" в том, что они создают у учеников иллюзию знания предмета
Когда ученики видят, что математику можно "хакнуть" простыми шаблонами, они формируют совершенно искажённое представление о ней
На самом деле, геометрия — это не набор трюков для быстрого получения ответа, а фундаментальная наука, построенная на строгих доказательствах и логических рассуждениях
В чём проявляется этот вред? Достаточно просто чуть изменить формулировку, перевернуть рисунок или дать задачу на доказательство — и вся система его псевдо-знаний рухнет
Геометрия — это в первую очередь умение рассуждать и доказывать
«Лайфхаки» же заменяют эту сложную, но полезную работу примитивным действием с числами
Единственный надёжный путь к успеху — это подлинное, глубокое понимание
Пренебрегая закладкой этого фундамента, ученик теряет саму суть предмета
Как следствие, при переходе к более сложным темам он неизбежно столкнётся с непреодолимыми трудностями
Настоящее знание, безусловно, требует времени и усилий, но оно того стоит — оно формирует критическое мышление и интеллектуальную гибкость, которые будут служить ученику всю жизнь, а не только до следующей контрольной
Ml
В погоне за быстрыми баллами на экзаменах школьники всё чаще обращаются к пабликам, которые предлагают "волшебные таблетки" — готовые алгоритмы для решения задач без всякого понимания К сожалению, таким подходом увлекаются и некоторые учителя и репетиторы…
Школьная геометрия постоянно балансирует между необходимостью быть понятной для учеников и соответствовать стандартам математической строгости
Это не противоречие, а естественное напряжение, присущее любому учебному предмету: как передать суть науки, не перегружая учащихся излишней формализацией?
Наиболее эффективные курсы находят золотую середину — сохраняя логическую структуру, но адаптируя её к возрастным возможностям учеников
Мы не можем и не должны предлагать школьникам аксиоматику Гильберта с её двадцатью с лишним строгими аксиомами
Но и делать вид, что математика остановилась в III веке до н.э., игнорируя очевидные пробелы евклидовой системы, тоже нелепо
Оптимальный подход — честно указывать на границы школьной аксиоматики, например, поясняя:
Что значит эта честность на практике?
Прежде всего — отказ от иллюзий
Принять как постулат "очевидные" свойства непрерывности плоскости, открыто говоря ученикам:
Кроме того, мне кажется разумным отказаться от "наложения" как метода доказательства, создающего видимость строгости там, где её нет
Чтобы учесть возрастные особенности учащихся, можно выстраивать курс как систему постепенных переходов — от визуальной очевидности к строгим доказательствам
Вначале — простые, понятные вещи: первые факты, треугольники, дополнительные построения
Мы не доказываем — мы учимся пользоваться фактами
Решаем красивые задачи, развиваем пространственную интуицию, привыкаем видеть связи
Всё это осваивается практически, через деятельность
Когда абстрактное мышление достигает новой зрелости, постепенно начинаем "поднимать занавес" — показываем, как работают доказательства, как из аксиом рождаются теоремы
Представляется полезным принцип разделения путей:
- Синтетическая геометрия — для развития логического мышления, доказательств, рассуждений в чистом виде
- Аналитическая геометрия — для практических нужд и вычислений
Эти два потока могут идти параллельно, взаимно обогащая друг друга
Однако главная цель школьного курса — не формальная строгость, а развитие мышления через решение задач
Геометрия в школе — не музей готовых истин, а живая лаборатория мысли
Задача учителя — не навязывать строгость, а бросать "семена сомнений" и терпеливо ждать, когда они прорастут в учениках
Геометрия в школе — инструмент для развития критического мышления
Ученики учатся работать с объектами, которые визуально понятны (такими как треугольники), но при этом требуют точного обоснования
Математика предстаёт не как набор готовых истин, а как постоянный процесс: от живого наблюдения к строгому обоснованию и обратно
Такой подход формирует навык проверять свои интуитивные предположения через логические рассуждения, что полезно не только в геометрии, но и в повседневной жизни
Это не противоречие, а естественное напряжение, присущее любому учебному предмету: как передать суть науки, не перегружая учащихся излишней формализацией?
Наиболее эффективные курсы находят золотую середину — сохраняя логическую структуру, но адаптируя её к возрастным возможностям учеников
Мы не можем и не должны предлагать школьникам аксиоматику Гильберта с её двадцатью с лишним строгими аксиомами
Но и делать вид, что математика остановилась в III веке до н.э., игнорируя очевидные пробелы евклидовой системы, тоже нелепо
Оптимальный подход — честно указывать на границы школьной аксиоматики, например, поясняя:
"Это утверждение мы принимаем без доказательства, потому что его строгое обоснование выходит за рамки школьной программы, но в университетском курсе вы с ним познакомитесь"
Что значит эта честность на практике?
Прежде всего — отказ от иллюзий
Принять как постулат "очевидные" свойства непрерывности плоскости, открыто говоря ученикам:
"Здесь мы опираемся на интуитивное представление о сплошности пространства, хотя в строгой математике это требует сложного обоснования"
Кроме того, мне кажется разумным отказаться от "наложения" как метода доказательства, создающего видимость строгости там, где её нет
Чтобы учесть возрастные особенности учащихся, можно выстраивать курс как систему постепенных переходов — от визуальной очевидности к строгим доказательствам
Вначале — простые, понятные вещи: первые факты, треугольники, дополнительные построения
Мы не доказываем — мы учимся пользоваться фактами
Решаем красивые задачи, развиваем пространственную интуицию, привыкаем видеть связи
Всё это осваивается практически, через деятельность
Когда абстрактное мышление достигает новой зрелости, постепенно начинаем "поднимать занавес" — показываем, как работают доказательства, как из аксиом рождаются теоремы
Представляется полезным принцип разделения путей:
- Синтетическая геометрия — для развития логического мышления, доказательств, рассуждений в чистом виде
- Аналитическая геометрия — для практических нужд и вычислений
Эти два потока могут идти параллельно, взаимно обогащая друг друга
Однако главная цель школьного курса — не формальная строгость, а развитие мышления через решение задач
Геометрия в школе — не музей готовых истин, а живая лаборатория мысли
Задача учителя — не навязывать строгость, а бросать "семена сомнений" и терпеливо ждать, когда они прорастут в учениках
Геометрия в школе — инструмент для развития критического мышления
Ученики учатся работать с объектами, которые визуально понятны (такими как треугольники), но при этом требуют точного обоснования
Математика предстаёт не как набор готовых истин, а как постоянный процесс: от живого наблюдения к строгому обоснованию и обратно
Такой подход формирует навык проверять свои интуитивные предположения через логические рассуждения, что полезно не только в геометрии, но и в повседневной жизни
Один профессор так объяснял сходимость степенного и расходимость гармонического рядов:
Бармен, каждый раз наливает вдвое меньше
Сначала полный стакан, потом половину, потом четверть, одну восьмую и так далее
Так вы никогда не напьетесь!
А вот если бы сначала полный стакан налили, потом половину, потом треть, четверть, одну пятую и так далее — таким манером вы весь бар выпьете!
Бармен, каждый раз наливает вдвое меньше
Сначала полный стакан, потом половину, потом четверть, одну восьмую и так далее
Так вы никогда не напьетесь!
А вот если бы сначала полный стакан налили, потом половину, потом треть, четверть, одну пятую и так далее — таким манером вы весь бар выпьете!
«Просвещение надобно внедрять с умеренностью, по возможности избегая кровопролития»
Михаи́л Евгра́фович Салтыко́в-Щедри́н