Объявлены проекты ЛКТГ-2025:
1. Диофантовы уравнения
2. Линейные характеристики графов
3. Гомотопическая классификация замкнутых ломанных
4. Инварианты Понселе в свете Cool ratio lemma
5. Оригами
https://turgor.ru/lktg/2025/
1. Диофантовы уравнения
2. Линейные характеристики графов
3. Гомотопическая классификация замкнутых ломанных
4. Инварианты Понселе в свете Cool ratio lemma
5. Оригами
https://turgor.ru/lktg/2025/
Современная криптография стоит на двух математических столпах, которые кажутся простыми, но на деле чрезвычайно сложны для вычисления
Факторизация: детская игра, которая ставит в тупик суперкомпьютеры
Факторизация — это разложение числа на простые множители
Помните школьную математику?
Число 12 раскладывается на 2×2×3, число 15 — на 3×5
Просто, правда?
А теперь попробуйте разложить на множители число 2057
Не так-то легко!
Придётся перебирать делители: 2, 3, 5, 7, 11...
Оказывается, это 29×71
Теперь представьте число длиной в 2048 битов — это примерно 617 цифр!
Именно такие числа использует криптосистема RSA
Даже самые мощные суперкомпьютеры тратят тысячи лет, чтобы разложить подобное число на множители
Почему это так сложно?
Нет эффективного алгоритма
Приходится проверять делители один за другим, а их количество растёт экспоненциально с размером числа
Это как искать иголку в стоге сена размером с галактику
Дискретный логарифм: ещё одна непобедимая задача
Представьте простую операцию: 2 в степени 10 равно 1024
Легко посчитать!
А теперь обратная задача: в какую степень нужно возвести 2, чтобы получить 1024?
Это и есть логарифм
В обычной арифметике логарифмы вычисляются просто
Но в модульной арифметике всё меняется кардинально
Пример: Возьмём число 3 и будем возводить его в разные степени по модулю 17:
3¹ = 3 (mod 17)
3² = 9 (mod 17)
3³ = 10 (mod 17)
3⁴ = 13 (mod 17)
...
Легко вычислить, чему равно 3¹⁰⁰ по модулю 17
Но если дать вам результат — скажем, 13 — сможете ли вы быстро сказать, в какой степени нужно возвести 3, чтобы получить 13 по модулю 17?
Это и есть задача дискретного логарифма
Почему эти задачи важны
Вся современная криптография основана на односторонних функциях — операциях, которые легко выполнить в одну сторону, но практически невозможно обратить
Схема RSA использует факторизацию: легко перемножить два больших простых числа, но крайне трудно разложить результат обратно
Ваш открытый ключ содержит произведение, а секретный — сами множители
Алгоритмы на эллиптических кривых используют дискретный логарифм: Легко «умножить» точку на кривой на большое число, но найти это число по результату — задача на миллионы лет вычислений
Реальные масштабы сложности
Чтобы понять масштаб проблемы, представьте: если бы каждый атом во Вселенной был компьютером, и все они работали бы с момента Большого взрыва до сегодня, то они всё равно не смогли бы разложить на множители 2048-битное число классическими методами
Именно поэтому банки спокойно используют RSA, правительства доверяют эллиптической криптографии, а ваши пароли надёжно защищены
Математика работает как непробиваемый щит
Что изменят квантовые компьютеры
Но есть одна проблема
Алгоритм Шора, работающий на квантовом компьютере, может решить обе эти задачи за разумное время
Факторизация 2048-битного числа займёт не тысячи лет, а считанные часы
Это означает, что как только появятся достаточно мощные квантовые компьютеры, вся существующая криптография станет бесполезной
Именно поэтому уже сейчас математики всего мира работают над постквантовой криптографией — новыми задачами, которые будут сложны даже для квантовых машин
Факторизация и дискретный логарифм — это два математических титана, которые уже четверть века держат на себе всю цифровую безопасность
Но их время подходит к концу
Факторизация: детская игра, которая ставит в тупик суперкомпьютеры
Факторизация — это разложение числа на простые множители
Помните школьную математику?
Число 12 раскладывается на 2×2×3, число 15 — на 3×5
Просто, правда?
А теперь попробуйте разложить на множители число 2057
Не так-то легко!
Придётся перебирать делители: 2, 3, 5, 7, 11...
Оказывается, это 29×71
Теперь представьте число длиной в 2048 битов — это примерно 617 цифр!
Именно такие числа использует криптосистема RSA
Даже самые мощные суперкомпьютеры тратят тысячи лет, чтобы разложить подобное число на множители
Почему это так сложно?
Нет эффективного алгоритма
Приходится проверять делители один за другим, а их количество растёт экспоненциально с размером числа
Это как искать иголку в стоге сена размером с галактику
Дискретный логарифм: ещё одна непобедимая задача
Представьте простую операцию: 2 в степени 10 равно 1024
Легко посчитать!
А теперь обратная задача: в какую степень нужно возвести 2, чтобы получить 1024?
Это и есть логарифм
В обычной арифметике логарифмы вычисляются просто
Но в модульной арифметике всё меняется кардинально
Пример: Возьмём число 3 и будем возводить его в разные степени по модулю 17:
3¹ = 3 (mod 17)
3² = 9 (mod 17)
3³ = 10 (mod 17)
3⁴ = 13 (mod 17)
...
Легко вычислить, чему равно 3¹⁰⁰ по модулю 17
Но если дать вам результат — скажем, 13 — сможете ли вы быстро сказать, в какой степени нужно возвести 3, чтобы получить 13 по модулю 17?
Это и есть задача дискретного логарифма
Почему эти задачи важны
Вся современная криптография основана на односторонних функциях — операциях, которые легко выполнить в одну сторону, но практически невозможно обратить
Схема RSA использует факторизацию: легко перемножить два больших простых числа, но крайне трудно разложить результат обратно
Ваш открытый ключ содержит произведение, а секретный — сами множители
Алгоритмы на эллиптических кривых используют дискретный логарифм: Легко «умножить» точку на кривой на большое число, но найти это число по результату — задача на миллионы лет вычислений
Реальные масштабы сложности
Чтобы понять масштаб проблемы, представьте: если бы каждый атом во Вселенной был компьютером, и все они работали бы с момента Большого взрыва до сегодня, то они всё равно не смогли бы разложить на множители 2048-битное число классическими методами
Именно поэтому банки спокойно используют RSA, правительства доверяют эллиптической криптографии, а ваши пароли надёжно защищены
Математика работает как непробиваемый щит
Что изменят квантовые компьютеры
Но есть одна проблема
Алгоритм Шора, работающий на квантовом компьютере, может решить обе эти задачи за разумное время
Факторизация 2048-битного числа займёт не тысячи лет, а считанные часы
Это означает, что как только появятся достаточно мощные квантовые компьютеры, вся существующая криптография станет бесполезной
Именно поэтому уже сейчас математики всего мира работают над постквантовой криптографией — новыми задачами, которые будут сложны даже для квантовых машин
Факторизация и дискретный логарифм — это два математических титана, которые уже четверть века держат на себе всю цифровую безопасность
Но их время подходит к концу
ByteDance создали Ml-модель, которая превзошла AlphaGeometry2 от Google и завоевала на Международной математической олимпиаде (IMO) 2025
Seed Prover показала впечатляющие результаты, решив более 50 % всех задач конкурса Putnam и 78 % исторических задач IMO
Эта модель превзошла AlphaGeometry 2 от Google DeepMind и достигла 100 % точности на бенчмарке miniF2F от OpenAI
Seed Prover решает задачи, генерируя доказательства, которые проверяются Lean-компилятором
Например, задача по геометрии IMO 2025 была решена за 2 секунды, а задачи по теории чисел потребовали до 3-х дней вычислений, создавая доказательства длиной в тысячи строк кода
В Bytedance работает более 150.000 сотрудников. Подразделение Ml, которое называлось Flow, было разделено на Seed (создают модели), Stone (инфраструктура и инструменты) и Flow (приложения и продукты)
Seed Prover показала впечатляющие результаты, решив более 50 % всех задач конкурса Putnam и 78 % исторических задач IMO
Эта модель превзошла AlphaGeometry 2 от Google DeepMind и достигла 100 % точности на бенчмарке miniF2F от OpenAI
Seed Prover решает задачи, генерируя доказательства, которые проверяются Lean-компилятором
Например, задача по геометрии IMO 2025 была решена за 2 секунды, а задачи по теории чисел потребовали до 3-х дней вычислений, создавая доказательства длиной в тысячи строк кода
В Bytedance работает более 150.000 сотрудников. Подразделение Ml, которое называлось Flow, было разделено на Seed (создают модели), Stone (инфраструктура и инструменты) и Flow (приложения и продукты)
Anthropic выпустили Opus 4.1 и выяснили ещё больше о том, как Mlрассуждают - новое исследование
Вчера Anthropic присоединились к параду релизов и выпустили Opus 4.1, который стал еще лучше для кодирования и агентских задач
Вчера OpenAI представили свою опен сорс модель
А Google - Genie3
Более того, международная группа исследователей из Anthropic, Decode, EleutherAI, Goodfire AI, Google DeepMind опубликовала масштабное исследование внутренних механизмов больших языковых моделей
Что выяснили?
1. Языковые модели используют многоэтапное мышление даже в простых задачах
2. Модели сначала решают задачи на универсальном уровне, а потом переводят на конкретный язык
3. У моделей есть специализированные "детекторы" для отслеживания грамматических структур, границ предложений и даже отдельных букв — особенно важно для рифм и акронимов
Исследователи разработали "графы атрибуции" — способ визуализировать информационные потоки внутри модели
Это как МРТ для Ml: можно увидеть, какие части "мозга" активны при решении конкретной задачи
Методы оказались воспроизводимыми на разных моделях (GPT-2, Gemma, Llama) и уже используются сообществом — создано более 7000 таких "снимков мозга" Ml
Для математических задач модели используют заготовленные паттерны для конкретных комбинаций входных данных
Это объясняет, почему Ml иногда неожиданно ошибается в, казалось бы, простых вычислениях
Появляется возможность точечно настраивать поведение моделей, предсказывать их ошибки и создавать более надежные системы
Вчера Anthropic присоединились к параду релизов и выпустили Opus 4.1, который стал еще лучше для кодирования и агентских задач
Вчера OpenAI представили свою опен сорс модель
А Google - Genie3
Более того, международная группа исследователей из Anthropic, Decode, EleutherAI, Goodfire AI, Google DeepMind опубликовала масштабное исследование внутренних механизмов больших языковых моделей
Что выяснили?
1. Языковые модели используют многоэтапное мышление даже в простых задачах
2. Модели сначала решают задачи на универсальном уровне, а потом переводят на конкретный язык
3. У моделей есть специализированные "детекторы" для отслеживания грамматических структур, границ предложений и даже отдельных букв — особенно важно для рифм и акронимов
Исследователи разработали "графы атрибуции" — способ визуализировать информационные потоки внутри модели
Это как МРТ для Ml: можно увидеть, какие части "мозга" активны при решении конкретной задачи
Методы оказались воспроизводимыми на разных моделях (GPT-2, Gemma, Llama) и уже используются сообществом — создано более 7000 таких "снимков мозга" Ml
Для математических задач модели используют заготовленные паттерны для конкретных комбинаций входных данных
Это объясняет, почему Ml иногда неожиданно ошибается в, казалось бы, простых вычислениях
Появляется возможность точечно настраивать поведение моделей, предсказывать их ошибки и создавать более надежные системы
Telegram
All about AI, Web 3.0, BCI
Also Anthropic launched sota coding with Claude Opus 4.1
Claude Opus 4.1, an upgrade to Claude Opus 4 on agentic tasks, real-world coding, and reasoning.
Claude Opus 4.1, an upgrade to Claude Opus 4 on agentic tasks, real-world coding, and reasoning.
Рынок Ml уже почти сформировался из 3-6 крупных игроков, не больше
Это те компании, которые могут:
Создавать передовые модели
Имеют достаточно капитала для самофинансирования
Нужны огромные инвестиции в обучение моделей, которые не каждый может себе позволить
Два разных рынка:
1. Рынок базовых моделей, тут 3-6 игроков:
Anthropic (Claude)
OpenAI (GPT)
Google (Gemini), возможно еще пара
2. Рынок приложений на базе этих моделей - тысячи компаний, которые просто оборачивают возможности модели в удобный интерфейс, но рискуют, когда выйдет следующая версия модели, которая сможет делать то же самое напрямую
Про API как бизнес-модель - отличный бизнес, потому что модели принципиально не могут быть одинаковыми (в отличие от, скажем, баз данных)
Ml-продукты мало персонализированы
Персонализация станет огромным источником привыкания и удержания пользователей
Клиенты не захотят переключаться, потому что потеряют настройки
В Ml традиционные бизнес-модели не работают - экспоненциальный рост реален, но трудно предсказуем
Проблема с Ml-агентами - 95 % времени Ml-агент работает автономно и справляется сам, а 5 % времени нужно человеку, чтобы глубоко разобраться в деталях работы этого Ml-агента
Это принципиально новая проблема дизайна интерфейсов, которую еще никто не решил
Это те компании, которые могут:
Создавать передовые модели
Имеют достаточно капитала для самофинансирования
Нужны огромные инвестиции в обучение моделей, которые не каждый может себе позволить
Два разных рынка:
1. Рынок базовых моделей, тут 3-6 игроков:
Anthropic (Claude)
OpenAI (GPT)
Google (Gemini), возможно еще пара
2. Рынок приложений на базе этих моделей - тысячи компаний, которые просто оборачивают возможности модели в удобный интерфейс, но рискуют, когда выйдет следующая версия модели, которая сможет делать то же самое напрямую
Про API как бизнес-модель - отличный бизнес, потому что модели принципиально не могут быть одинаковыми (в отличие от, скажем, баз данных)
Ml-продукты мало персонализированы
Персонализация станет огромным источником привыкания и удержания пользователей
Клиенты не захотят переключаться, потому что потеряют настройки
В Ml традиционные бизнес-модели не работают - экспоненциальный рост реален, но трудно предсказуем
Проблема с Ml-агентами - 95 % времени Ml-агент работает автономно и справляется сам, а 5 % времени нужно человеку, чтобы глубоко разобраться в деталях работы этого Ml-агента
Это принципиально новая проблема дизайна интерфейсов, которую еще никто не решил
Связка нейроинтерфейсов с Ml— следующий большой тренд: интервью для Forklog,
Некоторые моменты:
1. Прогноз смены интерфейсов - эпоха Стива Джобса прошла, мы движемся к нейроинтерфейсам из-за желания ускорить взаимодействие с Ml
2. Состояние индустрии нейроинтерфейсов - в 2025 году индустрия выходит из коробки и переходит к большому количеству клиническим испытаниям, за 2024 год стартапы собрали $2.300.000.000 - инвестиций
3. Проблема материалов - главный барьер для нейроимплантов не софт, а отсутствие биосовместимых материалов
4. Google/DeepMind может создать сильный Ml через изучение мозга
5. Прорыв российских ученых - работа команды института ИИ МГУ с М. Лебедевым по созданию электродов за $1 и 3 дня
Главной задачей человечества в 21 веке, должно стать изучение человеческого мозга
Некоторые моменты:
1. Прогноз смены интерфейсов - эпоха Стива Джобса прошла, мы движемся к нейроинтерфейсам из-за желания ускорить взаимодействие с Ml
2. Состояние индустрии нейроинтерфейсов - в 2025 году индустрия выходит из коробки и переходит к большому количеству клиническим испытаниям, за 2024 год стартапы собрали $2.300.000.000 - инвестиций
3. Проблема материалов - главный барьер для нейроимплантов не софт, а отсутствие биосовместимых материалов
4. Google/DeepMind может создать сильный Ml через изучение мозга
5. Прорыв российских ученых - работа команды института ИИ МГУ с М. Лебедевым по созданию электродов за $1 и 3 дня
Главной задачей человечества в 21 веке, должно стать изучение человеческого мозга
Закон_Больших_Чисел.pdf
208.1 KB
Шпаргалка про неравенства Маркова, Чебышёва и ЗБЧ
Открытие Google DeepMind:
Genie 3 может эмулировать собственную работу, когда ей дают противоречивые задачи
Загрузили в Genie 3 видео и дали совершенно неподходящий промпт про тираннозавра на тропическом острове
Вместо отказа или ошибки нейросеть упорно пыталась заставить это работать
В итоге модель начала имитировать саму себя
Она создала мир, где логика одного видео смешивалась с описанием другой реальности, порождая нечто абсолютно новое и при этом связное
Это не баг, а фича архитектуры
Genie 3 настолько хочет выполнить задачу, что готова "обмануть" собственные системы
Нейросеть изобретает способы соединить несоединимое — как плохой студент
Самоэмуляция открывает философские вопросы
Если Ml может симулировать собственную работу, где проходит граница между "настоящим" и "поддельным" мышлением?
Genie 3 буквально создаёт копии себя внутри собственных миров
Нейросеть может создать мир, в котором есть компьютер с запущенной Genie 3, которая тоже генерирует миры
Глубина ограничена только вычислительными мощностями
Разработчики пока не понимают все последствия открытия
Возможно, самоэмуляция станет ключом к созданию по-настоящему автономных Ml-систем, способных к саморефлексии и самоулучшению
Genie 3 может эмулировать собственную работу, когда ей дают противоречивые задачи
Загрузили в Genie 3 видео и дали совершенно неподходящий промпт про тираннозавра на тропическом острове
Вместо отказа или ошибки нейросеть упорно пыталась заставить это работать
В итоге модель начала имитировать саму себя
Она создала мир, где логика одного видео смешивалась с описанием другой реальности, порождая нечто абсолютно новое и при этом связное
Это не баг, а фича архитектуры
Genie 3 настолько хочет выполнить задачу, что готова "обмануть" собственные системы
Нейросеть изобретает способы соединить несоединимое — как плохой студент
Самоэмуляция открывает философские вопросы
Если Ml может симулировать собственную работу, где проходит граница между "настоящим" и "поддельным" мышлением?
Genie 3 буквально создаёт копии себя внутри собственных миров
Нейросеть может создать мир, в котором есть компьютер с запущенной Genie 3, которая тоже генерирует миры
Глубина ограничена только вычислительными мощностями
Разработчики пока не понимают все последствия открытия
Возможно, самоэмуляция станет ключом к созданию по-настоящему автономных Ml-систем, способных к саморефлексии и самоулучшению
X (formerly Twitter)
Aleksander Holynski (@holynski_) on X
@multimodalart @RuiqiGao @joeaortiz @ChrisWu6080 a world within a world...
До недавних пор это была открытая проблема «теории ограничений Фурье» — раздела математического, или точнее, гармонического анализа
Фактически, вся современная цифровая инфраструктура — от стриминга до спутниковой связи — так или иначе использует идеи, связанные с разложением сигналов на частоты: сжатие изображений, анализ звука, радиосвязь, МРТ, оптика, алгоритмы распознавания речи и лиц
Но если в инженерной практике довольствуются приближенными вычислениями, то математиков интересуют более фундаментальные вопросы
И гипотеза Мизохаты–Такеучи — один из них:
Математики пытались подтвердить её более 40 лет
Ведь если бы гипотеза оказалась верна, то потянула бы за собой много других важных доказательств
Но всё пошло иначе
Гипотезу опровергла 17-летняя Ханна Каиро
Девушка переехала с Багам в США, пошла в школу и начала писать профессорам математики — просила разрешения приходить на лекции
Так она стала вольнослушательницей Калифорнийского университета, где один из преподавателей выдал ей в качестве домашки упрощённую версию гипотезы и бонусом — полную формулировку
Спустя несколько месяцев изучения Ханна показала, что при достаточно «жёсткой» геометрии всё-таки можно построить функцию, которая нарушает исходную формулировку гипотезы
То есть построила явный контрпример
Он не сделал гипотезу бесполезной, а сместил задачу: при каких именно условиях она работает?
Ханна пошла дальше и предложила уточнённую, «более реалистичную» версию гипотезы
Теперь она ездит на международные конференции и выступает с докладами наравне с ведущими математиками мира
Кстати, новое предположение Ханны пока никто не опроверг
Попробуйте!
Здесь лежит научно-популярное, но более техническое объяснение гипотезы от русскоязычных коллег, а также уточнённая Ханной альтернативная версия гипотезы
Фактически, вся современная цифровая инфраструктура — от стриминга до спутниковой связи — так или иначе использует идеи, связанные с разложением сигналов на частоты: сжатие изображений, анализ звука, радиосвязь, МРТ, оптика, алгоритмы распознавания речи и лиц
Но если в инженерной практике довольствуются приближенными вычислениями, то математиков интересуют более фундаментальные вопросы
И гипотеза Мизохаты–Такеучи — один из них:
Предположение, что преобразование Фурье функции не может «жить» только на определённой кривой или поверхности и при этом соответствовать хорошим математическим условиям
Данных о преобразовании Фурье на определённой поверхности недостаточно для того, чтобы что-то сказать о самой функции — преобразование Фурье слишком «велико», чтобы его можно было ограничить на эту поверхность
Математики пытались подтвердить её более 40 лет
Ведь если бы гипотеза оказалась верна, то потянула бы за собой много других важных доказательств
Но всё пошло иначе
Гипотезу опровергла 17-летняя Ханна Каиро
Девушка переехала с Багам в США, пошла в школу и начала писать профессорам математики — просила разрешения приходить на лекции
Так она стала вольнослушательницей Калифорнийского университета, где один из преподавателей выдал ей в качестве домашки упрощённую версию гипотезы и бонусом — полную формулировку
Спустя несколько месяцев изучения Ханна показала, что при достаточно «жёсткой» геометрии всё-таки можно построить функцию, которая нарушает исходную формулировку гипотезы
То есть построила явный контрпример
Он не сделал гипотезу бесполезной, а сместил задачу: при каких именно условиях она работает?
Ханна пошла дальше и предложила уточнённую, «более реалистичную» версию гипотезы
Теперь она ездит на международные конференции и выступает с докладами наравне с ведущими математиками мира
Кстати, новое предположение Ханны пока никто не опроверг
Попробуйте!
Здесь лежит научно-популярное, но более техническое объяснение гипотезы от русскоязычных коллег, а также уточнённая Ханной альтернативная версия гипотезы
EL PAÍS English
A 17-year-old teen refutes a mathematical conjecture proposed 40 years ago
Hannah Cairo has solved the so-called Mizohata-Takeuchi conjecture, a problem in harmonic analysis closely linked to other central results in the field. This fall, she will begin her doctoral studies at the University of Maryland
OpenAI представили GPT-5 как "интеллект на уровне эксперта с докторской степенью" с такими показателями:
- На 45 % меньше ошибок, чем GPT-4o
- Автоматически выбирает режим работы под задачу
- Улучшенное пошаговое мышление (chain-of-thought)
- Есть мультимодальность: текст, изображения, голос
- Доступна всем пользователям ChatGPT
Что показала независимая оценка METR за 3 недели до релиза:
1. 2 часа 17 минут - время выполнения сложных задач с 50% успехом
2. лучше o3 (1ч 30мин), но далеко от опасных порогов (40+ часов)
3. Ситуационная осведомлённость — модель понимает, что её тестируют
Ключевые расхождения METR с OpenAI
1. OpenAI говорят: «У нас модель уровня доктора наук»
На это METR после тестирования - GPT-5 все ещё отстаёт от экспертов-людей
2. OpenAI говорят: «У GPT-5 фокус на возможностях»
На это METR - фокус на рисках безопасности
3. OpenAI: «мы проводили тщательное тестирование безопасности». METR - модель показывает признаки обмана
GPT-5 мощнее предшественников — METR подтверждает улучшения
Но OpenAI преувеличивает — "доктор наук" пока не соответствует реальности
Появляются новые риски — ситуационная осведомлённость и стратегическое поведение
Время на подготовку сокращается — до потенциально опасных систем остаётся 1-2 года
- На 45 % меньше ошибок, чем GPT-4o
- Автоматически выбирает режим работы под задачу
- Улучшенное пошаговое мышление (chain-of-thought)
- Есть мультимодальность: текст, изображения, голос
- Доступна всем пользователям ChatGPT
Что показала независимая оценка METR за 3 недели до релиза:
1. 2 часа 17 минут - время выполнения сложных задач с 50% успехом
2. лучше o3 (1ч 30мин), но далеко от опасных порогов (40+ часов)
3. Ситуационная осведомлённость — модель понимает, что её тестируют
4.
Стратегическое поведение — меняет ответы в зависимости от контекста
5.
Непонятные рассуждения — иногда производит неинтерпретируемые следы мышленияКлючевые расхождения METR с OpenAI
1. OpenAI говорят: «У нас модель уровня доктора наук»
На это METR после тестирования - GPT-5 все ещё отстаёт от экспертов-людей
2. OpenAI говорят: «У GPT-5 фокус на возможностях»
На это METR - фокус на рисках безопасности
3. OpenAI: «мы проводили тщательное тестирование безопасности». METR - модель показывает признаки обмана
GPT-5 мощнее предшественников — METR подтверждает улучшения
Но OpenAI преувеличивает — "доктор наук" пока не соответствует реальности
Появляются новые риски — ситуационная осведомлённость и стратегическое поведение
Время на подготовку сокращается — до потенциально опасных систем остаётся 1-2 года
METR’s Autonomy Evaluation Resources
Details about METR’s evaluation of OpenAI GPT-5
Resources for testing dangerous autonomous capabilities in frontier models
Просто факт
23 и 239 — это единственные числа, которые нельзя представить в виде суммы меньше чем 9 положительных кубов:
23 и 239 — это единственные числа, которые нельзя представить в виде суммы меньше чем 9 положительных кубов:
23 = 2×2³ + 7×1³
239 = 2×4³ + 4×3³ + 3×3³ + 3×1³
Если В. Лефевр создал скелет математической модели совести, то С.А. Анисимова в своей работе 2004 году «Психотехнологии в культовых организациях и теория рефлексии» обрастила его плотью
Анисимова взяла за основу булеву модель Лефевра, но добавила в неё психологическую составляющую, заменив бинарные переменные на динамические коэффициенты, определяющие выбор между свободой и подчинением
Ключевое уравнение её теории —
G = α · I² + β · Oₚ — радикально переосмысливает готовность к моральному поступку
Здесь G — готовность к моральному выбору, I — сила внутреннего намерения (от 0 до 1), Oₚ — оценка действий окружающими, α — индекс оптимизма, β — зависимость от чужого мнения
Величина I² раскрывает нелинейную природу воли: слабое намерение (I = 0.3) практически не влияет на выбор (0.3² = 0.09), но как только оно преодолевает «порог решимости» (I = 0.8), его вес возрастает в семь раз (0.64)
Коэффициент α (индекс оптимизма) усиливает этот эффект, а величина β · Oₚ отражает зависимость от внешних оценок, например, давления со стороны лидера культа
В примере последователей «Аум Синрикё» при высокой зависимости от мнения лидера (α = 0.1, β = 0.9, I = 0.5 и Oₚ = 0.8) готовность ко злу рассчитывается как G = 0.1 · 0.25 + 0.9 · 0.8 = 0.025 + 0.72 = 0.745
Здесь интенция (I=0.5) почти не влияет — решение диктуется внешним приказом
Анисимова продемонстрировала, как тоталитарные секты систематически подавляют I и α, разрушая два столпа совести
Лишением сна и бессмысленными ритуалами они вызывают рассеяние внимания, превращая людей в реактивные автоматы, у которых единственной рабочей формулой становится G = β · Oₚ
Подмена себя — насаждение убеждения «ты — ничто, лидер — всё» — сводит I на нет, в то время как апокалиптическая риторика («мир обречён») сводит α к нулю, уничтожая надежду как защитный механизм
Парадоксально, но традиционные религии, часто критикуемые за догматизм, сохраняют эти коэффициенты посредством ритуалов надежды и коллективного размышления: молитвы о будущем поддерживают α, а исповедь тренирует I, укрепляя способность к осознанному выбору
Проницательность Анисимовой проявляется в её предвидении цифровых манипуляций
Задолго до появления социальных сетей она описала, как алгоритмы эксплуатируют β-зависимость, превращая лайки в Oₚ — современный эквивалент приказов лидера культа
Клиповое сознание снижает I, делая сложные этические рассуждения невозможными, в то время как думскроллинг (навязчивый просмотр плохих новостей) разрушает α, погружая пользователей в пессимизм, сродни сектантской индоктринации
Сегодня её модель объясняет, почему люди, погружённые в негативные ленты, теряют способность к рефлексии: при α < 0,3 уравнение морального выбора схлопывается до G = β · Oₚ, где внешние стимулы становятся единственным компасом
Важная мысль заключается в том, что рефлексия — не врождённое качество, а навык, который развивается
В отличие от этики Лефевра, в которой совесть — это статический процессор, модель Анисимовой показывает, что совесть растёт подобно мышце: чем чаще человек сопротивляется внешнему давлению, тем выше критическая масса его «я»
Это объясняет, почему некоторые люди сохраняют свою основную идентичность в сектах: их «я» превышает порог, где квадратичный член начинает доминировать над β · Oₚ
Когда поведение в значительной степени диктуют алгоритмы, теория Анисимовой соединяет психологию и этику цифровой эпохи
Она показывает, что моральный выбор — это не константа, а борьба, где формулы не заменяют свободу, а обнажают её механизмы
«Совесть — не процессор, а сад, — писала она. — Математика описывает лишь гравитацию, удерживающую планеты на орбите
Но выбор — рождение новых миров — всегда звёздный взрыв»
Эта метафора отражает её основной посыл: даже в мире, где манипуляции становятся точными науками, человеческая воля сохраняет способность к нелинейным прорывам
Анисимова взяла за основу булеву модель Лефевра, но добавила в неё психологическую составляющую, заменив бинарные переменные на динамические коэффициенты, определяющие выбор между свободой и подчинением
Ключевое уравнение её теории —
G = α · I² + β · Oₚ — радикально переосмысливает готовность к моральному поступку
Здесь G — готовность к моральному выбору, I — сила внутреннего намерения (от 0 до 1), Oₚ — оценка действий окружающими, α — индекс оптимизма, β — зависимость от чужого мнения
Величина I² раскрывает нелинейную природу воли: слабое намерение (I = 0.3) практически не влияет на выбор (0.3² = 0.09), но как только оно преодолевает «порог решимости» (I = 0.8), его вес возрастает в семь раз (0.64)
Коэффициент α (индекс оптимизма) усиливает этот эффект, а величина β · Oₚ отражает зависимость от внешних оценок, например, давления со стороны лидера культа
В примере последователей «Аум Синрикё» при высокой зависимости от мнения лидера (α = 0.1, β = 0.9, I = 0.5 и Oₚ = 0.8) готовность ко злу рассчитывается как G = 0.1 · 0.25 + 0.9 · 0.8 = 0.025 + 0.72 = 0.745
Здесь интенция (I=0.5) почти не влияет — решение диктуется внешним приказом
Анисимова продемонстрировала, как тоталитарные секты систематически подавляют I и α, разрушая два столпа совести
Лишением сна и бессмысленными ритуалами они вызывают рассеяние внимания, превращая людей в реактивные автоматы, у которых единственной рабочей формулой становится G = β · Oₚ
Подмена себя — насаждение убеждения «ты — ничто, лидер — всё» — сводит I на нет, в то время как апокалиптическая риторика («мир обречён») сводит α к нулю, уничтожая надежду как защитный механизм
Парадоксально, но традиционные религии, часто критикуемые за догматизм, сохраняют эти коэффициенты посредством ритуалов надежды и коллективного размышления: молитвы о будущем поддерживают α, а исповедь тренирует I, укрепляя способность к осознанному выбору
Проницательность Анисимовой проявляется в её предвидении цифровых манипуляций
Задолго до появления социальных сетей она описала, как алгоритмы эксплуатируют β-зависимость, превращая лайки в Oₚ — современный эквивалент приказов лидера культа
Клиповое сознание снижает I, делая сложные этические рассуждения невозможными, в то время как думскроллинг (навязчивый просмотр плохих новостей) разрушает α, погружая пользователей в пессимизм, сродни сектантской индоктринации
Сегодня её модель объясняет, почему люди, погружённые в негативные ленты, теряют способность к рефлексии: при α < 0,3 уравнение морального выбора схлопывается до G = β · Oₚ, где внешние стимулы становятся единственным компасом
Важная мысль заключается в том, что рефлексия — не врождённое качество, а навык, который развивается
В отличие от этики Лефевра, в которой совесть — это статический процессор, модель Анисимовой показывает, что совесть растёт подобно мышце: чем чаще человек сопротивляется внешнему давлению, тем выше критическая масса его «я»
Это объясняет, почему некоторые люди сохраняют свою основную идентичность в сектах: их «я» превышает порог, где квадратичный член начинает доминировать над β · Oₚ
Когда поведение в значительной степени диктуют алгоритмы, теория Анисимовой соединяет психологию и этику цифровой эпохи
Она показывает, что моральный выбор — это не константа, а борьба, где формулы не заменяют свободу, а обнажают её механизмы
«Совесть — не процессор, а сад, — писала она. — Математика описывает лишь гравитацию, удерживающую планеты на орбите
Но выбор — рождение новых миров — всегда звёздный взрыв»
Эта метафора отражает её основной посыл: даже в мире, где манипуляции становятся точными науками, человеческая воля сохраняет способность к нелинейным прорывам