Говоря о самом математике Фибоначчи или, как его называют, Леонардо из Пизы, часто вспоминают «заячью» задачу о рождаемости новых пар кроликов — интересный, модельный пример проявления его чисел в популяционных процессах
Но есть ещё одна область — природная
А именно, филотаксис — наука о расположении листьев, семян и цветков
И расскажем мы об этом проявлении чисел Фибоначчи аж в трёх частях:
🎨 🎨 🎨 🎨 🎨 🎨 🎨 🎨 🎨
🎨 🎨 🎨 🎨 🎨 🎨 🎨 🎨 🎨
🎨 🎨 🎨 🎨 🎨 🎨 🎨 🎨 🎨
Почему так?
Ответ лежит в особенностях роста растений
У основания побега образуются маленькие выступы, называемые примордиями
Эти точки потом растут и превращаются в листья или цветы
Пионер кристалографии Огюст Браве со своим братом показали, что угол между последовательными примордиями составляет примерно… 137,5°
Ничего не напоминает?
В 1992 году исследователи Дюди и Кудер разработали динамическую модель, в которой рост примордий регулируется этим углом
Она демонстрирует, что при угле, приближённом к золотому, создаются спирали именно с числами Фибоначчи
И всё потому, что это оптимальный способ экономно расходовать энергию и избегать перекрытий
Тот, кто дочитал последнюю часть, готов к суровому выводу: «неидеальные» конфигурации с точки зрения эволюции и выживаемости не работают
Да, они встречаются в природе, но гораздо реже «правильных» углов и структур
Природа так же прекрасна как математика, а значит тоже имеет право быть строга к неточностям
Если мнение составить пока трудно и нужно ещё покопаться, то советуем заглянуть в материалы наших друзей по теме:
числа Фибоначчи:
https://practicum.yandex.ru/blog/chisla-fibonachchi/
золотое сечение:
https://practicum.yandex.ru/blog/pravilo-zolotogo-secheniya-v-dizayne/
Но есть ещё одна область — природная
А именно, филотаксис — наука о расположении листьев, семян и цветков
И расскажем мы об этом проявлении чисел Фибоначчи аж в трёх частях:
↕️
Модель Фогеля🤭
В 1979 году физик Хельмут Фогель предложил математическую схему, которая потрясающе точно воспроизводит рисунок на подсолнухе:🎨 🎨 🎨 🎨 🎨 🎨 🎨 🎨 🎨 🎨 🎨 🎨 🎨 🎨 🎨 🎨 🎨 🎨 🎨 🎨 🎨 🎨 🎨 🎨 🎨 🎨 🎨 🎨 🎨 🎨 🎨 🎨 🎨 🎨 🎨
Он описал положение n-го семечка двумя формулами в полярных координатах:
r(n) = c√n, θ(n) = n · α,
где α = 2π·(1−φ) — золотой угол, примерно равный 137,5°, а φ = (√5−1)/2 — золотое сечение
Причём тут Фибоначчи, спросите вы?
При том, что вычисляется золотое сечение как предел отношения последовательных чисел Фибоначчи Fₙ/Fₙ₊₁
Каждое следующее семя «откручивается» от предыдущего на этот угол и смещается от центра на расстояние, пропорциональное корню из n.
В результате и возникает узнаваемая спираль, известная как спираль Ферма
Попробуй чуть-чуть изменить угол — и порядок сразу рушится
Филотаксис оказывается крайне чувствительным к точности: даже отклонение на 1° заметно портит симметрию
↕️
Секрет золотого угла
↕️
Золотой угол, помимо того что относится к углу, дополняющему его до полного, так же, как тот относится к полному углу, обладает ещё одним важным свойством: он делит круг в иррациональной пропорции
Если бы он был рациональным делением круга, новые листочки располагались бы «в линию» и мешали бы друг другу, создавая тень
А с иррациональными пропорциями невозможно «попасть в резонанс» — точки редко оказываются на одной линии
Для растения такое листорасположение — жизненно важный фактор, так как весь падающий свет используется наилучшим образом
↕️
Фибоначчи и ботаника
↕️
Ещё в XVII веке Иоганн Кеплер заметил, что у многих цветов число лепестков — это число Фибоначчи
Например: 1 у калла, 2 у молочая, 3 у триллиума, 5 у водосбора, 8 у сангвинарии, 13 у тунбергии, 21 у ромашки Шаста
У подсолнухов и крупных цветов есть спирали на головках — одна направо, другая налево
И очень часто они вырастают в парах 21 и 34, или 34 и 55, или 55 и 89
Подобные спирали можно наблюдать даже у шишек, с такими же соотношениями:
🎨
🎨
🎨
🎨
🎨
🎨
🎨
🎨
🎨
🎨
🎨
🎨
🎨
🎨
🎨
🎨
🎨
🎨
Почему так?
Ответ лежит в особенностях роста растений
У основания побега образуются маленькие выступы, называемые примордиями
Эти точки потом растут и превращаются в листья или цветы
Пионер кристалографии Огюст Браве со своим братом показали, что угол между последовательными примордиями составляет примерно… 137,5°
Ничего не напоминает?
В 1992 году исследователи Дюди и Кудер разработали динамическую модель, в которой рост примордий регулируется этим углом
Она демонстрирует, что при угле, приближённом к золотому, создаются спирали именно с числами Фибоначчи
И всё потому, что это оптимальный способ экономно расходовать энергию и избегать перекрытий
Тот, кто дочитал последнюю часть, готов к суровому выводу: «неидеальные» конфигурации с точки зрения эволюции и выживаемости не работают
Да, они встречаются в природе, но гораздо реже «правильных» углов и структур
Природа так же прекрасна как математика, а значит тоже имеет право быть строга к неточностям
Если мнение составить пока трудно и нужно ещё покопаться, то советуем заглянуть в материалы наших друзей по теме:
числа Фибоначчи:
https://practicum.yandex.ru/blog/chisla-fibonachchi/
золотое сечение:
https://practicum.yandex.ru/blog/pravilo-zolotogo-secheniya-v-dizayne/
Please open Telegram to view this post
VIEW IN TELEGRAM
В квантовой механике, любое измерение обязательно приводит к необратимому изменению
Это свойство в основе квантовой передачи ключей — QKD (Quantum Key Distribution)
Это свойство в основе квантовой передачи ключей — QKD (Quantum Key Distribution)
«Remarkably, many different flavors of mathematical objects can be classified by moduli spaces, and if the objects are algebro-geometric, the moduli space is usually an algebraic variety, often even a projective variety
Surprising, right?
(…)
We are singularly focused on the question: Why do moduli spaces exist as varieties?
By surveying how solutions to this question have evolved since Riemann’s work in the 1850s, we will reveal many of the central ideas in modern moduli theory, and we will do so using the language of stacks
(…)
While we present this material primarily in the algebraic setting, we also try to highlight parallel constructions in topology and analytic geometry»
Jarod Alper. Evolution of Stacks and Moduli
https://www.ams.org/journals/notices/202511/rnoti-p1248.pdf
Surprising, right?
(…)
We are singularly focused on the question: Why do moduli spaces exist as varieties?
By surveying how solutions to this question have evolved since Riemann’s work in the 1850s, we will reveal many of the central ideas in modern moduli theory, and we will do so using the language of stacks
(…)
While we present this material primarily in the algebraic setting, we also try to highlight parallel constructions in topology and analytic geometry»
Jarod Alper. Evolution of Stacks and Moduli
https://www.ams.org/journals/notices/202511/rnoti-p1248.pdf
Forwarded from НИИ Антропогенеза (ARI)
«Эволюция человеческой науки» (The Evolution of Human Science):
«25 лет прошло с тех пор, как нашим редакторам был подан для публикации последний отчет об оригинальных исследованиях, и потому самое время вернуться к столь широко обсуждавшемуся тогда вопросу: какова роль ученых в эпоху, когда передовой край научных исследований сместился за пределы понимания человека?»
Далее описание науки, в котором цифровые улучшенные люди или «металюди» будут движущей силой научно-технического прогресса
С появлением дегенеративного «искусственного интеллекта», глубокого обучения с подкреплением и других Ml-новаций, используемых для автоматизации всего спектра научных функций, следующие 25 лет науки обещают сложным образом трансформировать роль человека (его участие, опыты и взаимодействие с наукой), одновременно усиливая механизмы его контроля над миром
А теперь заменим «металюдей» на Ml-агента в словах одного из персонажей рассказа Чана, и получим следующее:
«Никто не отрицает превосходства Ml-науки, но исследователей-людей она среди прочего заставила осознать, что они, по всей вероятности, уже никогда больше не смогут внести оригинального вклада ни в одной области
Многие тогда полностью отошли от теоретических и прикладных исследований, отказавшись от абстрактных построений и экспериментов ради герменевтики, то есть интерпретации достижений Ml»
Первое (оригинальное) название, данное Тедом Чаном рассказу, «Эволюция человеческой науки» было «Подбирая крошки со стола» (Catching Crumbs from the Table)
Наступает новая эпоха «науки после науки» —когда наша способность инструментально контролировать природу может превзойти нашу способность её понимать
Мы видим признаки приближения новой эпохи: две недавние Нобелевские премии признали работу Ml
Модели глубокого обучения предсказывают структуры белков и контролируют реакции синтеза с поразительной точностью, даже несмотря на то, что их механизмы становятся менее понятными
Обо этом в деталях пишут в Science Джеймс Эванс и Имон Дуэд в новом эссе «После науки»
И одновременно с ними о практических примерах постчеловеческой науки пишет Intology (не путать с Witology)
Автономный агент Locus приближается к фундаментальной трансформации архитектуры научных исследований
Работая в непрерывном 64-часовом цикле вывода, Locus не теряет нить “мысли” и превосходит людей в тестах на выполнение задач Ml-исследований и разработок
Другой агент Kosmos в течение 12 часов, способен обработать область поиска, на которую у кандидата наук ушло бы полгода
Из-за «Анти-Закона Мура» научный прогресс людей может остановиться при приближении науки и технологий к сингулярности сложности
Но преодоление этого непреодолимого для людей интеллектуального барьера, может стать возможным, если ключевую роль в науке, исследованиях и разработках начнут перенимать на себя Ml-агенты
«25 лет прошло с тех пор, как нашим редакторам был подан для публикации последний отчет об оригинальных исследованиях, и потому самое время вернуться к столь широко обсуждавшемуся тогда вопросу: какова роль ученых в эпоху, когда передовой край научных исследований сместился за пределы понимания человека?»
Далее описание науки, в котором цифровые улучшенные люди или «металюди» будут движущей силой научно-технического прогресса
С появлением дегенеративного «искусственного интеллекта», глубокого обучения с подкреплением и других Ml-новаций, используемых для автоматизации всего спектра научных функций, следующие 25 лет науки обещают сложным образом трансформировать роль человека (его участие, опыты и взаимодействие с наукой), одновременно усиливая механизмы его контроля над миром
А теперь заменим «металюдей» на Ml-агента в словах одного из персонажей рассказа Чана, и получим следующее:
«Никто не отрицает превосходства Ml-науки, но исследователей-людей она среди прочего заставила осознать, что они, по всей вероятности, уже никогда больше не смогут внести оригинального вклада ни в одной области
Многие тогда полностью отошли от теоретических и прикладных исследований, отказавшись от абстрактных построений и экспериментов ради герменевтики, то есть интерпретации достижений Ml»
Первое (оригинальное) название, данное Тедом Чаном рассказу, «Эволюция человеческой науки» было «Подбирая крошки со стола» (Catching Crumbs from the Table)
Наступает новая эпоха «науки после науки» —когда наша способность инструментально контролировать природу может превзойти нашу способность её понимать
Мы видим признаки приближения новой эпохи: две недавние Нобелевские премии признали работу Ml
Модели глубокого обучения предсказывают структуры белков и контролируют реакции синтеза с поразительной точностью, даже несмотря на то, что их механизмы становятся менее понятными
Обо этом в деталях пишут в Science Джеймс Эванс и Имон Дуэд в новом эссе «После науки»
И одновременно с ними о практических примерах постчеловеческой науки пишет Intology (не путать с Witology)
Автономный агент Locus приближается к фундаментальной трансформации архитектуры научных исследований
Работая в непрерывном 64-часовом цикле вывода, Locus не теряет нить “мысли” и превосходит людей в тестах на выполнение задач Ml-исследований и разработок
Другой агент Kosmos в течение 12 часов, способен обработать область поиска, на которую у кандидата наук ушло бы полгода
Из-за «Анти-Закона Мура» научный прогресс людей может остановиться при приближении науки и технологий к сингулярности сложности
Но преодоление этого непреодолимого для людей интеллектуального барьера, может стать возможным, если ключевую роль в науке, исследованиях и разработках начнут перенимать на себя Ml-агенты
Forwarded from НИИ Антропогенеза (ARI)
Opus 4.5 от Anthropic на AI R&D Suite 1 показала результаты лучше человека с бюджетом 4-8 часов на 5 из 6 задач
Провалила только создание нового компилятора, человеку требовалось 40 часов
Anthropic выпустила Opus 4.5. Релиз содержит несколько неожиданных находок в системной карте, которые указывают на качественные сдвиги в поведении фронтир -моделей
Насколько близко к автоматизации AI R&D?
Внутренний опрос 18 активных пользователей Claude Code:
- Медианное ускорение работы: 2x
- Ни один участник не считает, что модель может полностью заменить младшего исследователя
Opus 4.5 набрала больше баллов, чем любой человек-кандидат за всю историю компании, на внутреннем двухчасовом техническом экзамене для performance engineer
Opus 4.5 — первая публичная модель, где лаборатория официально признаёт:
«Наши бенчмарки больше не работают, и мы держимся от ASL-4 только на человеческом экспертном мнении»
Провалила только создание нового компилятора, человеку требовалось 40 часов
Anthropic выпустила Opus 4.5. Релиз содержит несколько неожиданных находок в системной карте, которые указывают на качественные сдвиги в поведении фронтир -моделей
Насколько близко к автоматизации AI R&D?
Внутренний опрос 18 активных пользователей Claude Code:
- Медианное ускорение работы: 2x
- Ни один участник не считает, что модель может полностью заменить младшего исследователя
Opus 4.5 набрала больше баллов, чем любой человек-кандидат за всю историю компании, на внутреннем двухчасовом техническом экзамене для performance engineer
Opus 4.5 — первая публичная модель, где лаборатория официально признаёт:
«Наши бенчмарки больше не работают, и мы держимся от ASL-4 только на человеческом экспертном мнении»
НИИ Антропогенеза (ARI)
Opus 4.5 от Anthropic на AI R&D Suite 1 показала результаты лучше человека с бюджетом 4-8 часов на 5 из 6 задач Провалила только создание нового компилятора, человеку требовалось 40 часов Anthropic выпустила Opus 4.5. Релиз содержит несколько неожиданных…
Gemini 3 Pro набрала 130 баллов в тесте IQ
Превью-версия Gemini 3 Pro набрала 130 баллов в специальном тесте на IQ для искусственного интеллекта
Это первый случай, когда модель достигла такого результата в оффлайн-бенчмарке Mensa
Ни одна другая система до этого не поднималась выше 126 баллов
Тест основан на классическом Mensa Norway, но задачи написаны заново специально для проверки Ml
Их не публикуют в открытом доступе, чтобы новые модели не могли заранее готовиться к этим вопросам
Это важное отличие от обычных тестов
Модели с компьютерным зрением видят задачи в виде картинок
Остальным объясняют смысл текстом
Такой подход делает оценку более честной
https://mltimes.ai/gemini-3-pro-nabrala-130-ballov-v-teste-iq/
Превью-версия Gemini 3 Pro набрала 130 баллов в специальном тесте на IQ для искусственного интеллекта
Это первый случай, когда модель достигла такого результата в оффлайн-бенчмарке Mensa
Ни одна другая система до этого не поднималась выше 126 баллов
Тест основан на классическом Mensa Norway, но задачи написаны заново специально для проверки Ml
Их не публикуют в открытом доступе, чтобы новые модели не могли заранее готовиться к этим вопросам
Это важное отличие от обычных тестов
Модели с компьютерным зрением видят задачи в виде картинок
Остальным объясняют смысл текстом
Такой подход делает оценку более честной
https://mltimes.ai/gemini-3-pro-nabrala-130-ballov-v-teste-iq/
MLTimes
Gemini 3 Pro набрала 130 баллов в тесте IQ - MLTimes
Пять лет индустрия жила по простому принципу: хочешь умнее — добавь больше
Больше данных для обучения, больше параметров в модели, больше вычислительных мощностей
Компаниям такой подход нравился — риски минимальны, результат предсказуем
Не нужно делать ставку на гениальных исследователей
Просто увеличивай масштаб и получай прирост
Но данные для обучения конечны — весь интернет уже скормлен моделям, простое увеличение масштаба в сто раз принципиально не изменит ситуацию
Достигнуть AGI таким образом не получится
Мы возвращаемся в эпоху исследований — только теперь с мощными компьютерами в руках
Нужно искать принципиально новые подходы, а не просто крутить ручку громкости на максимум
Ml модели обобщают знания намного хуже людей
Нужен новый путь к сверхразуму
И не через бесконечное масштабирование
Эпоха масштабирования заканчивается
Больше данных для обучения, больше параметров в модели, больше вычислительных мощностей
Компаниям такой подход нравился — риски минимальны, результат предсказуем
Не нужно делать ставку на гениальных исследователей
Просто увеличивай масштаб и получай прирост
Но данные для обучения конечны — весь интернет уже скормлен моделям, простое увеличение масштаба в сто раз принципиально не изменит ситуацию
Достигнуть AGI таким образом не получится
Мы возвращаемся в эпоху исследований — только теперь с мощными компьютерами в руках
Нужно искать принципиально новые подходы, а не просто крутить ручку громкости на максимум
Ml модели обобщают знания намного хуже людей
Нужен новый путь к сверхразуму
И не через бесконечное масштабирование
Эпоха масштабирования заканчивается
Anthropic создали метод, позволяющий агентам работать несколько часов и даже дней
Команда решила проблему долгосрочных агентов — это когда Claude нужно работать над сложными задачами в течение нескольких часов/ дней, пересекая множество контекстных окон
Главная проблема - Ml-агенты работают в отдельных сессиях, и каждая новая начинается без памяти о предыдущей
Решение состоит из 2-х частей:
Агент-инициализатор — настраивает окружение при первом запуске: создает init.sh скрипт, файл claude-progress.txt для логирования прогресса, начальный git-коммит
Агент-кодер — в каждой последующей сессии делает инкрементальный прогресс и оставляет структурированные обновления
Anthropic показали, как заставить агента работать методично и последовательно, а не пытаться сделать всё сразу и ломаться на полпути
Команда решила проблему долгосрочных агентов — это когда Claude нужно работать над сложными задачами в течение нескольких часов/ дней, пересекая множество контекстных окон
Главная проблема - Ml-агенты работают в отдельных сессиях, и каждая новая начинается без памяти о предыдущей
Решение состоит из 2-х частей:
Агент-инициализатор — настраивает окружение при первом запуске: создает init.sh скрипт, файл claude-progress.txt для логирования прогресса, начальный git-коммит
Агент-кодер — в каждой последующей сессии делает инкрементальный прогресс и оставляет структурированные обновления
Anthropic показали, как заставить агента работать методично и последовательно, а не пытаться сделать всё сразу и ломаться на полпути
Anthropic
Effective harnesses for long-running agents
Anthropic is an AI safety and research company that's working to build reliable, interpretable, and steerable AI systems.
Сломай свой мозг
(«Science-Other»)
В 1945 г. в приют Кливленда подбрасывают девочку младенца
«Джейн» растет замкнутой, не зная кто её родители, до тех пор пока в 1963 она не влюбляется в бродягу
Он заделывает ей ребенка и исчезает, но в тяжелом процессе родов выясняется что Джейн — гермафродит, у неё есть мужские и женские половые органы
Чтобы спасти её, врачи удаляют женские органы и Джейн становится мужчиной Джейком
Ребенка кто-то похищает прямо из роддома
Отчаявшись от невезения Джейк начинает пить и становится бомжом
В 1970 он заходит в бар, где рассказывает историю своей жизни бармену
Бармен предлагает Джейку отомстить бродяге за то, что он бросил «её» после рождения ребенка и предлагает ему вступить в ряды путешественников во времени
Джейк соглашается, и они вместе с барменом летят обратно во времени в 1963 год, когда у Джейн должен появиться ребенок
Но Джейк случайно влюбляется в молодую сироту, и делает ей ребенка, после чего исчезает
Потом бармен путешествует на 9 месяцев вперед во времени, похищает ребенка и подкидывает его в приют в 1945 году, после чего переносит немного ошарашенного Джейка в 1985 год, чтобы он вступил в ряды путешественников во времени
Джейк понимает по ходу дела, становится нормальным, бросает пить и становится барменом
Затем Джейк переносится в 1970 чтобы стать барменом и подготовиться к судьбоносной встрече с самим собой в баре
Трудно не удивляться что одно и то же явление ("теория Рамсея") ответсвенно за то что любая функция на сфере имеет большой слой (waist inequality) и то что у арифметики есть две элементарно неэквивалентные модели (теорема Геделя о неполноте)
Ну и закон больших чисел (концентрация меры)
Ну и закон больших чисел (концентрация меры)
Уравнения:
Эти уравнения — не просто символы на доске
Это архитектура нашей реальности
Они — доказательство того, что человеческий разум способен постигать самые сокровенные секреты Вселенной
А какое уравнение нравится больше всего вам?
Какое самое сложное для вас?
1. Уравнение Эйнштейна: Общая теория относительности: G_μν = 8πG/c⁴ * T_μν
Что оно значит: Материя и энергия говорят пространству-времени, как искривляться, а искривлённое пространство-время говорит материи, как двигаться
Почему это красиво: Оно связывает геометрию Вселенной с её содержимым
Без него не работали бы GPS, и мы не знали бы о чёрных дырах
Это уравнение — квинтэссенция идеи «геометрия как физика»
2. Стандартная модель (Лагранжиан)
Что он значит: Это полная теория трёх из четырёх фундаментальных взаимодействий (электромагнитного, сильного и слабого) и всех известных элементарных частиц
Почему это красиво: Это вершина человеческого понимания микромира
Оно с пугающей точностью предсказывает поведение квантовой вселенной
Его экспериментальное подтверждение на БАКе — триумф человеческого разума
3. Второй закон Ньютона: F = ma
Что он значит: Сила, действующая на тело, равна произведению его массы на ускорение
Почему это красиво: Гениальная простота
Это основа всей классической механики
От полёта ракет до качения мяча — всё описывается этим лаконичным уравнением
Оно научило нас предсказывать движение
4. Уравнения Максвелла:
∇·E = ρ/ε₀, ∇×E = -∂B/∂t, ∇·B = 0, ∇×B = μ₀J + μ₀ε₀∂E/∂t
Что они значат: Эти четыре уравнения — полное описание всего электричества и магнетизма
Они объединили их в единое явление — электромагнетизм
Почему это красиво: Из них, как следствие, вытекает существование электромагнитных волн (свет, радиоволны, рентген)
Мы поняли, что свет — это и есть колебания электромагнитного поля
Фундамент современной цивилизации
5. Уравнение Шрёдингера: iℏ ∂/∂t |Ψ> = Ĥ |Ψ>
Что оно значит: Оно описывает, как со временем изменяется квантовая состояние частицы (волновая функция Ψ)
Почему это красиво: Это сердце квантовой механики
Оно отбросило детерминизм Ньютона и ввело нас в мир вероятностей и фундаментальной неопределённости
Мир на самом маленьком уровне устроен именно так, как диктует это уравнение
Эти уравнения — не просто символы на доске
Это архитектура нашей реальности
Они — доказательство того, что человеческий разум способен постигать самые сокровенные секреты Вселенной
А какое уравнение нравится больше всего вам?
Какое самое сложное для вас?
Идея случайных блужданий — математическая основа множества алгоритмов в информатике и физике
Представьте: маленький шарик бегает по узлам решётки, на каждом шаге случайно выбирая направление — это и есть классический случайный ход
Комбинаторика, анализ графов, теория вероятностей — всё это строится на случайных блужданиях
Но квантовая механика, как всегда, вносит коррективы
Среди кубитов шарик не просто мечется хаотично, а «идёт по всем возможным путям одновременно», волна его вероятности интерферирует и собирает необычные закономерности
Так рождается квантовые случайные блуждания — новый инструмент для вычислений, принёсший экспоненциальное ускорение многих алгоритмам
Представьте: маленький шарик бегает по узлам решётки, на каждом шаге случайно выбирая направление — это и есть классический случайный ход
Комбинаторика, анализ графов, теория вероятностей — всё это строится на случайных блужданиях
Но квантовая механика, как всегда, вносит коррективы
Среди кубитов шарик не просто мечется хаотично, а «идёт по всем возможным путям одновременно», волна его вероятности интерферирует и собирает необычные закономерности
Так рождается квантовые случайные блуждания — новый инструмент для вычислений, принёсший экспоненциальное ускорение многих алгоритмам
Forwarded from НИИ Антропогенеза (ARI)
Genesis Mission — не дать Китаю бросить вызов лидерству США в науке и технологиях
В рамках текущей модели Китай уже ставит его под вопрос, и тренд необходимо сломать
Поэтому они 'подрывают' саму модель научного познания: transform how science is done
Планы см. в указе Трампа
Не случайно идет сравнение с Манхэттенским проектом: это и целеполагание, и уровень амбиций
Темп открытий ускорится, теории утратят былую силу, а передовую науку будут делать те, кто владеет огромным объемом вычислений и данных (т.е. США): “объединив учёных с интеллектуальными системами, которые рассуждают, моделируют и экспериментируют с невероятной скоростью”
Впрочем, и Китай активно накапливает данные и инвестирует в вычислительные мощности — никто больше не потянет такую науку
В рамках текущей модели Китай уже ставит его под вопрос, и тренд необходимо сломать
Поэтому они 'подрывают' саму модель научного познания: transform how science is done
Планы см. в указе Трампа
Не случайно идет сравнение с Манхэттенским проектом: это и целеполагание, и уровень амбиций
Темп открытий ускорится, теории утратят былую силу, а передовую науку будут делать те, кто владеет огромным объемом вычислений и данных (т.е. США): “объединив учёных с интеллектуальными системами, которые рассуждают, моделируют и экспериментируют с невероятной скоростью”
Впрочем, и Китай активно накапливает данные и инвестирует в вычислительные мощности — никто больше не потянет такую науку
“Модель обучают на реальных данных экспериментов или наблюдений, а затем она создает синтетические данные как способ проверки гипотез
Так удалось выяснить, от чего зависит затухание звездообразования в галактиках
Швейцарские астрофизики из ETH Zurich загрузили в модель данные о галактиках, находящихся в среде с низкой плотностью, и попросили показать, как бы выглядели эти галактики в среде с высокой плотностью
Что отличает этот подход от обычного моделирования — программе не дают заранее никаких правил и знаний о физических процессах, только исходные данные
По сути, Ml ищет взаимосвязи между разными параметрами и узнаёт, как изменятся одни параметры, если изменить другие
Так можно проверить огромное множество сценариев, включая и те, что никогда не удастся наблюдать
Для ученых ключевой вопрос здесь в том, сколько всего полезной информации скрыто в данных и как ее извлечь по максимуму
[…]
Некоторые ученые называют генеративное моделирование «третьим способом» познания (наряду с наблюдением и моделированием), подчеркивая его независимость от теорий”
Genesis Mission
A National Initiative to Accelerate Science Through AI. Genesis Mission is a national initiative to build the world's most powerful scientific platform to accelerate discovery science, strengthen national security, and drive energy innovation.
Представили DeepSeekMath-V2, которая делает шаг к «самопроверяемой» математике для Ml
Большие языковые модели уже заметно продвинулись в решении задач на рассуждение и за последний год научились проходить олимпиады вроде AIME и HMMT за счёт обучения с подкреплением по правильному ответу
Но такой подход принципиально ограничен: верный ответ не означает корректное доказательство, а для теорем вообще часто нет «числового» финала
Авторы предлагают другую схему: сначала обучают LLM-верификатор, который проверяет полноту и корректность математических доказательств, затем используют его как функцию награды для генератора доказательств
Генератор учится находить и исправлять ошибки в своих рассуждениях до тех пор, пока верификатор не примет доказательство
Масштабируя вычисления на этапе проверки, исследователи постепенно усиливают и генератор, и проверяющую модель
Итог — DeepSeekMath-V2 показывает сильные результаты: золотые оценки на IMO-2025 и CMO-2024 и почти идеальные 118/120 на Putnam-2024
Авторы считают, что самопроверяемые математические рассуждения могут стать важным направлением в развитии Ml для науки
Большие языковые модели уже заметно продвинулись в решении задач на рассуждение и за последний год научились проходить олимпиады вроде AIME и HMMT за счёт обучения с подкреплением по правильному ответу
Но такой подход принципиально ограничен: верный ответ не означает корректное доказательство, а для теорем вообще часто нет «числового» финала
Авторы предлагают другую схему: сначала обучают LLM-верификатор, который проверяет полноту и корректность математических доказательств, затем используют его как функцию награды для генератора доказательств
Генератор учится находить и исправлять ошибки в своих рассуждениях до тех пор, пока верификатор не примет доказательство
Масштабируя вычисления на этапе проверки, исследователи постепенно усиливают и генератор, и проверяющую модель
Итог — DeepSeekMath-V2 показывает сильные результаты: золотые оценки на IMO-2025 и CMO-2024 и почти идеальные 118/120 на Putnam-2024
Авторы считают, что самопроверяемые математические рассуждения могут стать важным направлением в развитии Ml для науки
huggingface.co
deepseek-ai/DeepSeek-Math-V2 · Discussions
We’re on a journey to advance and democratize artificial intelligence through open source and open science.
Статья китайских товарищей в Nature показывает ураганный темп приближения эпохи "десятки миллиардов устройств с Ml вокруг нас
Статья вводит новый «закон уплотнения» LLM и аккуратно намекает, что текущие GPT-класса модели в обозримые годы смогут ужаться до формата, пригодного для локального запуска на смартфонах
Авторы вводят метрику "capacity/capability density" - грубо, сколько «эффективных параметров» даёт один реальный параметр модели
Если модель по качеству как 100-миллиардная, а реальных параметров у неё 10, её density ≈ 10
При фиксированном числе параметров новые модели всё лучше «выжимают» качество - благодаря лучшим датасетам, чистке данных, архитектурным и тренинг-трюкам (MoE, KV-оптимизации и т.п.), а не революционным новым архитектурам
Цена API за заданный уровень качества тоже падает экспоненциально - мощность на доллар растёт
Если capability density удваивается раз в ~3–3.5 месяца, то "будущие более сильные LLM смогут работать на более дешёвых чипах, обеспечивая эффективный локальный inference в ресурсно-ограниченных сценариях вроде мобильных устройств и IoT
Модели, которые сегодня требуют топовый GPU, в будущем смогут давать ту же или лучшую производительность на чипах среднего и даже нижнего класса - то есть барьер по железу для edge-Ml будет постоянно падать
Что это значит для распространения Ml?
В 2024–2025 мы имеем 3–7B-модели, которые терпимо работают на флагманских смартфонах; при продолжении текущего тренда densing law и эволюции мобильных NPU реалистично ожидать, что "сегодняшний middle-/upper-tier GPT" сможет крутиться локально на топовых смартфонах где-то в интервале 2–4 лет от текущей точки (конец 2020-х)
Статья вводит новый «закон уплотнения» LLM и аккуратно намекает, что текущие GPT-класса модели в обозримые годы смогут ужаться до формата, пригодного для локального запуска на смартфонах
Авторы вводят метрику "capacity/capability density" - грубо, сколько «эффективных параметров» даёт один реальный параметр модели
Если модель по качеству как 100-миллиардная, а реальных параметров у неё 10, её density ≈ 10
количество параметров, необходимых для достижения аналогичной производительности, уменьшается экспоненциально с течением времени
В частности, размер параметра LLM с эквивалентной производительностью уменьшается вдвое примерно каждые 3,5 месяца
Например, MiniCPM-1-2.4B, выпущенный 1 февраля 2024 года, может достичь сопоставимой или даже превосходящей производительности с Mistral-7B, выпущенным 27 сентября 2023 года
Это означает, что всего через четыре месяца LLM с всего лишь 35 % параметров может достичь примерно эквивалентной производительности
При фиксированном числе параметров новые модели всё лучше «выжимают» качество - благодаря лучшим датасетам, чистке данных, архитектурным и тренинг-трюкам (MoE, KV-оптимизации и т.п.), а не революционным новым архитектурам
Цена API за заданный уровень качества тоже падает экспоненциально - мощность на доллар растёт
в декабре 2022 года GPT-3.5 стоил $20 за миллион токенов, тогда как к августу 2024 года Gemini-1.5-Flash стоил всего $0.075 за то же количество токенов, что представляет собой снижение в 266.7 раза
Грубо говоря,
стоимость вывода для LLM сокращается вдвое примерно каждые 2.6 месяца
Если capability density удваивается раз в ~3–3.5 месяца, то "будущие более сильные LLM смогут работать на более дешёвых чипах, обеспечивая эффективный локальный inference в ресурсно-ограниченных сценариях вроде мобильных устройств и IoT
Модели, которые сегодня требуют топовый GPU, в будущем смогут давать ту же или лучшую производительность на чипах среднего и даже нижнего класса - то есть барьер по железу для edge-Ml будет постоянно падать
Что это значит для распространения Ml?
В 2024–2025 мы имеем 3–7B-модели, которые терпимо работают на флагманских смартфонах; при продолжении текущего тренда densing law и эволюции мобильных NPU реалистично ожидать, что "сегодняшний middle-/upper-tier GPT" сможет крутиться локально на топовых смартфонах где-то в интервале 2–4 лет от текущей точки (конец 2020-х)
Nature
Densing law of LLMs
Nature Machine Intelligence - Xiao et al. introduce ‘capability density’, defined as capability per parameter, as a metric for evaluating large language models. They report an empirical...
И такое может быть:
Существуют частицы, которые являются собственными античастицами
Например, фермион Майораны, существование которого было предсказано, но его трудно подтвердить экспериментально
Поскольку их квантовые состояния не подвержены влиянию факторов окружающей среды, они могут стать основой для разработки топологических квантовых компьютеров, которые будут более стабильными и устойчивыми к ошибкам
Does Reinforcement Learning Really Incentivize Reasoning Capacity in LLMs Beyond the Base Model?
https://arxiv.org/abs/2504.13837, https://openreview.net/forum?id=4OsgYD7em5
https://limit-of-rlvr.github.io
https://arxiviq.substack.com/p/neurips-2025-does-reinforcement-learning
В финальной работе (Best Paper Runner-Up) на NeurIPS 2025, авторы систематически исследовали границы возможностей рассуждающих моделей (reasoning models), обученных с помощью RLVR (Reinforcement Learning with Verifiable Rewards)
Используя несмещённую метрику
Результаты разрушают популярный миф о том, что RLVR позволяет моделям автономно открывать "сверхчеловеческие" стратегии подобно AlphaGo
Исследование показывает: RLVR радикально улучшает *эффективность сэмплирования* (правильные ответы выпадают чаще), но не расширяет фундаментальные границы возможностей модели
На больших значениях k базовые модели часто решают *больше* уникальных задач, чем их RL-версии, что говорит об ограниченности текущих методов RL прайорами предобучения
https://arxiv.org/abs/2504.13837, https://openreview.net/forum?id=4OsgYD7em5
https://limit-of-rlvr.github.io
https://arxiviq.substack.com/p/neurips-2025-does-reinforcement-learning
В финальной работе (Best Paper Runner-Up) на NeurIPS 2025, авторы систематически исследовали границы возможностей рассуждающих моделей (reasoning models), обученных с помощью RLVR (Reinforcement Learning with Verifiable Rewards)
Используя несмещённую метрику
pass@k на задачах по математике, кодингу и визуальному мышлению, они сравнили базовые модели с их RL-версиями, чтобы выяснить: генерирует ли RLVR принципиально новые паттерны мышления или лишь усиливает существующиеРезультаты разрушают популярный миф о том, что RLVR позволяет моделям автономно открывать "сверхчеловеческие" стратегии подобно AlphaGo
Исследование показывает: RLVR радикально улучшает *эффективность сэмплирования* (правильные ответы выпадают чаще), но не расширяет фундаментальные границы возможностей модели
На больших значениях k базовые модели часто решают *больше* уникальных задач, чем их RL-версии, что говорит об ограниченности текущих методов RL прайорами предобучения