Непрерывная везде, но не дифференцируемая нигде: визуализация функции Вейерштрасса!
В давнюю эпоху математики во многом вдохновлялись природой
Когда «Ньютон» разрабатывал математический анализ, он в первую очередь вдохновлялся физическим миром: траекториями планет, колебаниями маятника, движением падающего фрукта
Такое мышление привело к возникновению геометрической интуиции относительно математических структур
Они должны были иметь такой же смысл, что и физический объект
В результате этого многие математики сосредоточились на изучении «непрерывных» функций
Но в 1860-х появились слухи о странном существе — математической функции, противоречившей теореме Ампера
В Германии Бернхард Риман рассказывал своим студентам, что знает непрерывную функцию, не имеющую гладких частей, и для которой невозможно вычислить производную функции в любой точке
Риман не опубликовал доказательств, как и Шарль Селлерье из Женевского университета, который писал, что обнаружил что-то «очень важное и, как мне кажется, новое», однако спрятал свои работы в папку, ставшую достоянием общественности только после его смерти несколько десятков лет спустя
Однако если бы его заявлениям поверили, то это означало бы угрозу самым основам зарождавшегося математического анализа
Это существо угрожало разрушить счастливую дружбу между математической теорией и физическими наблюдениями, на которых она была основана
Матанализ всегда был языком планет и звёзд, но как может природа быть надёжным источником вдохновения, если найдутся математические функции, противоречащие основной её сути?
Чудовище окончательно родилось в 1872 году, когда Карл Вейерштрасс объявил, что нашёл функцию, являющуюся непрерывной, но не гладкой во всех точках
Он создал её, сложив вместе бесконечно длинный ряд функций косинуса:
f(x) = cos(3x𝝅)/2 + cos(3²x𝝅)/2² + cos(3³x𝝅)/2³ + ...
Как функция она была уродливой и отвратительной
Было даже непонятно, как она будет выглядеть на графике
Но Вейерштрасса это не волновало
Его доказательство состояло не из форм, а из уравнений, и именно это делало его заявление таким мощным
Он не только создал чудовище, но и построил его на железной логике
Он взял собственное новое строгое определение производной и доказал, что для этой новой функции её вычислить невозможно
В давнюю эпоху математики во многом вдохновлялись природой
Когда «Ньютон» разрабатывал математический анализ, он в первую очередь вдохновлялся физическим миром: траекториями планет, колебаниями маятника, движением падающего фрукта
Такое мышление привело к возникновению геометрической интуиции относительно математических структур
Они должны были иметь такой же смысл, что и физический объект
В результате этого многие математики сосредоточились на изучении «непрерывных» функций
Но в 1860-х появились слухи о странном существе — математической функции, противоречившей теореме Ампера
В Германии Бернхард Риман рассказывал своим студентам, что знает непрерывную функцию, не имеющую гладких частей, и для которой невозможно вычислить производную функции в любой точке
Риман не опубликовал доказательств, как и Шарль Селлерье из Женевского университета, который писал, что обнаружил что-то «очень важное и, как мне кажется, новое», однако спрятал свои работы в папку, ставшую достоянием общественности только после его смерти несколько десятков лет спустя
Однако если бы его заявлениям поверили, то это означало бы угрозу самым основам зарождавшегося математического анализа
Это существо угрожало разрушить счастливую дружбу между математической теорией и физическими наблюдениями, на которых она была основана
Матанализ всегда был языком планет и звёзд, но как может природа быть надёжным источником вдохновения, если найдутся математические функции, противоречащие основной её сути?
Чудовище окончательно родилось в 1872 году, когда Карл Вейерштрасс объявил, что нашёл функцию, являющуюся непрерывной, но не гладкой во всех точках
Он создал её, сложив вместе бесконечно длинный ряд функций косинуса:
f(x) = cos(3x𝝅)/2 + cos(3²x𝝅)/2² + cos(3³x𝝅)/2³ + ...
Как функция она была уродливой и отвратительной
Было даже непонятно, как она будет выглядеть на графике
Но Вейерштрасса это не волновало
Его доказательство состояло не из форм, а из уравнений, и именно это делало его заявление таким мощным
Он не только создал чудовище, но и построил его на железной логике
Он взял собственное новое строгое определение производной и доказал, что для этой новой функции её вычислить невозможно
Forwarded from Гуськов Юрий
Логичная алгебраизация
интеллектуальные системы нового поколения
Традиционная наука ошибочно отделяет человеческие умозаключения от точных математических расчетов при этом мы безоговорочно доверяем законам булевой алгебры при проектировании компьютеров, но отказываемся применять их к собственным умозаключениям.
Классификация интеллектуальных систем
современные ИИ застряли на втором уровне, а настоящий скачок возможен только при переходе к третьему и четвёртому уровням, где ключевую роль играет не машинное обучение, а формальная логика и её алгебраизация.
Одна из самых интересных идей — создание "периодической системы логических элементов", аналогичной таблице Менделеева, но для логики. Такая систематизация позволит не только формализовать все возможные логические конструкции, но и автоматизировать процесс получения новых знаний на их основе.
Страна, первой реализовавшая эти принципы, получит приоритет в создании по-настоящему интеллектуальных систем нового поколения. Это не просто технологический, а цивилизационный вызов.
Будущее ИИ — не в бесконечном наращивании параметров нейросетей, а в глубокой интеграции формальной логики, алгебраических методов и универсальных моделей описания реальности. Только так можно создать системы, способные к самостоятельному мышлению, творчеству и предвидению.
Время интеллектуальных систем нового типа уже наступает. Кто первым освоит алгебру мышления — тот и определит будущее искусственного интеллекта.
✅ на фото учебник по математике возрастом почти 4.000 лет - это руководство по арифметике и геометрии времен XII династии Среднего царства (1985–1795 годы до н. э.). По имени писца артефакт называют папирусом Ахмеса
интеллектуальные системы нового поколения
Традиционная наука ошибочно отделяет человеческие умозаключения от точных математических расчетов при этом мы безоговорочно доверяем законам булевой алгебры при проектировании компьютеров, но отказываемся применять их к собственным умозаключениям.
Классификация интеллектуальных систем
1. Программные системы — действуют строго по заложенным алгоритмам.
2. Адаптивные системы — способны учитывать внешние факторы и изменять поведение на основе накопленного опыта.
3. Предикционные системы — делают логически обоснованные прогнозы, оперативно корректируя свои действия в реальном времени.
4. Прогностические системы — строят сложные вероятностные модели будущего, оперируя многоуровневыми причинно-следственными связями.
современные ИИ застряли на втором уровне, а настоящий скачок возможен только при переходе к третьему и четвёртому уровням, где ключевую роль играет не машинное обучение, а формальная логика и её алгебраизация.
Одна из самых интересных идей — создание "периодической системы логических элементов", аналогичной таблице Менделеева, но для логики. Такая систематизация позволит не только формализовать все возможные логические конструкции, но и автоматизировать процесс получения новых знаний на их основе.
Страна, первой реализовавшая эти принципы, получит приоритет в создании по-настоящему интеллектуальных систем нового поколения. Это не просто технологический, а цивилизационный вызов.
Будущее ИИ — не в бесконечном наращивании параметров нейросетей, а в глубокой интеграции формальной логики, алгебраических методов и универсальных моделей описания реальности. Только так можно создать системы, способные к самостоятельному мышлению, творчеству и предвидению.
Время интеллектуальных систем нового типа уже наступает. Кто первым освоит алгебру мышления — тот и определит будущее искусственного интеллекта.
Please open Telegram to view this post
VIEW IN TELEGRAM
Если вы хотите понять квантовую механику, все, что вам нужно сделать, это понять эту фразу:
«Все, что мы считаем реальным, состоит из вещей, которые нельзя считать реальными»
Нильс Бор говорил: «Если квантовая теория не потрясла тебя — ты её ещё не понял»
Ричард Фейнман сказал: «Квантовая механика — это теория, которую все используют, но никто никогда не понимает»
Эрвин Шредингер, установивший основное уравнение квантовой механики, сказал о квантовой механике: «Мне не нравится эта теория, и мне жаль, что я внес в нее свой вклад»
«Все, что мы считаем реальным, состоит из вещей, которые нельзя считать реальными»
Нильс Бор говорил: «Если квантовая теория не потрясла тебя — ты её ещё не понял»
Ричард Фейнман сказал: «Квантовая механика — это теория, которую все используют, но никто никогда не понимает»
Эрвин Шредингер, установивший основное уравнение квантовой механики, сказал о квантовой механике: «Мне не нравится эта теория, и мне жаль, что я внес в нее свой вклад»
Интеллект из хаоса: как сложные системы рождают результат
Нейросети могут научиться это делать и без человеческого опыта
Как рождается интеллект - любой интеллект:
от милипизерного интеллекта крохотной Нематоды с ее 300 нейронами
• до интеллекта венца природы Homo sapiens с его 76.000.000.000 нейронов
С появлением дегенеративного интеллекта машин, этот вопрос лишь еще больше запутался
Как рождается результат
• не только, естественный (биологический)
• но и искусственный (машинный) результат тоже
Дегенеративный ИИ, - появляется в результате способности моделей предсказывать следующий токен (напр. символ или слово)
Для этого модель использует колоссальных объемов статистику вероятностей встречающихся паттернов токенов, извлекаемую ею из предоставленных ей гигантских корпусов обучающих данных
Так что ж получается – результат рождается из данных?
И достаточно, собрав чертову тучу данных, заложить в машину логические правила извлечения из них статистики паттернов?
А потом вуаля, - интеллект сам заведется, как тараканы на немытой кухне?
Не совсем так, точнее, совсем не так
Новая весьма интересная работа молодых исследователей универов Йеля, Нортуэстерна и Айдахо выносит ответ на этот вопрос в свой заголовок - результат переходит в хаос
Нейросети могут научиться это делать и без человеческого опыта
Как рождается интеллект - любой интеллект:
от милипизерного интеллекта крохотной Нематоды с ее 300 нейронами
• до интеллекта венца природы Homo sapiens с его 76.000.000.000 нейронов
С появлением дегенеративного интеллекта машин, этот вопрос лишь еще больше запутался
Как рождается результат
• не только, естественный (биологический)
• но и искусственный (машинный) результат тоже
Дегенеративный ИИ, - появляется в результате способности моделей предсказывать следующий токен (напр. символ или слово)
Для этого модель использует колоссальных объемов статистику вероятностей встречающихся паттернов токенов, извлекаемую ею из предоставленных ей гигантских корпусов обучающих данных
Так что ж получается – результат рождается из данных?
И достаточно, собрав чертову тучу данных, заложить в машину логические правила извлечения из них статистики паттернов?
А потом вуаля, - интеллект сам заведется, как тараканы на немытой кухне?
Не совсем так, точнее, совсем не так
Новая весьма интересная работа молодых исследователей универов Йеля, Нортуэстерна и Айдахо выносит ответ на этот вопрос в свой заголовок - результат переходит в хаос
Эта картинка — тест с оптической иллюзией. Первую такую головоломку создали в 1904 году французские исследователи Альфред Бине и Теодор Симон, чтобы отличать учеников с задержкой развития от тех, кто просто ленится
Это классический тест для тренировки мозга и концентрации внимания
Он кажется простым: нужно найти 9 человек и 7 животных
Но, как пишут специалисты, удается это всего 1 человеку из 10
Это классический тест для тренировки мозга и концентрации внимания
Он кажется простым: нужно найти 9 человек и 7 животных
Но, как пишут специалисты, удается это всего 1 человеку из 10
56 % учителей информатики в РФ хотели бы освоить Ml для применения в учебном процессе
Кроме того, учителя стремятся изучать актуальные языки программирования (45 %), внедрять инновационные методики преподавания (41 %), осваивать современные инструменты веб- и мобильной разработки (37 %) , а также работу с робототехникой и Интернетом вещей (35 %)
За скоростью, с которой технологии меняются и входят в жизнь школьников, традиционные модели повышения квалификации часто просто не успевают, поэтому на запрос сейчас должны отвечать и крупные технологические компании
Разработанные ими современные Ml -инструменты — от обучающих курсов до Ml -помощника для учителей — это по сути помощь коллегам: нынешним и будущим
Внедрение технологий Ml в обучение педагоги назвали и в числе ключевых трендов в сфере информатики за последние пять лет, но здесь Ml на третьем месте с 42 %
На первом — рост популярности цифровых образовательных платформ (64 %), на втором — рост количества сдающих информатику на ЕГЭ (56 %)
Кроме того, учителя стремятся изучать актуальные языки программирования (45 %), внедрять инновационные методики преподавания (41 %), осваивать современные инструменты веб- и мобильной разработки (37 %) , а также работу с робототехникой и Интернетом вещей (35 %)
За скоростью, с которой технологии меняются и входят в жизнь школьников, традиционные модели повышения квалификации часто просто не успевают, поэтому на запрос сейчас должны отвечать и крупные технологические компании
Разработанные ими современные Ml -инструменты — от обучающих курсов до Ml -помощника для учителей — это по сути помощь коллегам: нынешним и будущим
Внедрение технологий Ml в обучение педагоги назвали и в числе ключевых трендов в сфере информатики за последние пять лет, но здесь Ml на третьем месте с 42 %
На первом — рост популярности цифровых образовательных платформ (64 %), на втором — рост количества сдающих информатику на ЕГЭ (56 %)
Параллельно с LLM/VLM Google продолжает совершенствовать Gemini Robotics 1.5
Построена на Gemini 2.5, использует две модели/агента: первая планирует, вторая выполняет действия на физическом роботе
Построена на Gemini 2.5, использует две модели/агента: первая планирует, вторая выполняет действия на физическом роботе
Ml
Параллельно с LLM/VLM Google продолжает совершенствовать Gemini Robotics 1.5 Построена на Gemini 2.5, использует две модели/агента: первая планирует, вторая выполняет действия на физическом роботе
Gemini Robotics 1.5: роботы, которые думают, прежде чем делать
Title: Gemini Robotics 1.5: Pushing the Frontier of Generalist Robots with Advanced Embodied Reasoning, Thinking, and Motion Transfer
Authors: Gemini Robotics Team, Google DeepMind
Paper: https://arxiv.org/abs/2510.03342
Review: https://arxiviq.substack.com/p/gemini-robotics-15
Что сделали?
В статье представлено семейство Gemini Robotics 1.5 — пара фундаментальных моделей, предназначенных для развития робототехники общего назначения
Семейство включает:
1) Gemini Robotics 1.5 (GR 1.5) — модель «зрение-язык-действие» (VLA) для низкоуровневого управления, работающую с разными физическими воплощениями (multi-embodiment)
2) Gemini Robotics-ER 1.5 (GR-ER 1.5) — SOTA-модель для воплощённых рассуждений (Embodied Reasoning, ER) для высокоуровневого понимания и планирования
Работа предлагает три ключевых нововведения
Во-первых, новый механизм переноса движений (Motion Transfer, MT) позволяет единой VLA-модели обучаться на разнородных данных от разных роботов (ALOHA, двурукий Franka, гуманоид Apollo) и достигать переноса навыков в режиме zero-shot
Во-вторых, способность к «воплощённому обдумыванию» (Embodied Thinking) позволяет VLA-модели чередовать действия с внутренними рассуждениями на естественном языке, что значительно улучшает её способность справляться со сложными многошаговыми задачами
В-третьих, модель GR-ER 1.5 устанавливает новый SOTA-уровень в широком спектре задач, требующих рассуждений, и обеспечивает интеллектуальную основу для мощной агентной системы
Это исследование — важный шаг к созданию действительно универсальных роботов
Предложенная агентная архитектура, сочетающая высокоуровневый «оркестратор» для рассуждений (GR-ER 1.5) с низкоуровневой «моделью действий» (GR 1.5), представляет собой надёжную основу для решения сложных, долгосрочных проблем
Механизм переноса движений напрямую решает критическую проблему нехватки данных в робототехнике, объединяя обучение на разных платформах и ускоряя прогресс в создании универсальных роботов
Наконец, процесс «обдумывания» делает поведение робота более эффективным, прозрачным и способным к сложному восстановлению после ошибок, продвигая область от простого реактивного управления к когнитивной агентности
Title: Gemini Robotics 1.5: Pushing the Frontier of Generalist Robots with Advanced Embodied Reasoning, Thinking, and Motion Transfer
Authors: Gemini Robotics Team, Google DeepMind
Paper: https://arxiv.org/abs/2510.03342
Review: https://arxiviq.substack.com/p/gemini-robotics-15
Что сделали?
В статье представлено семейство Gemini Robotics 1.5 — пара фундаментальных моделей, предназначенных для развития робототехники общего назначения
Семейство включает:
1) Gemini Robotics 1.5 (GR 1.5) — модель «зрение-язык-действие» (VLA) для низкоуровневого управления, работающую с разными физическими воплощениями (multi-embodiment)
2) Gemini Robotics-ER 1.5 (GR-ER 1.5) — SOTA-модель для воплощённых рассуждений (Embodied Reasoning, ER) для высокоуровневого понимания и планирования
Работа предлагает три ключевых нововведения
Во-первых, новый механизм переноса движений (Motion Transfer, MT) позволяет единой VLA-модели обучаться на разнородных данных от разных роботов (ALOHA, двурукий Franka, гуманоид Apollo) и достигать переноса навыков в режиме zero-shot
Во-вторых, способность к «воплощённому обдумыванию» (Embodied Thinking) позволяет VLA-модели чередовать действия с внутренними рассуждениями на естественном языке, что значительно улучшает её способность справляться со сложными многошаговыми задачами
В-третьих, модель GR-ER 1.5 устанавливает новый SOTA-уровень в широком спектре задач, требующих рассуждений, и обеспечивает интеллектуальную основу для мощной агентной системы
Это исследование — важный шаг к созданию действительно универсальных роботов
Предложенная агентная архитектура, сочетающая высокоуровневый «оркестратор» для рассуждений (GR-ER 1.5) с низкоуровневой «моделью действий» (GR 1.5), представляет собой надёжную основу для решения сложных, долгосрочных проблем
Механизм переноса движений напрямую решает критическую проблему нехватки данных в робототехнике, объединяя обучение на разных платформах и ускоряя прогресс в создании универсальных роботов
Наконец, процесс «обдумывания» делает поведение робота более эффективным, прозрачным и способным к сложному восстановлению после ошибок, продвигая область от простого реактивного управления к когнитивной агентности
arXiv.org
Gemini Robotics 1.5: Pushing the Frontier of Generalist Robots...
General-purpose robots need a deep understanding of the physical world, advanced reasoning, and general and dexterous control. This report introduces the latest generation of the Gemini Robotics...
This media is not supported in your browser
VIEW IN TELEGRAM
Параметрическое представление — используемая в математическом анализе разновидность представления переменных, когда их зависимость выражается через дополнительную величину — параметр
Параметризация – метод представления кривой, поверхности или объекта в пространстве с помощью одной или нескольких переменных, называемых параметрами
Параметризация позволяет описывать траекторию объекта на кривой или поверхности, изменяя значение параметра
Это гибкий подход для изучения и анализа форм и движений объектов
Параметризация – метод представления кривой, поверхности или объекта в пространстве с помощью одной или нескольких переменных, называемых параметрами
Параметризация позволяет описывать траекторию объекта на кривой или поверхности, изменяя значение параметра
Это гибкий подход для изучения и анализа форм и движений объектов
Пустое множество является подмножеством любого множества
Само множество также является подмножеством самого себя
Если подмножество некоторого множества не является пустым и не является всем множеством, говорят, что оно является собственным подмножеством
Само множество также является подмножеством самого себя
Если подмножество некоторого множества не является пустым и не является всем множеством, говорят, что оно является собственным подмножеством
Forwarded from НИИ Антропогенеза (ARI)
В четверг (16.10) в 18:30 в Голбуом зале Центрального дома ученых РАН будет заседание секции математики
Научное творчество академика С. П. Новикова
Заседание ведет В.М. Бухштабер
Научное творчество академика С. П. Новикова
Заседание ведет В.М. Бухштабер
На конференции по языковому моделированию COLM в Монреале представили новый метод интерпретации больших языковых моделей — SAE Boost
Технология позволяет понять, на какие внутренние признаки опирается Ml при формировании ответов, и делает это без переобучения всей модели
Метод уже протестировали на тестах по химии, документах ООН и русскоязычных данных — интерпретируемость выросла, а качество ответов осталась на прежнем уровне
https://arxiv.org/html/2507.12990v1
Технология позволяет понять, на какие внутренние признаки опирается Ml при формировании ответов, и делает это без переобучения всей модели
Метод уже протестировали на тестах по химии, документах ООН и русскоязычных данных — интерпретируемость выросла, а качество ответов осталась на прежнем уровне
https://arxiv.org/html/2507.12990v1
Если вдруг вы пропустили, и не можете уснуть, пара полезных ресурсов про Agentic AI
"Agentic AI" course by Andrew Ng
https://www.deeplearning.ai/courses/agentic-ai/
"Agentic Design Patterns" book by Antonio Gulli
https://docs.google.com/document/d/1rsaK53T3Lg5KoGwvf8ukOUvbELRtH-V0LnOIFDxBryE/preview?tab=t.0
"Agentic AI" course by Andrew Ng
https://www.deeplearning.ai/courses/agentic-ai/
"Agentic Design Patterns" book by Antonio Gulli
https://docs.google.com/document/d/1rsaK53T3Lg5KoGwvf8ukOUvbELRtH-V0LnOIFDxBryE/preview?tab=t.0
DeepLearning.AI - Learning Platform
Agentic AI
In this course taught by Andrew Ng, you'll build agentic AI systems that take action through iterative, multi-step workflows.
В XIX веке, когда компьютеров ещё не существовало, леди Лавлейс придумала первый алгоритм для вычислительной машины
По сути, это была первая программа в истории — и её автору тогда было всего 27 лет
Делимся тремя фактами из жизни известнейшей женщины-математика
Оценят все, кто дружит с числами и кодом:
Ада — дочь Джорджа Байрона
Мать боялась, что дочь унаследует порывистый характер отца, и с детства окружала её наукой
Уроки логики, геометрии и алгебры не прошли даром — врождённый талант Ады превратился в математическую интуицию
Она написала первый в истории алгоритм
Изучая проект разностной машины Чарльза Бэббиджа, Ада предложила, как та могла бы вычислять числа Бернулли
Она расписала шаги вычислений и результат — по сути, создала первую программу
Сегодня это заняло бы несколько строк кода, а тогда представляло собой сложную таблицу с десятками операций
В честь леди Лавлейс назвали язык программирования ADA, созданный для военных систем, и архитектуру видеокарт NVIDIA
А ещё именно Ада ввела в обиход понятия «цикл» и «рабочая ячейка»
Каждый второй вторник октября весь мир отмечает её день — праздник достижений женщин в науке и технологиях
По сути, это была первая программа в истории — и её автору тогда было всего 27 лет
Делимся тремя фактами из жизни известнейшей женщины-математика
Оценят все, кто дружит с числами и кодом:
Ада — дочь Джорджа Байрона
Мать боялась, что дочь унаследует порывистый характер отца, и с детства окружала её наукой
Уроки логики, геометрии и алгебры не прошли даром — врождённый талант Ады превратился в математическую интуицию
Она написала первый в истории алгоритм
Изучая проект разностной машины Чарльза Бэббиджа, Ада предложила, как та могла бы вычислять числа Бернулли
Она расписала шаги вычислений и результат — по сути, создала первую программу
Сегодня это заняло бы несколько строк кода, а тогда представляло собой сложную таблицу с десятками операций
В честь леди Лавлейс назвали язык программирования ADA, созданный для военных систем, и архитектуру видеокарт NVIDIA
А ещё именно Ада ввела в обиход понятия «цикл» и «рабочая ячейка»
Каждый второй вторник октября весь мир отмечает её день — праздник достижений женщин в науке и технологиях
Обсуждение таблицы Менделеева с точки зрения теории представлений
https://mathoverflow.net/questions/418554/is-there-a-good-mathematical-explanation-for-why-orbital-lengths-in-the-periodic
https://mathoverflow.net/questions/418554/is-there-a-good-mathematical-explanation-for-why-orbital-lengths-in-the-periodic
MathOverflow
Is there a good mathematical explanation for why orbital lengths in the periodic table are perfect squares doubled?
$\DeclareMathOperator\SO{SO}\newcommand{\R}{\mathbb{R}}\newcommand{\S}{\mathbb{S}}$The periodic table of elements has row lengths $2, 8, 8, 18, 18, 32, \ldots $, i.e., perfect squares doubled. The ...
Искусство математика состоит в нахождении того частного случая, который содержит в себе все зародыши общности
Less is More: Recursive Reasoning with Tiny Networks
Alexia Jolicoeur-Martineau
https://arxiv.org/abs/2510.04871
https://github.com/SamsungSAILMontreal/TinyRecursiveModels
И статью, и этот разбор есть смысл читать после того, как вы уже прочитали про HRM, потому что вся статья построена как систематический разбор HRM
Также постоянно следует помнить, что сравнение HRM/TRM с традиционными LLM во многом ущербно, это модели совсем разных классов
LLM - довольно общие модели, обученные на всём интернете на задачах продолжения текста, включая сложные файнтюны на чат, инструкции, решение различных задач по математике и прочим дисциплинам и т.д.
То, что при этом они способны _ещё_ и решать судоку, лабиринты, тесты ARC-AGI - на самом деле довольно удивительно
Все современные LLM это трансформер-декодеры (есть гибриды с SSM, но здесь это не важно)
HRM/TRM -- это трансформер-энкодер (как BERT), он не продолжает никакую последовательность токен за токеном, он обрабатывает все токены сразу и генерит новую последовательность той же длины, что и входная
HRM/TRM (в отличие от BERT, тоже обученного примерно на всём интернете) обучается только на одну конкретную задачу из списка, ни про какую универсальность здесь речи пока нет
Так что все восторженные посты в духе, что вот появилась модель в миллион раз меньшая по размеру и бьющая лучшие топовые LLM и скоро всем им кранты, дотацентры не нужны и прочее - надо делить на тот же миллион, многие из авторов вообще не разобрались, что сделано
Alexia Jolicoeur-Martineau
https://arxiv.org/abs/2510.04871
https://github.com/SamsungSAILMontreal/TinyRecursiveModels
HRM продемонстрировала интересный результат с малым размером модели, при этом последующий анализ от организаторов ARC-AGI показал, что в первую очередь на результат влияет последовательное улучшение ответа (deep supervision), а рекурсия в H и L модулях добавляет не очень много
Новая работа про TRM (Tiny Recursive Model) ставит под сомнение необходимость всей этой сложности и исповедует философию — «меньше значит больше»
Новая модель TRM содержит 5M-19M параметров (есть нюансы), против 27M у HRM
И статью, и этот разбор есть смысл читать после того, как вы уже прочитали про HRM, потому что вся статья построена как систематический разбор HRM
Также постоянно следует помнить, что сравнение HRM/TRM с традиционными LLM во многом ущербно, это модели совсем разных классов
LLM - довольно общие модели, обученные на всём интернете на задачах продолжения текста, включая сложные файнтюны на чат, инструкции, решение различных задач по математике и прочим дисциплинам и т.д.
То, что при этом они способны _ещё_ и решать судоку, лабиринты, тесты ARC-AGI - на самом деле довольно удивительно
Все современные LLM это трансформер-декодеры (есть гибриды с SSM, но здесь это не важно)
HRM/TRM -- это трансформер-энкодер (как BERT), он не продолжает никакую последовательность токен за токеном, он обрабатывает все токены сразу и генерит новую последовательность той же длины, что и входная
HRM/TRM (в отличие от BERT, тоже обученного примерно на всём интернете) обучается только на одну конкретную задачу из списка, ни про какую универсальность здесь речи пока нет
Так что все восторженные посты в духе, что вот появилась модель в миллион раз меньшая по размеру и бьющая лучшие топовые LLM и скоро всем им кранты, дотацентры не нужны и прочее - надо делить на тот же миллион, многие из авторов вообще не разобрались, что сделано
arXiv.org
Less is More: Recursive Reasoning with Tiny Networks
Hierarchical Reasoning Model (HRM) is a novel approach using two small neural networks recursing at different frequencies. This biologically inspired method beats Large Language models (LLMs) on...
Шифр Цезаря, один из старейших и простейших методов шифрования информации:
Кстати, именно эта идея — что ключ может меняться — и стала основой одного очень важного шифра в истории человечества: шифра Виженера
В нём сдвиг каждой буквы определяется ключевым словом
Каждая буква заменяется на другую, сдвинутую на фиксированное число позиций в алфавите
Это фиксированное число называется ключом шифра
В нашем случае ключ равен -9, то есть Я переходит в И, и так далее
Если вам вдруг придётся расшифровывать подобное сообщение на английском, то сразу делимся сайтом!
Ещё один похожий шифр называется Атбаш
Он пришёл из древнего иврита: в нём первая буква алфавита заменялась на последнюю, вторая — на предпоследнюю, и так далее
То есть в русском алфавите А превращается в Я, Б — в Ю, В — в Э и так далее
В полиалфавитных (в отличие от моноалфавитных, где каждая буква меняется по одному и тому же правилу) шифрах правила меняются для каждого символа
Позиционно-полиалфавитным — сдвиг зависит от позиции буквы в слове
А именно: первая сдвигается на 1, вторая — на 2, третья — на 3 и так далее
Кстати, именно эта идея — что ключ может меняться — и стала основой одного очень важного шифра в истории человечества: шифра Виженера
В нём сдвиг каждой буквы определяется ключевым словом
raw.org
Caesar Cipher Decoder & Encoder Tool
Encrypt and decrypt text using this Caesar Cipher tool. Select a key or let the tool auto-guess it for decryption. Learn more about the Caesar Cipher algorithm.
В предварительном отчёте Wiley за 2025 год, посвящённом влиянию технологий на науку, опубликованы свежие данные об отношении учёных к искусственному интеллекту
Один из наиболее неожиданных результатов — уровень доверия к Ml среди исследователей снизился по сравнению с 2024 годом, несмотря на существенный прогресс в развитии технологий
В 2024 году 51 % учёных высказывали тревогу по поводу возможности «галлюцинаций» — ситуации, когда языковые модели выдают выдуманные факты за истину
В 2025 году эта доля выросла до 64 %
Это происходит даже на фоне того, что уровень использования Ml в научных исследованиях увеличился с 45 % до 62 %
Также отмечен рост обеспокоенности вопросами безопасности и конфиденциальности — соответствующий показатель подскочил на 11 % по сравнению с предыдущим годом
Наряду с этим усилились сомнения в прозрачности и этичности искусственного интеллекта
Один из наиболее неожиданных результатов — уровень доверия к Ml среди исследователей снизился по сравнению с 2024 годом, несмотря на существенный прогресс в развитии технологий
В 2024 году 51 % учёных высказывали тревогу по поводу возможности «галлюцинаций» — ситуации, когда языковые модели выдают выдуманные факты за истину
В 2025 году эта доля выросла до 64 %
Это происходит даже на фоне того, что уровень использования Ml в научных исследованиях увеличился с 45 % до 62 %
Также отмечен рост обеспокоенности вопросами безопасности и конфиденциальности — соответствующий показатель подскочил на 11 % по сравнению с предыдущим годом
Наряду с этим усилились сомнения в прозрачности и этичности искусственного интеллекта