Новая формула числа Пи появилась во время работы над теорией струн
Исследователи из Индийского института науки (IISc) вывели новое представление числа Пи во время изучения теории струн.
Формула, напоминающая работу индийского математика Мадхавы 15 века, получилась при анализе взаимодействия частиц высоких энергий со множеством параметров (масса, колебания, степени свободы).
Ученые объединили функцию Эйлера-Бета и диаграмму Фейнмана, создав эффективную модель для быстрого расчета Пи в задачах, связанных с квантовым рассеянием высокоэнергетических частиц.
Открытие может привести к новым вычислительным методам и улучшить понимание связи между физикой элементарных частиц и математикой.
#StringTheory #Mathematics #QuantumPhysics
-------
@tsingular
Исследователи из Индийского института науки (IISc) вывели новое представление числа Пи во время изучения теории струн.
Формула, напоминающая работу индийского математика Мадхавы 15 века, получилась при анализе взаимодействия частиц высоких энергий со множеством параметров (масса, колебания, степени свободы).
Ученые объединили функцию Эйлера-Бета и диаграмму Фейнмана, создав эффективную модель для быстрого расчета Пи в задачах, связанных с квантовым рассеянием высокоэнергетических частиц.
Открытие может привести к новым вычислительным методам и улучшить понимание связи между физикой элементарных частиц и математикой.
#StringTheory #Mathematics #QuantumPhysics
-------
@tsingular
Microsoft ОТМЕНИЛА ЗАКОН МАСШТАБА :), выпустив Phi-4
14B модель рвёт в тестах Sonnet, Gemini и Qwen!
Корпорация из Редмонда представила новую языковую модель Phi-4 с 14 млрд параметров.
Разработка демонстрирует впечатляющие результаты в задачах математического анализа и комплексных вычислений.
Архитектура основана на синтетических датасетах и предобработанных органических данных.
Встроенные механизмы включают системы безопасности, защиту контента и верификацию достоверности.
Главное преимущество - высокая производительность при скромных требованиях к вычислительным ресурсам.
Математики нервно курят в сторонке - теперь их домашку может делать даже ноутбук 🤓
Пора переписывать учебники про Scaling Law. :) Все эти петабайты данных - бесполезны.
Ну либо МС зафайнтюнила так, что бенчмарки теперь на них работают, не знаю.
Надо тестировать.
На HF обещают выложить на следующей неделе тут:
https://huggingface.co/collections/microsoft/phi-3-6626e15e9585a200d2d761e3
#Microsoft #Phi4 #mathematics
———
@tsingular
14B модель рвёт в тестах Sonnet, Gemini и Qwen!
Корпорация из Редмонда представила новую языковую модель Phi-4 с 14 млрд параметров.
Разработка демонстрирует впечатляющие результаты в задачах математического анализа и комплексных вычислений.
Архитектура основана на синтетических датасетах и предобработанных органических данных.
Встроенные механизмы включают системы безопасности, защиту контента и верификацию достоверности.
Главное преимущество - высокая производительность при скромных требованиях к вычислительным ресурсам.
Математики нервно курят в сторонке - теперь их домашку может делать даже ноутбук 🤓
Пора переписывать учебники про Scaling Law. :) Все эти петабайты данных - бесполезны.
Ну либо МС зафайнтюнила так, что бенчмарки теперь на них работают, не знаю.
Надо тестировать.
На HF обещают выложить на следующей неделе тут:
https://huggingface.co/collections/microsoft/phi-3-6626e15e9585a200d2d761e3
#Microsoft #Phi4 #mathematics
———
@tsingular
🔥9
🚀 DeepMind покоряет математику: AI превзошел олимпиадников в геометрии
Google DeepMind представила AlphaGeometry2 — AI-систему, которая решает геометрические задачи лучше золотых медалистов Международной математической олимпиады (IMO).
Что умеет AlphaGeometry2?
Система решила 42 из 50 олимпиадных задач. Это превышает средний показатель золотых медалистов (40.9 задач)!
AlphaGeometry2 использует гибридный подход, из двух технологий:
- Языковую модель Gemini от Google
- "Символьный движок", работающий по строгим математическим правилам
Как это работает? 🤔
Модель Gemini предлагает возможные шаги решения на формальном математическом языке, а символьный движок проверяет их логическую правильность. При этом система может вести несколько параллельных поисков решения и сохранять полезные находки в общей базе знаний.
Из-за нехватки обучающих данных DeepMind пришлось создать собственный синтетический датасет из более чем 300 миллионов теорем и доказательств разной сложности!
AlphaGeometry2 пока не может решать задачи с переменным числом точек, нелинейными уравнениями и неравенствами.
Из 29 более сложных задач, предложенных экспертами для будущих олимпиад, система осилила только 20.
Исследователи обнаружили, что языковая модель AlphaGeometry2 способна генерировать частичные решения задач даже без помощи символьного движка.
Правда, пока что для математических приложений символьные инструменты остаются необходимыми — нужно улучшить скорость работы и решить проблему галлюцинаций.
Почему это важно?
DeepMind видит в этом проекте нечто большее, чем просто решение школьных задач.
Способность доказывать теоремы требует как логического мышления, так и умения выбирать правильные шаги из множества возможных.
Эти навыки могут стать ключевыми для создания более универсальных AI-систем будущего.
Летом прошлого года DeepMind продемонстрировала впечатляющий результат: комбинация AlphaGeometry2 с системой AlphaProof смогла решить 4 из 6 задач IMO 2024 года.
В картинку вынес отдельно метод поиска, который описан в документе.
Т.е.: текстом генерим варианты решений, а дальше параллельными вызовами дёргаем разные другие модели, чтобы получить достоверный результат. Каждая ветка скидывает "идеи" в "общий чат моделей".
Может быть полезно вообще в любых проектах.
#DeepMind #Mathematics #математика
———
@tsingular
Google DeepMind представила AlphaGeometry2 — AI-систему, которая решает геометрические задачи лучше золотых медалистов Международной математической олимпиады (IMO).
Что умеет AlphaGeometry2?
Система решила 42 из 50 олимпиадных задач. Это превышает средний показатель золотых медалистов (40.9 задач)!
AlphaGeometry2 использует гибридный подход, из двух технологий:
- Языковую модель Gemini от Google
- "Символьный движок", работающий по строгим математическим правилам
Как это работает? 🤔
Модель Gemini предлагает возможные шаги решения на формальном математическом языке, а символьный движок проверяет их логическую правильность. При этом система может вести несколько параллельных поисков решения и сохранять полезные находки в общей базе знаний.
Из-за нехватки обучающих данных DeepMind пришлось создать собственный синтетический датасет из более чем 300 миллионов теорем и доказательств разной сложности!
AlphaGeometry2 пока не может решать задачи с переменным числом точек, нелинейными уравнениями и неравенствами.
Из 29 более сложных задач, предложенных экспертами для будущих олимпиад, система осилила только 20.
Исследователи обнаружили, что языковая модель AlphaGeometry2 способна генерировать частичные решения задач даже без помощи символьного движка.
Правда, пока что для математических приложений символьные инструменты остаются необходимыми — нужно улучшить скорость работы и решить проблему галлюцинаций.
Почему это важно?
DeepMind видит в этом проекте нечто большее, чем просто решение школьных задач.
Способность доказывать теоремы требует как логического мышления, так и умения выбирать правильные шаги из множества возможных.
Эти навыки могут стать ключевыми для создания более универсальных AI-систем будущего.
Летом прошлого года DeepMind продемонстрировала впечатляющий результат: комбинация AlphaGeometry2 с системой AlphaProof смогла решить 4 из 6 задач IMO 2024 года.
В картинку вынес отдельно метод поиска, который описан в документе.
Т.е.: текстом генерим варианты решений, а дальше параллельными вызовами дёргаем разные другие модели, чтобы получить достоверный результат. Каждая ветка скидывает "идеи" в "общий чат моделей".
Может быть полезно вообще в любых проектах.
#DeepMind #Mathematics #математика
———
@tsingular
👍10🔥4❤🔥1
🚀LADDER: LLM учится решать задачи как человек - от простого к сложному
Исследователи из Tufa Labs разработали подход LADDER (Learning through Autonomous Difficulty-Driven Example Recursion), позволяющий моделям учиться на декомпозиции сложных задач.
Суть в том, что модель сама генерирует более простые варианты сложной задачи, образуя естественный градиент сложности.
Она решает эти упрощенные варианты и постепенно учится решать всё более сложные задачи — без участия человека! 🤯
🧪 Технические детали, которые делают этот метод особенным:
1. Рекурсивное разложение проблемы: Модель генерирует дерево вариантов, где каждый новый уровень проще предыдущего. Важно, что сама модель определяет, как упростить задачу.
2. Верификация решений: на математической задаче из примера для проверки используется численное интегрирование, которое дает достоверную проверку.
3. Reinforcement Learning (GRPO): Применяется Group Relative Policy Optimization без отдельной критической модели, что экономит память и повышает эффективность.
4. TTRL (Test-Time Reinforcement Learning): Когда модель сталкивается с новой сложной задачей на этапе тестирования, она генерирует для неё варианты прямо во время вывода!
🔥 Результаты просто огонь:
- Модель Llama 3.2 3B улучшила точность с 1% до 82% на университетских интегралах
- 7B модель достигла 73% на экзамене MIT Integration Bee, превзойдя GPT-4o (42%)
- После TTRL та же 7B модель достигла 90% на MIT Integration Bee, перегнав даже OpenAI o1 (80%)
Да, вы правильно поняли — 7-миллиардная модель ОБОШЛА топовые модели с триллионами параметров! И это без дополнительной архитектурной оптимизации и человеческого фидбека.
💼 Бизнес-применение:
1. Экономия на вычислительных ресурсах: зачем платить за огромные модели, если можно научить маленькие?
2. Создание узкоспециализированных решений с меньшими бюджетами: можно взять маленькую модель и научить её конкретной задаче.
3. Edge-устройства: теперь реально делать локальные приложения с продвинутым мышлением на слабом железе.
Кажется, наконец-то появится альтернатива подходу "залить всё железом". LADDER открывает дверь к более эффективным моделям без безумного масштабирования.
Т.е. 5090 пока не покупаем :)
#LADDER #RL #mathematics
Исследователи из Tufa Labs разработали подход LADDER (Learning through Autonomous Difficulty-Driven Example Recursion), позволяющий моделям учиться на декомпозиции сложных задач.
Суть в том, что модель сама генерирует более простые варианты сложной задачи, образуя естественный градиент сложности.
Она решает эти упрощенные варианты и постепенно учится решать всё более сложные задачи — без участия человека! 🤯
🧪 Технические детали, которые делают этот метод особенным:
1. Рекурсивное разложение проблемы: Модель генерирует дерево вариантов, где каждый новый уровень проще предыдущего. Важно, что сама модель определяет, как упростить задачу.
2. Верификация решений: на математической задаче из примера для проверки используется численное интегрирование, которое дает достоверную проверку.
3. Reinforcement Learning (GRPO): Применяется Group Relative Policy Optimization без отдельной критической модели, что экономит память и повышает эффективность.
4. TTRL (Test-Time Reinforcement Learning): Когда модель сталкивается с новой сложной задачей на этапе тестирования, она генерирует для неё варианты прямо во время вывода!
🔥 Результаты просто огонь:
- Модель Llama 3.2 3B улучшила точность с 1% до 82% на университетских интегралах
- 7B модель достигла 73% на экзамене MIT Integration Bee, превзойдя GPT-4o (42%)
- После TTRL та же 7B модель достигла 90% на MIT Integration Bee, перегнав даже OpenAI o1 (80%)
Да, вы правильно поняли — 7-миллиардная модель ОБОШЛА топовые модели с триллионами параметров! И это без дополнительной архитектурной оптимизации и человеческого фидбека.
💼 Бизнес-применение:
1. Экономия на вычислительных ресурсах: зачем платить за огромные модели, если можно научить маленькие?
2. Создание узкоспециализированных решений с меньшими бюджетами: можно взять маленькую модель и научить её конкретной задаче.
3. Edge-устройства: теперь реально делать локальные приложения с продвинутым мышлением на слабом железе.
Кажется, наконец-то появится альтернатива подходу "залить всё железом". LADDER открывает дверь к более эффективным моделям без безумного масштабирования.
Т.е. 5090 пока не покупаем :)
#LADDER #RL #mathematics
👍13❤🔥1
Google Gemini получил золото на математической олимпиаде
Продвинутая версия Gemini Deep Think решила 5 из 6 задач Международной математической олимпиады, набрав 35 из 42 баллов — результат золотой медали.
Главный прорыв: система работает полностью на естественном языке, без перевода в формальные математические языки. Прошлогодние AlphaProof и AlphaGeometry требовали экспертного перевода задач и работали по несколько дней. Gemini уложился в стандартные 4,5 часа соревнований.
Основа успеха — параллельное мышление: модель одновременно исследует несколько путей решения, а не идет линейно. Плюс обучение на подкрепляющем обучении с корпусом качественных математических решений.
По словам президента олимпиады: «Их решения поразительны — четкие, точные и легко читаемые».
#Gemini #Mathematics #AI
------
@tsingular
Продвинутая версия Gemini Deep Think решила 5 из 6 задач Международной математической олимпиады, набрав 35 из 42 баллов — результат золотой медали.
Главный прорыв: система работает полностью на естественном языке, без перевода в формальные математические языки. Прошлогодние AlphaProof и AlphaGeometry требовали экспертного перевода задач и работали по несколько дней. Gemini уложился в стандартные 4,5 часа соревнований.
Основа успеха — параллельное мышление: модель одновременно исследует несколько путей решения, а не идет линейно. Плюс обучение на подкрепляющем обучении с корпусом качественных математических решений.
По словам президента олимпиады: «Их решения поразительны — четкие, точные и легко читаемые».
#Gemini #Mathematics #AI
------
@tsingular
🔥5⚡1