3. Интерпретации квантовой механики — обсуждаемая уже 100 лет тема + современные эксперименты, проверяющие границы:
🔗 https://pubs.aip.org/avs/aqs/article-abstract/4/1/014701/2835265/Macroscopic-quantum-mechanics-in-gravitational
🔗 https://www.nature.com/articles/s41567-021-01489-5
🔗 https://www.mdpi.com/1099-4300/25/4/645
📡 Каналы наших друзей, активно участвовавших в стриме:
@o_fundamentalnom — Валерий о фундаментальных вопросах математики и физики
@hidden_heuristic — Никита про машинное обучение и ИИ
@biokibernetika — Алексей о биомеханике, остеопатии, диагностике, спортивной медицине и многом другом
@homeostatic_universe — Михаил о физике, академии и научной карьере
@aiforevery — Наталья о применениях ИИ для решения повседневных задач
https://www.youtube.com/@dima_top_crypto — Дима о математике и науке вообще
📢 Вторая часть с дискуссией будет здесь совсем скоро!
🔗 https://pubs.aip.org/avs/aqs/article-abstract/4/1/014701/2835265/Macroscopic-quantum-mechanics-in-gravitational
🔗 https://www.nature.com/articles/s41567-021-01489-5
🔗 https://www.mdpi.com/1099-4300/25/4/645
📡 Каналы наших друзей, активно участвовавших в стриме:
@o_fundamentalnom — Валерий о фундаментальных вопросах математики и физики
@hidden_heuristic — Никита про машинное обучение и ИИ
@biokibernetika — Алексей о биомеханике, остеопатии, диагностике, спортивной медицине и многом другом
@homeostatic_universe — Михаил о физике, академии и научной карьере
@aiforevery — Наталья о применениях ИИ для решения повседневных задач
https://www.youtube.com/@dima_top_crypto — Дима о математике и науке вообще
📢 Вторая часть с дискуссией будет здесь совсем скоро!
AIP Publishing
Macroscopic quantum mechanics in gravitational-wave observatories and beyond
The existence of quantum correlations affects both microscopic and macroscopic systems. On macroscopic systems, they are difficult to observe and usually irrele
🔥3👍2
1/2
🧠 А как вы, коллеги, думаете...
…сколько вообще существует возможных состояний у обычного кубика Рубика 3×3?
А сколько, как вы считаете, максимум ходов может понадобиться, чтобы собрать его в оптимальном числе движений — независимо от того, насколько он перемешан?
А вот ещё: сколько операций нужно, чтобы найти такое оптимальное решение? Причём не просто "собрать", а найти самый короткий путь?
Оказывается, всё это — не головоломка из детства, а вполне себе серьёзная область под названием вычислительная теория групп. И я в неё внезапно втянулся благодаря этому проекту:
https://t.iss.one/sberlogabig/581
Продолжение тут 👇👇👇
🧠 А как вы, коллеги, думаете...
…сколько вообще существует возможных состояний у обычного кубика Рубика 3×3?
А сколько, как вы считаете, максимум ходов может понадобиться, чтобы собрать его в оптимальном числе движений — независимо от того, насколько он перемешан?
А вот ещё: сколько операций нужно, чтобы найти такое оптимальное решение? Причём не просто "собрать", а найти самый короткий путь?
Оказывается, всё это — не головоломка из детства, а вполне себе серьёзная область под названием вычислительная теория групп. И я в неё внезапно втянулся благодаря этому проекту:
https://t.iss.one/sberlogabig/581
Продолжение тут 👇👇👇
🔥2❤1
2/2. продолжение. начало тут 👆
🔢 У 3×3 кубика — около 43 квинтильонов (4 × 10²⁰) возможных конфигураций. И при этом точно известно: любой из них можно решить за максимум 20 ходов. всего за 20, млять, из такого пространства состояний! Это так называемое число Бога. Красивое, минималистичное, почти мистическое.
Меня это сразу зацепило. С одной стороны — гигантское пространство состояний. С другой — маленькое число. Как такое возможно? И как эффективно найти этот кратчайший путь?
📈 Всё это можно представить как блуждание по графу Кэли: каждая вершина — это состояние кубика, рёбра — допустимые повороты. Задача — найти кратчайший путь между двумя вершинами. Логично, что для 3×3 можно просто перебрать всё (хотя и с оптимизациями). Но если взять кубик побольше — n×n×n — задача становится совсем другой.
🤓 Есть мнение, что число Бога растёт квадратично по n. Над этим размышлял даже Теренс Тао — один из самых известных современных математиков. Он предположил, что структура групп конфигураций устроена так, что можно обойтись полиномиальным числом шагов, но... полного доказательства пока нет. Даже у Тао. Это не решённый вопрос.
❗ Но тут главное не путать:
число ходов для сборки кубика может расти полиномиально,
однако алгоритм, который это оптимальное решение находит, скорее всего, работает за экспоненциальное время.
Хотите — расскажу подробности!
🔍 Всё это — не просто про кубик. Это про сложность, алгоритмы, структуру, границы возможного. И, честно говоря, круто, что такая на вид простая штука может вести к таким глубоким вопросам.
Если интересно, могу потом поделиться тем, как всё это связано с криптографией, случайной генерацией и обучением алгоритмов.
А пока — как вы думаете:
а для 4×4 и выше число Бога действительно растёт медленно?
Или просто пока никто не знает?
@easy_about_complex
#Complexity #Algorithms
#ComputationalAlgebra #ComputatinalGroupTheory #CayleyGraphs #Puzzles
🔢 У 3×3 кубика — около 43 квинтильонов (4 × 10²⁰) возможных конфигураций. И при этом точно известно: любой из них можно решить за максимум 20 ходов. всего за 20, млять, из такого пространства состояний! Это так называемое число Бога. Красивое, минималистичное, почти мистическое.
Меня это сразу зацепило. С одной стороны — гигантское пространство состояний. С другой — маленькое число. Как такое возможно? И как эффективно найти этот кратчайший путь?
📈 Всё это можно представить как блуждание по графу Кэли: каждая вершина — это состояние кубика, рёбра — допустимые повороты. Задача — найти кратчайший путь между двумя вершинами. Логично, что для 3×3 можно просто перебрать всё (хотя и с оптимизациями). Но если взять кубик побольше — n×n×n — задача становится совсем другой.
🤓 Есть мнение, что число Бога растёт квадратично по n. Над этим размышлял даже Теренс Тао — один из самых известных современных математиков. Он предположил, что структура групп конфигураций устроена так, что можно обойтись полиномиальным числом шагов, но... полного доказательства пока нет. Даже у Тао. Это не решённый вопрос.
❗ Но тут главное не путать:
число ходов для сборки кубика может расти полиномиально,
однако алгоритм, который это оптимальное решение находит, скорее всего, работает за экспоненциальное время.
Хотите — расскажу подробности!
🔍 Всё это — не просто про кубик. Это про сложность, алгоритмы, структуру, границы возможного. И, честно говоря, круто, что такая на вид простая штука может вести к таким глубоким вопросам.
Если интересно, могу потом поделиться тем, как всё это связано с криптографией, случайной генерацией и обучением алгоритмов.
А пока — как вы думаете:
а для 4×4 и выше число Бога действительно растёт медленно?
Или просто пока никто не знает?
@easy_about_complex
#Complexity #Algorithms
#ComputationalAlgebra #ComputatinalGroupTheory #CayleyGraphs #Puzzles
Telegram
Истории (не)успеха (ИИ)ЕИ
1/2
🧠 А как вы, коллеги, думаете...
…сколько вообще существует возможных состояний у обычного кубика Рубика 3×3?
А сколько, как вы считаете, максимум ходов может понадобиться, чтобы собрать его в оптимальном числе движений — независимо от того, насколько…
🧠 А как вы, коллеги, думаете...
…сколько вообще существует возможных состояний у обычного кубика Рубика 3×3?
А сколько, как вы считаете, максимум ходов может понадобиться, чтобы собрать его в оптимальном числе движений — независимо от того, насколько…
❤5👍3
Media is too big
VIEW IN TELEGRAM
💬 Старт свободной дискуссии в стриме от 23.07 с Михаилом Коробко!
Обсуждаем всё: от космологических вопросов через призму современной физики и математики — до вечных споров о том, кто круче, физики или математики 😏 Недопонимания, шутки, инсайты… и, конечно, главная тема — топологическая структура Вселенной 🌌
⚡ Это только начало! Продолжение дискуссии от 23.07 скоро будет онлайн — не пропустите.
✍ Пишите в комментариях, что думаете о поднятых темах — будет интересно почитать ваши версии и аргументы!
@homeostatic_universe @hidden_heuristic @o_fundamentalnom @easy_about_complex
Обсуждаем всё: от космологических вопросов через призму современной физики и математики — до вечных споров о том, кто круче, физики или математики 😏 Недопонимания, шутки, инсайты… и, конечно, главная тема — топологическая структура Вселенной 🌌
⚡ Это только начало! Продолжение дискуссии от 23.07 скоро будет онлайн — не пропустите.
✍ Пишите в комментариях, что думаете о поднятых темах — будет интересно почитать ваши версии и аргументы!
@homeostatic_universe @hidden_heuristic @o_fundamentalnom @easy_about_complex
❤2👍2🔥2
Нейросети и вычисления в подргуппах группы перестановок 𝑛 элементов.
Речь идёт не только о головоломках вроде кубика Рубика или пирамидок/октаэдров/гексаэдров (картинкa👆), но и о матричных группах, которые встречаются, например, в квантовой физике. Их объединяет одно: даже при сравнительно небольшом числе элементов количество возможных комбинаций (порядок группы) вырастает до астрономических величин.
Когда я взял первую вращательную головоломку для машинного анализа, начал с самого простого — записал перестановки, которые создаёт каждое отдельное движение. Сделать это в уме, мягко говоря, сложно (картинкa👆), поэтому я написал интерактивную визуализацию пазла в Kaggle. Да, юзер интерфейсы там делать неудобно, но в уме ещё сложнее! Если немного привыкнуть, то работать вполне комфортно. Так я смог построить и проверить генераторы группы перестановок: какие элементы меняются местами, как они перемещаются по циклам.
🔗 Ссылка на ноутбук в Kaggle — можно апвотить, не обижусь 😁
Дальше самое интересное.
👇👇👇
Речь идёт не только о головоломках вроде кубика Рубика или пирамидок/октаэдров/гексаэдров (картинкa👆), но и о матричных группах, которые встречаются, например, в квантовой физике. Их объединяет одно: даже при сравнительно небольшом числе элементов количество возможных комбинаций (порядок группы) вырастает до астрономических величин.
Когда я взял первую вращательную головоломку для машинного анализа, начал с самого простого — записал перестановки, которые создаёт каждое отдельное движение. Сделать это в уме, мягко говоря, сложно (картинкa👆), поэтому я написал интерактивную визуализацию пазла в Kaggle. Да, юзер интерфейсы там делать неудобно, но в уме ещё сложнее! Если немного привыкнуть, то работать вполне комфортно. Так я смог построить и проверить генераторы группы перестановок: какие элементы меняются местами, как они перемещаются по циклам.
🔗 Ссылка на ноутбук в Kaggle — можно апвотить, не обижусь 😁
Дальше самое интересное.
👇👇👇
👍3
Продолжение, начало тут 👆
Теперь начинается самое интересное.
«Алфавит» этой группы — 12 вращений (пo по две вокруг каждой из 6-ти вершин октаэдра — по часовой стрелке и против). Вращения могут переставлять 48 элементов восьми цветов. Всего у пазла 2 009 078 326 886 400 возможных состояний (примерно 2×10^15, около двух квадриллионов).
Если представить все состояния как вершины в графе Кэли, то таких вершин будет столько же — 2 009 078 326 886 400, и из каждой выходит 12 рёбер — по одному на каждое вращение. Найти кратчайший путь от случайно перемешанного состояния к собранному при таком масштабе стандартными алгоритмами практически невозможно, даже на суперкомпьютере.
Поэтому следующий шаг — обучить нейросеть «языку» движений и перестановок именно для этой головоломки. Посмотрим, что получится. Эксперимент продолжается 🙂 Пока не уверен, какую архитектуру выбрать — есть идеи и интуиция, но это надо проверять. Цель на первом этапе — научить нейросеть ориентироваться в огромных пространствах состояний, где при этом есть довольно регулярная структура.
P.S. Напоминаю, что к этому проекту можно присоединиться:
🔗 https://t.iss.one/sberlogabig/581
Ссылки на уже опубликованные работы:
📄 https://arxiv.org/abs/2502.18663
📄 https://arxiv.org/abs/2502.13266
#Algorithms #Complexity #Algebra #GroupTheory #CayleyGraphs #ML #ChristophersJewelPuzzle #Puzzles
Теперь начинается самое интересное.
«Алфавит» этой группы — 12 вращений (пo по две вокруг каждой из 6-ти вершин октаэдра — по часовой стрелке и против). Вращения могут переставлять 48 элементов восьми цветов. Всего у пазла 2 009 078 326 886 400 возможных состояний (примерно 2×10^15, около двух квадриллионов).
Если представить все состояния как вершины в графе Кэли, то таких вершин будет столько же — 2 009 078 326 886 400, и из каждой выходит 12 рёбер — по одному на каждое вращение. Найти кратчайший путь от случайно перемешанного состояния к собранному при таком масштабе стандартными алгоритмами практически невозможно, даже на суперкомпьютере.
Поэтому следующий шаг — обучить нейросеть «языку» движений и перестановок именно для этой головоломки. Посмотрим, что получится. Эксперимент продолжается 🙂 Пока не уверен, какую архитектуру выбрать — есть идеи и интуиция, но это надо проверять. Цель на первом этапе — научить нейросеть ориентироваться в огромных пространствах состояний, где при этом есть довольно регулярная структура.
P.S. Напоминаю, что к этому проекту можно присоединиться:
🔗 https://t.iss.one/sberlogabig/581
Ссылки на уже опубликованные работы:
📄 https://arxiv.org/abs/2502.18663
📄 https://arxiv.org/abs/2502.13266
#Algorithms #Complexity #Algebra #GroupTheory #CayleyGraphs #ML #ChristophersJewelPuzzle #Puzzles
Telegram
Истории (не)успеха (ИИ)ЕИ
Нейросети и вычисления в подргуппах группы перестановок 𝑛 элементов.
Речь идёт не только о головоломках вроде кубика Рубика или пирамидок/октаэдров/гексаэдров (картинкa👆), но и о матричных группах, которые встречаются, например, в квантовой физике. Их объединяет…
Речь идёт не только о головоломках вроде кубика Рубика или пирамидок/октаэдров/гексаэдров (картинкa👆), но и о матричных группах, которые встречаются, например, в квантовой физике. Их объединяет…
👍5❤1
This media is not supported in your browser
VIEW IN TELEGRAM
Друзья, давно не писал здесь — был сильно загружен основной работой.
Но уже совсем скоро мы снова вернёмся к супер-интересным физмат темам и, конечно же, к лайв-стримам с переднего края науки! 🚀✨
Но уже совсем скоро мы снова вернёмся к супер-интересным физмат темам и, конечно же, к лайв-стримам с переднего края науки! 🚀✨
👍6
Эй вы, задние, делай как я! Это значит — не надо за мной. Колея эта — только моя, выбирайтесь своей колеёй! (c) В.С.В.
Очень интересный стрим по современной математике и математическим проблемам тысячелетия от друга нашего канала Димы — смотрю сейчас с большим интересом. 🔥
О проблемах тысячелетия изнутри - какими путями такие проблемы решаются.
Кому хочется серьёзной математики, очень рекомендую к просмотру. Если что-то будет непонятно — не расстраивайтесь, мне тоже далеко не всё в этом стриме было понятно 🙂 Но атмосфера и идеи таких исследований переданы здорово и посмотреть до конца очень рекомендую! 🔥🔥🔥
👉 https://www.youtube.com/live/hXGun1Kl0YQ
Очень интересный стрим по современной математике и математическим проблемам тысячелетия от друга нашего канала Димы — смотрю сейчас с большим интересом. 🔥
О проблемах тысячелетия изнутри - какими путями такие проблемы решаются.
Кому хочется серьёзной математики, очень рекомендую к просмотру. Если что-то будет непонятно — не расстраивайтесь, мне тоже далеко не всё в этом стриме было понятно 🙂 Но атмосфера и идеи таких исследований переданы здорово и посмотреть до конца очень рекомендую! 🔥🔥🔥
👉 https://www.youtube.com/live/hXGun1Kl0YQ
Youtube
- YouTube
Enjoy the videos and music you love, upload original content, and share it all with friends, family, and the world on YouTube.
🔥3👍1
Forwarded from Knowledge Accumulator
С днём AGI-осени?
Люди думали о создании "искусственного интеллекта" с незапамятных времён - не то, что на заре компьютеров, а когда их ещё не было. Думаю, все мы знаем про тест Тьюринга - он был предложен аж в 1950 году! Та самая статья Тьюринга довольно интересно читается сегодня, поскольку мы знаем про AI гораздо больше.
Попытки двигаться в сторону "AGI" не заставили себя ждать. Я уже когда-то писал про программу со скромным названием General Problem Solver из 1957-го. Да в ту эру был даже свой ChatGPT - ELIZA (1966). Рано смеётесь - она обгоняла GPT-3.5 в тесте Тьюринга.
Уже тогда говорили - "Через 3-6 месяцев ELIZA будет писать 90% кода". К сожалению, людишки переоценили свои силы, и в 70-х этот обсёр стал очевиден. Амбиции поубавились и про AGI уже как-то стало стыдно говорить.
В 2012-м свёрточные нейросети ворвались в игру и началась эпоха Deep Learning. Довольно быстро его применили в зрении и других областях, в том числе и в обучении с подкреплением. Статья Playing Atari with Deep Reinforcement Learning [2013] знатно хайпанула - надо же, алгоритм самостоятельно учится играть в игру. Потом Deepmind выпустили AlphaGo [2015].
В тот момент я только начинал изучать ML. Отчётливо помню, что в больших ML-сообществах тема AGI считалась кринжом - серьёзные люди тогда жаловали только серьёзные ML-приложения. Я был среди меньшинства, которое ожидало дальнейших побед RL.
Пик пришёлся на 2018-2019-й - Deepmind AlphaStar и OpenAI Five жёстко хайпанули, продемонстрировав топовый уровень игры в Starcraft 2 и Dota 2. Но это была Пиррова победа. Читая внимательно статьи, становится понятно - всё это работает с горем пополам. Не получается так, как в Go - поставил модельку играть саму с собой и пошёл пить чай - всё это уже не скейлится на такие задачи, и нужно городить кучу костылей и ограничений.
И вот в начале 2020-х AGI снова вошёл в мейнстрим, причём не благодаря решению крутой задачи, а благодаря новой форме подачи - из андэграунда вырвались NLP-ресёрчеры, которые релизнули старую как мир идею - чат-бота, но на основе Deep Learning. Увидев такое, уязвимый человеческий рассудок не устоял перед харизмой статистического попугая. На пару лет те, кто не верили в достижение AGI на основе чат-бота, стали считаться тупыми скептиками.
Прошло пару лет, миллиарды долларов были распилены, чат-бот прокачали, но AGI как-то не особо приблизился. И тут текущие игроки достали козырь из рукава. Оказывается, AGI это в принципе отстойный термин. Теперь вместо того, чтобы идти к как бы "непонятному" интеллекту, AI-компании меняют направление.
И я очень этому рад! Нас ждёт расцвет реально полезных AI-приложений. xAI релизнули общение с раздевающейся аниме-тёлочкой. Superintelligence Lab Цукерберга даёт возможность пообщаться с Russian Girl или Step Mom, ждём релиза AlphaSex от Google Deepmind. Не сомневаюсь, что в скором времени у нас в домах будут Тесла Оптимусы, выглядящие как Ani, и помимо всего прочего ещё и собирающие грязные носки по дому.Женщина, которую мы все хотели.
На основе текущих технологий было и будет построено много полезных приложений. Но лично мне, как человеку, сфокусированному на сильном интеллекте уже лет 10, на эти приложения скорее пофиг.
Текущие крупные игроки вряд ли заинтересованы в создании "настоящего" AGI - он может уничтожить статус-кво и их самих. В этом я с ними солидарен - если у кого-то из этих больных мессианским комплексом реально появится суперинтеллект, мало не покажется никому. В свою очередь, это открывает возможность совершить этот прорыв кому угодно, кто знает, что и зачем он делает.
@knowledge_accumulator
Люди думали о создании "искусственного интеллекта" с незапамятных времён - не то, что на заре компьютеров, а когда их ещё не было. Думаю, все мы знаем про тест Тьюринга - он был предложен аж в 1950 году! Та самая статья Тьюринга довольно интересно читается сегодня, поскольку мы знаем про AI гораздо больше.
Попытки двигаться в сторону "AGI" не заставили себя ждать. Я уже когда-то писал про программу со скромным названием General Problem Solver из 1957-го. Да в ту эру был даже свой ChatGPT - ELIZA (1966). Рано смеётесь - она обгоняла GPT-3.5 в тесте Тьюринга.
Уже тогда говорили - "Через 3-6 месяцев ELIZA будет писать 90% кода". К сожалению, людишки переоценили свои силы, и в 70-х этот обсёр стал очевиден. Амбиции поубавились и про AGI уже как-то стало стыдно говорить.
В 2012-м свёрточные нейросети ворвались в игру и началась эпоха Deep Learning. Довольно быстро его применили в зрении и других областях, в том числе и в обучении с подкреплением. Статья Playing Atari with Deep Reinforcement Learning [2013] знатно хайпанула - надо же, алгоритм самостоятельно учится играть в игру. Потом Deepmind выпустили AlphaGo [2015].
В тот момент я только начинал изучать ML. Отчётливо помню, что в больших ML-сообществах тема AGI считалась кринжом - серьёзные люди тогда жаловали только серьёзные ML-приложения. Я был среди меньшинства, которое ожидало дальнейших побед RL.
Пик пришёлся на 2018-2019-й - Deepmind AlphaStar и OpenAI Five жёстко хайпанули, продемонстрировав топовый уровень игры в Starcraft 2 и Dota 2. Но это была Пиррова победа. Читая внимательно статьи, становится понятно - всё это работает с горем пополам. Не получается так, как в Go - поставил модельку играть саму с собой и пошёл пить чай - всё это уже не скейлится на такие задачи, и нужно городить кучу костылей и ограничений.
И вот в начале 2020-х AGI снова вошёл в мейнстрим, причём не благодаря решению крутой задачи, а благодаря новой форме подачи - из андэграунда вырвались NLP-ресёрчеры, которые релизнули старую как мир идею - чат-бота, но на основе Deep Learning. Увидев такое, уязвимый человеческий рассудок не устоял перед харизмой статистического попугая. На пару лет те, кто не верили в достижение AGI на основе чат-бота, стали считаться тупыми скептиками.
Прошло пару лет, миллиарды долларов были распилены, чат-бот прокачали, но AGI как-то не особо приблизился. И тут текущие игроки достали козырь из рукава. Оказывается, AGI это в принципе отстойный термин. Теперь вместо того, чтобы идти к как бы "непонятному" интеллекту, AI-компании меняют направление.
И я очень этому рад! Нас ждёт расцвет реально полезных AI-приложений. xAI релизнули общение с раздевающейся аниме-тёлочкой. Superintelligence Lab Цукерберга даёт возможность пообщаться с Russian Girl или Step Mom, ждём релиза AlphaSex от Google Deepmind. Не сомневаюсь, что в скором времени у нас в домах будут Тесла Оптимусы, выглядящие как Ani, и помимо всего прочего ещё и собирающие грязные носки по дому.
На основе текущих технологий было и будет построено много полезных приложений. Но лично мне, как человеку, сфокусированному на сильном интеллекте уже лет 10, на эти приложения скорее пофиг.
Текущие крупные игроки вряд ли заинтересованы в создании "настоящего" AGI - он может уничтожить статус-кво и их самих. В этом я с ними солидарен - если у кого-то из этих больных мессианским комплексом реально появится суперинтеллект, мало не покажется никому. В свою очередь, это открывает возможность совершить этот прорыв кому угодно, кто знает, что и зачем он делает.
@knowledge_accumulator
👍3
К научным темам, пробую архитектуры неросетей решать нерешённые математические задачи последних двух веков - пока ничего не решают, что и логично. Прийдотся брать ручку и бумагу и решать самому.
К споритивным темам: бросил вызов Валерию Бабушкину, который считается самым сильным Дата Сайнтистом современности так как от груди жмёт 200 кг )
К споритивным темам: бросил вызов Валерию Бабушкину, который считается самым сильным Дата Сайнтистом современности так как от груди жмёт 200 кг )
😁3
Расскжу чего-то из своего математического прошлого: я был когда-то на школе Бруно Бухбергера - этот тот чувак, который изобрёл алгоритм для решения нелинейных алгебраических уравнений/базисы Грёбнера. Сто лет ещё не прошло. И я там должен был делать доклад. А передо мной всякие молодые ребята выступали из Германии, США, Франции и что-то там рассказывали про вычислителъную (не)коммутивную алгебру. И на всех этих докладал сидел Бруно Бухбегер и Жан Франуа Помарре. Великие математики. И все молодых ребят они разносли просто в пух и прах. Восновном Поммаре разнослил, я его я вообще боялся, так как я его за 10 лет до этого встретил на конференции в Греции и он мне сказал лично: ты козёл, что ты куришь. Ну и я слушаю доклады по алгебре, в конце каждого доклада Помаре просто разносит каждого докладчика и приходит моя очередь. меня он вообще разнесёт сто процентов так как я вообще не математик, а выступаю от информатики. Я делаю свой доклад и уверен, что Помаре меня разнесёт в пух и прах. Помаре говорит: ну наконец-то, один нормальный доклад на конференции, все остальные доклады от молодых отстой, а этот хотъ свои собственные мозги напряг, а не ошибки предков повторяет!
😁7👍1
Бруно Бухбергер:
https://en.wikipedia.org/wiki/Bruno_Buchberger
про него можно рассказать болъше, конечно )
https://en.wikipedia.org/wiki/Bruno_Buchberger
про него можно рассказать болъше, конечно )
Wikipedia
Bruno Buchberger
Austrian mathematician
Вы б, кстати, послушали лекцию Жана Фраунсау Помаре про дифференциальные операторы и главное видели бы на этой лекции меня. Я до сих пор не понимаю, я там единственный был, кто вообще ничего не понял, а остальные кто сидели были актёры, которые делали вид что понимают? Это реально было ржачно. Жаль этой лекции нет на видео, я там мог бы получитъ Оскара за возведения глаз к небу и просьбе простить меня и помиловать, что зря занимаю чьё-то место на этой лекции. Ладно, я бы успокоился, если бы все сидели так же понуро как я, но, блин, они задавали вопросы! Может быть не к месту, может быть глупые, но они задавали вопросы! А я даже вопроса задать не мог - я не понимал ничего в этой лекции. Сейчас, конечно, я понимаю, о чём речь на той лекции шла, но тогда я думал, блин, куда я попал, зачем я здесъ, шо за чейны операторов, какие пвсевдогруппы, ребята, вы о чём?? И главное лекция так хорошо начиналась - обыкновенные дифференциальные уравнения, маятник, всё по классике и потом за 15 минут тыгыдым в какуют-то гремчую теорию. ААА, я ещё обыкновенные дифференциалъные уравнения не освоил аналитически, ребята, вы куда??
Однако я пережил этот психологический стресс, так как на тот момент умел решать уравнения в частных производных численно довольно хорошо. Например, Навьер-Стокса с разными числами Рейнольдса и на разным геометриях и мне было понятно, что ладно, даже если я тут не понимаю пока, они тоже врядли умеют так же хорошо решать такие дифуры как Навье-Стокс в произвольных геометриях. И я даже схватил Помаре после лекции и загрузил его на эту тему, на что он мне сказал, что это не его работа, но скорее всего я прав, но он точно не знает и посоветовал бросать курить: мол, что тебя не вижу, говорит, в любой стране - всегда куришь в гостинице после завтрака ) шо у вас за мода, стоять и курить возле гостиницы, кто так делает! нормальные люди о математике думают, а не курят!
Однако я пережил этот психологический стресс, так как на тот момент умел решать уравнения в частных производных численно довольно хорошо. Например, Навьер-Стокса с разными числами Рейнольдса и на разным геометриях и мне было понятно, что ладно, даже если я тут не понимаю пока, они тоже врядли умеют так же хорошо решать такие дифуры как Навье-Стокс в произвольных геометриях. И я даже схватил Помаре после лекции и загрузил его на эту тему, на что он мне сказал, что это не его работа, но скорее всего я прав, но он точно не знает и посоветовал бросать курить: мол, что тебя не вижу, говорит, в любой стране - всегда куришь в гостинице после завтрака ) шо у вас за мода, стоять и курить возле гостиницы, кто так делает! нормальные люди о математике думают, а не курят!
❤5😁2
Повторю пару недавних постов, вдруг кто их не заметил в канале
Forwarded from Истории (не)успеха (ИИ)ЕИ (Dmytro)
2/2. Продолжение. Начало тут.
Но сначала вернёмся от Теренса Тао на почти 100 лет назад к работам Андрея Колмогоровa.
🌀 Контекст: турбулентность и энергетический каскад
Когда жидкость начинает двигаться слишком быстро или неравномерно, её движение становится турбулентным — это означает, что в ней появляются завихрения разных размеров, от больших до очень мелких.
Андрей Колмогоров в 1941 году предложил статистическую теорию турбулентности, которая не пытается предсказать каждое завихрение, а описывает их в среднем. Он задался вопросом: Как распределяется энергия в турбулентном потоке между завихрениями разных размеров, по шакале от метров до мили-, микро-,- и т.д. метров?
📐 Формула Колмогорова: 𝐸(𝑘) ∼ 𝑘⁻⁵⸍³
Здесь:
— 𝐸(𝑘) — энергетический спектр: сколько энергии содержится в завихрениях размера, соответствующего волновому числу k;
— 𝑘 — волновое число, обратно пропорциональное размеру вихря: чем больше k, тем мельче вихрь
— ∼ 𝑘⁻⁵⸍³ — энергия убывает с ростом k по степенному закону: чем мельче завихрение, тем меньше в нём энергии.
📉 Крупные вихри содержат больше энергии, и по мере распада потока на всё более мелкие — энергия «перетекает вниз». Это и есть энергетический каскад Колмогорова.
📌 Почему это важно?
Формула 𝐸(𝑘) ∼ 𝑘⁻⁵⸍³ — это золотой стандарт в турбулентности. Её подтверждали во множестве экспериментов: от потоков в трубах до атмосферных ветров.
📡 В спектре турбулентности вы реально видите "горку", убывающую как 𝑘⁻⁵⸍³, между зоной внешних сил (где поток "раскачивается") и зоной вязкости (где энергия гасится).
🤝 Колмогоров и Тао
Колмогоров предложил макроскопическую модель: что делает турбулентность в среднем. А Тао, десятилетия спустя, пытается понять:
🔍 Что сделал Тао:
1. Создал модифицированную модель Навье–Стокса
Тао предложил упрощённые версии уравнений — не настоящие Навье–Стокса, а их "игровые" аналоги. Он отключил некоторые физические ограничения, но сохранил важные структурные черты, чтобы изучить, возможен ли в принципе сценарий сингулярности.
2. Показал, что в этих уравнениях возможен blow-up
Он построил пример, где энергия жидкости стекается в одну точку всё быстрее и быстрее, пока не становится бесконечной за конечное время. Это — математическая модель сингулярности.
🧠 Главная идея:
📈 Его идея: представить сценарий, где вихри в жидкости ведут себя как программа, которая самовоспроизводится — каждый раз в меньшем масштабе и с большей скоростью. Такая каскадная структура ведёт к тому, что вся энергия стягивается в одну точку, ускоряясь бесконечно — как жидкостная версия компьютера, с встроенным механизмом “взрыва”.
🤖 Тао даже сравнивает это с Тьюринг-машиной из жидкости — машиной, которая вычисляет собственную эволюцию, ускоряясь и масштабируясь вниз, пока не обрушится в математическую бесконечность.
В своём интервью он наглядно объясняет, как с помощью конструкции типа машины Тьюринга он перепрограммирует уравнения Навье-Стокса не на рассеивание энергии через механизмы транспорта и вязкости на отдельные вихри, а пускает энергию вниз по масштабам через вихри большего размера к вихрям меньшего и ещё меньшего и т.д. размера. Очень интересный метод. Мне понра и захотелось даже заглянуть в его оригинальную статью 2016-го года. Надо отметить что подобные темы мы уже разбирали тут и тут.
#NavierStockes #MilleniumPrize #Kolomogorov #Tao #MathPhysics
@easy_about_complex
Но сначала вернёмся от Теренса Тао на почти 100 лет назад к работам Андрея Колмогоровa.
🌀 Контекст: турбулентность и энергетический каскад
Когда жидкость начинает двигаться слишком быстро или неравномерно, её движение становится турбулентным — это означает, что в ней появляются завихрения разных размеров, от больших до очень мелких.
Андрей Колмогоров в 1941 году предложил статистическую теорию турбулентности, которая не пытается предсказать каждое завихрение, а описывает их в среднем. Он задался вопросом: Как распределяется энергия в турбулентном потоке между завихрениями разных размеров, по шакале от метров до мили-, микро-,- и т.д. метров?
Как распределяется энергия в турбулентном потоке между завихрениями разных размеров?
📐 Формула Колмогорова: 𝐸(𝑘) ∼ 𝑘⁻⁵⸍³
Здесь:
— 𝐸(𝑘) — энергетический спектр: сколько энергии содержится в завихрениях размера, соответствующего волновому числу k;
— 𝑘 — волновое число, обратно пропорциональное размеру вихря: чем больше k, тем мельче вихрь
— ∼ 𝑘⁻⁵⸍³ — энергия убывает с ростом k по степенному закону: чем мельче завихрение, тем меньше в нём энергии.
📉 Крупные вихри содержат больше энергии, и по мере распада потока на всё более мелкие — энергия «перетекает вниз». Это и есть энергетический каскад Колмогорова.
📌 Почему это важно?
Формула 𝐸(𝑘) ∼ 𝑘⁻⁵⸍³ — это золотой стандарт в турбулентности. Её подтверждали во множестве экспериментов: от потоков в трубах до атмосферных ветров.
📡 В спектре турбулентности вы реально видите "горку", убывающую как 𝑘⁻⁵⸍³, между зоной внешних сил (где поток "раскачивается") и зоной вязкости (где энергия гасится).
🤝 Колмогоров и Тао
Колмогоров предложил макроскопическую модель: что делает турбулентность в среднем. А Тао, десятилетия спустя, пытается понять:
А возможно ли, чтобы вся энергия сконцентрировалась в одной точке — чтобы вместо каскада вниз случился взрыв вверх, сингулярность?
🔍 Что сделал Тао:
1. Создал модифицированную модель Навье–Стокса
Тао предложил упрощённые версии уравнений — не настоящие Навье–Стокса, а их "игровые" аналоги. Он отключил некоторые физические ограничения, но сохранил важные структурные черты, чтобы изучить, возможен ли в принципе сценарий сингулярности.
2. Показал, что в этих уравнениях возможен blow-up
Он построил пример, где энергия жидкости стекается в одну точку всё быстрее и быстрее, пока не становится бесконечной за конечное время. Это — математическая модель сингулярности.
🧠 Главная идея:
Если слегка ослабленные уравнения могут "взорваться", значит, в оригинальных уравнениях такие механизмы где-то на грани — и, возможно, их можно "выдавить" или, наоборот, доказать, что они невозможны.
📈 Его идея: представить сценарий, где вихри в жидкости ведут себя как программа, которая самовоспроизводится — каждый раз в меньшем масштабе и с большей скоростью. Такая каскадная структура ведёт к тому, что вся энергия стягивается в одну точку, ускоряясь бесконечно — как жидкостная версия компьютера, с встроенным механизмом “взрыва”.
🤖 Тао даже сравнивает это с Тьюринг-машиной из жидкости — машиной, которая вычисляет собственную эволюцию, ускоряясь и масштабируясь вниз, пока не обрушится в математическую бесконечность.
В своём интервью он наглядно объясняет, как с помощью конструкции типа машины Тьюринга он перепрограммирует уравнения Навье-Стокса не на рассеивание энергии через механизмы транспорта и вязкости на отдельные вихри, а пускает энергию вниз по масштабам через вихри большего размера к вихрям меньшего и ещё меньшего и т.д. размера. Очень интересный метод. Мне понра и захотелось даже заглянуть в его оригинальную статью 2016-го года. Надо отметить что подобные темы мы уже разбирали тут и тут.
#NavierStockes #MilleniumPrize #Kolomogorov #Tao #MathPhysics
@easy_about_complex
Telegram
Истории (не)успеха (ИИ)ЕИ
1/2
🧠💥 Математика, которая может взорваться — загадка уравнений Навье–Стокса
Это одна из тем, про которые говорил Теренс Тао в своём интервью в субботу.
Представьте: вы плеснули водой — она закружилась, вспенилась, но в конце концов всё улеглось. А теперь…
🧠💥 Математика, которая может взорваться — загадка уравнений Навье–Стокса
Это одна из тем, про которые говорил Теренс Тао в своём интервью в субботу.
Представьте: вы плеснули водой — она закружилась, вспенилась, но в конце концов всё улеглось. А теперь…
👍2
Кстати, предлагаю всем посмотреть наконец-то переведённое с помошью ИИ на русский язык последнее интервью с Теренсом Тао:
https://www.youtube.com/watch?v=HUkBz-cdB-k
https://www.youtube.com/watch?v=HUkBz-cdB-k
YouTube
Terence Tao: Hardest Problems in Mathematics, Physics & the Future of AI | Lex Fridman Podcast #472
Terence Tao is widely considered to be one of the greatest mathematicians in history. He won the Fields Medal and the Breakthrough Prize in Mathematics, and has contributed to a wide range of fields from fluid dynamics with Navier-Stokes equations to mathematical…
Как бы это всё оцифровизовать и причём здесь физика:
https://www.youtube.com/shorts/1_Cx62LNgBk?feature=share
https://www.youtube.com/shorts/1_Cx62LNgBk?feature=share
YouTube
Почему у Животных нет Интеллекта? #биология #наука #эволюция | Соломин
Почему у Животных нет Интеллекта? #биология #наука #эволюция@glebsolomin