Истории (не)успеха (ИИ)ЕИ
416 subscribers
160 photos
89 videos
2 files
232 links
Просто о математике, нейросетях, программировании, спорте, политике, культуре. Общение, контакты, международные онлайн дискуссии/лекции в формате лайвстрим, встречи на спорт в Мюнхене.
Download Telegram
Media is too big
VIEW IN TELEGRAM
💬 Старт свободной дискуссии в стриме от 23.07 с Михаилом Коробко!

Обсуждаем всё: от космологических вопросов через призму современной физики и математики — до вечных споров о том, кто круче, физики или математики 😏 Недопонимания, шутки, инсайты… и, конечно, главная тема — топологическая структура Вселенной 🌌

Это только начало! Продолжение дискуссии от 23.07 скоро будет онлайн — не пропустите.
Пишите в комментариях, что думаете о поднятых темах — будет интересно почитать ваши версии и аргументы!

@homeostatic_universe @hidden_heuristic @o_fundamentalnom @easy_about_complex
2👍2🔥2
Нейросети и вычисления в подргуппах группы перестановок 𝑛 элементов.

Речь идёт не только о головоломках вроде кубика Рубика или пирамидок/октаэдров/гексаэдров (картинкa👆), но и о матричных группах, которые встречаются, например, в квантовой физике. Их объединяет одно: даже при сравнительно небольшом числе элементов количество возможных комбинаций (порядок группы) вырастает до астрономических величин.

Когда я взял первую вращательную головоломку для машинного анализа, начал с самого простого — записал перестановки, которые создаёт каждое отдельное движение. Сделать это в уме, мягко говоря, сложно (картинкa👆), поэтому я написал интерактивную визуализацию пазла в Kaggle. Да, юзер интерфейсы там делать неудобно, но в уме ещё сложнее! Если немного привыкнуть, то работать вполне комфортно. Так я смог построить и проверить генераторы группы перестановок: какие элементы меняются местами, как они перемещаются по циклам.

🔗 Ссылка на ноутбук в Kaggle — можно апвотить, не обижусь 😁

Дальше самое интересное.
👇👇👇
👍3
Продолжение, начало тут 👆

Теперь начинается самое интересное.

«Алфавит» этой группы — 12 вращений (пo по две вокруг каждой из 6-ти вершин октаэдра — по часовой стрелке и против). Вращения могут переставлять 48 элементов восьми цветов. Всего у пазла 2 009 078 326 886 400 возможных состояний (примерно 2×10^15, около двух квадриллионов).

Если представить все состояния как вершины в графе Кэли, то таких вершин будет столько же — 2 009 078 326 886 400, и из каждой выходит 12 рёбер — по одному на каждое вращение. Найти кратчайший путь от случайно перемешанного состояния к собранному при таком масштабе стандартными алгоритмами практически невозможно, даже на суперкомпьютере.

Поэтому следующий шаг — обучить нейросеть «языку» движений и перестановок именно для этой головоломки. Посмотрим, что получится. Эксперимент продолжается 🙂 Пока не уверен, какую архитектуру выбрать — есть идеи и интуиция, но это надо проверять. Цель на первом этапе — научить нейросеть ориентироваться в огромных пространствах состояний, где при этом есть довольно регулярная структура.

P.S. Напоминаю, что к этому проекту можно присоединиться:
🔗 https://t.iss.one/sberlogabig/581

Ссылки на уже опубликованные работы:
📄 https://arxiv.org/abs/2502.18663
📄 https://arxiv.org/abs/2502.13266

#Algorithms #Complexity #Algebra #GroupTheory #CayleyGraphs #ML #ChristophersJewelPuzzle #Puzzles
👍51
This media is not supported in your browser
VIEW IN TELEGRAM
Друзья, давно не писал здесь — был сильно загружен основной работой.

Но уже совсем скоро мы снова вернёмся к супер-интересным физмат темам и, конечно же, к лайв-стримам с переднего края науки! 🚀
👍6
Эй вы, задние, делай как я! Это значит — не надо за мной. Колея эта — только моя, выбирайтесь своей колеёй! (c) В.С.В.

Очень интересный стрим по современной математике и математическим проблемам тысячелетия от друга нашего канала Димы — смотрю сейчас с большим интересом. 🔥

О проблемах тысячелетия изнутри - какими путями такие проблемы решаются.

Кому хочется серьёзной математики, очень рекомендую к просмотру. Если что-то будет непонятно — не расстраивайтесь, мне тоже далеко не всё в этом стриме было понятно 🙂 Но атмосфера и идеи таких исследований переданы здорово и посмотреть до конца очень рекомендую! 🔥🔥🔥

👉 https://www.youtube.com/live/hXGun1Kl0YQ
🔥2👍1
В честь 31-го августа, последнего дня лета )
Forwarded from Knowledge Accumulator
С днём AGI-осени?

Люди думали о создании "искусственного интеллекта" с незапамятных времён - не то, что на заре компьютеров, а когда их ещё не было. Думаю, все мы знаем про тест Тьюринга - он был предложен аж в 1950 году! Та самая статья Тьюринга довольно интересно читается сегодня, поскольку мы знаем про AI гораздо больше.

Попытки двигаться в сторону "AGI" не заставили себя ждать. Я уже когда-то писал про программу со скромным названием General Problem Solver из 1957-го. Да в ту эру был даже свой ChatGPT - ELIZA (1966). Рано смеётесь - она обгоняла GPT-3.5 в тесте Тьюринга.

Уже тогда говорили - "Через 3-6 месяцев ELIZA будет писать 90% кода". К сожалению, людишки переоценили свои силы, и в 70-х этот обсёр стал очевиден. Амбиции поубавились и про AGI уже как-то стало стыдно говорить.

В 2012-м свёрточные нейросети ворвались в игру и началась эпоха Deep Learning. Довольно быстро его применили в зрении и других областях, в том числе и в обучении с подкреплением. Статья Playing Atari with Deep Reinforcement Learning [2013] знатно хайпанула - надо же, алгоритм самостоятельно учится играть в игру. Потом Deepmind выпустили AlphaGo [2015].

В тот момент я только начинал изучать ML. Отчётливо помню, что в больших ML-сообществах тема AGI считалась кринжом - серьёзные люди тогда жаловали только серьёзные ML-приложения. Я был среди меньшинства, которое ожидало дальнейших побед RL.

Пик пришёлся на 2018-2019-й - Deepmind AlphaStar и OpenAI Five жёстко хайпанули, продемонстрировав топовый уровень игры в Starcraft 2 и Dota 2. Но это была Пиррова победа. Читая внимательно статьи, становится понятно - всё это работает с горем пополам. Не получается так, как в Go - поставил модельку играть саму с собой и пошёл пить чай - всё это уже не скейлится на такие задачи, и нужно городить кучу костылей и ограничений.

И вот в начале 2020-х AGI снова вошёл в мейнстрим, причём не благодаря решению крутой задачи, а благодаря новой форме подачи - из андэграунда вырвались NLP-ресёрчеры, которые релизнули старую как мир идею - чат-бота, но на основе Deep Learning. Увидев такое, уязвимый человеческий рассудок не устоял перед харизмой статистического попугая. На пару лет те, кто не верили в достижение AGI на основе чат-бота, стали считаться тупыми скептиками.

Прошло пару лет, миллиарды долларов были распилены, чат-бот прокачали, но AGI как-то не особо приблизился. И тут текущие игроки достали козырь из рукава. Оказывается, AGI это в принципе отстойный термин. Теперь вместо того, чтобы идти к как бы "непонятному" интеллекту, AI-компании меняют направление.

И я очень этому рад! Нас ждёт расцвет реально полезных AI-приложений. xAI релизнули общение с раздевающейся аниме-тёлочкой. Superintelligence Lab Цукерберга даёт возможность пообщаться с Russian Girl или Step Mom, ждём релиза AlphaSex от Google Deepmind. Не сомневаюсь, что в скором времени у нас в домах будут Тесла Оптимусы, выглядящие как Ani, и помимо всего прочего ещё и собирающие грязные носки по дому. Женщина, которую мы все хотели.

На основе текущих технологий было и будет построено много полезных приложений. Но лично мне, как человеку, сфокусированному на сильном интеллекте уже лет 10, на эти приложения скорее пофиг.

Текущие крупные игроки вряд ли заинтересованы в создании "настоящего" AGI - он может уничтожить статус-кво и их самих. В этом я с ними солидарен - если у кого-то из этих больных мессианским комплексом реально появится суперинтеллект, мало не покажется никому. В свою очередь, это открывает возможность совершить этот прорыв кому угодно, кто знает, что и зачем он делает.

@knowledge_accumulator
👍3