Истории (не)успеха (ИИ)ЕИ
419 subscribers
158 photos
87 videos
2 files
227 links
Просто о математике, нейросетях, программировании, спорте, политике, культуре. Общение, контакты, международные онлайн дискуссии/лекции в формате лайвстрим, встречи на спорт в Мюнхене.
Download Telegram
А как вы проводите пасхальные праздники?

Пользуясь тем, что у нас аж целых четыре выходных, решил не терять время зря и начал проходить курс по интерпретируемости трансформеров:
👉 https://arena-chapter1-transformer-interp.streamlit.app/

Если вы, как и я, ещё не слишком глубоко погружались в тему трансформеров и больших языковых моделей — очень советую. Курс стартует прям с самых основ, так что подойдёт даже тем, кто про трансформеры только слышал.

Формат удобный: всё разбито на колаб-ноутбуки с понятными объяснениями, примерами кода и задачками для закрепления. Проходится легко, но при этом реально помогает лучше понять, что там вообще происходит под капотом у этих моделей.

🚀 Если давно хотели «разобраться в трансформерах», но не знали с чего начать — это прям отличный вариант. Курс с нуля - даже не нужно знать про трансформеры, надо лишь немного уметь шкодить! 🔥

#Interpretability #Course #DevInterp #MechInterp
👍3
Давно хотел написать про логику, теорему Гёделя, невычислимость... и даже уже начал тут и тут.

Но сегодня решил рассказать о одном любопытном логическом парадоксе, который когда-то сильно наделал шума среди логиков и философов. 🤔

Представьте: человек приговорён к казни. Судья выносит приговор: «Ваша казнь состоится в один из дней на следующей неделе, но до этого дня вы не будете знать, что вас казнят именно в этот день». На первый взгляд, всё ясно: вас казнят в какой-то из дней от понедельника до воскресенья, но когда именно — неизвестно. ⚖️

Но его адвокат вдруг начинает радоваться, потирая руки, и говорит: «Не переживайте, вас не могут казнить! Ведь судья сказал, что казнь будет, но вы не будете знать о ней заранее. Это значит, что казни не может быть в воскресенье, потому что тогда вы бы точно знали об этом в субботу. А раз воскресенье исключено, значит, и суббота тоже отпадает!
Продолжение. Начало тут.

Ведь если бы казнь была в субботу, вы бы уже знали об этом в пятницу! Дальше! Пятница? Нет, если бы казнь была в пятницу, вы бы уже знали об этом в четверг!»

Адвокат продолжает, выстраивая логику, день за днём, исключая каждый возможный день недели. «Понедельник? Тоже нет. Если бы казнь была в понедельник, то вы бы узнали об этом в воскресенье!» 😅

Но вот вопрос: что же не так в этой логике? 🤨

Парадокс не в том, что адвокат ошибается, а в том, что само условие казни и способ её определения создают замкнутую, противоречивую ситуацию. И в какой-то момент вы вдруг понимаете, что казнь всё-таки может состояться — и произойдёт в любой день, когда заключённый не будет об этом знать заранее. 😱

Продолжение и связь с пределами вычислимости, теоремой Гёделя следует

#Logic #Decidability #Computability #Philosophy

@easy_about_complex
Ну и я был бы не я, если бы не сказал пару слов о прощальном бое Сергея Ковалева, который прошёл позавчера в Челябинске.

По бою — говорить особо нечего. Победа есть, но это уже не тот «Крушитель», каким он был в лучшие годы. Всё по делу — прощальный выход, для своих, на родной земле.

Но нельзя забывать, Ковалёв — это человек, который в своё время реально перевернул профи-бокс в США. Парень из Копейска стал неоспоримым чемпионом мира в полутяжах, прошёл всех сильнейших и на какое-то время стал лицом дивизиона.

И не только кулаками — языком тоже. Сергей первым из русских боксёров по-настоящему врубился в трэш-ток. Он не просто дрался, он троллил, выводил из равновесия, морально разносил. Чего только один Адонис Стивенсон стоил — сколько он от Ковалева натерпелся ещё до того, как они вообще встретились, смотрите сами - https://www.youtube.com/watch?v=ATStn4kQQNM
🔬 Нобелевский лауреат Джефри Хинтон (тот самый крёстный отец ИИ) видимо, посмотрел наш прошлый лайв-стрим и решил не отставать — читает лекцию на ту же тему, что мы разбирали на прошлом стриме: "Биологические и цифровые нейросети".

🎓 Лекцию можно будет посмотреть онлайн 30.05: 👉 https://www.rigb.org/whats-on/discourse-digital-intelligence-vs-biological-intelligence

Не благодарите 😄

#AI #Hinton #Brain #DeepLearning #LiveStream
🔥1
1/2

И снова про (не)вычислимость.

Ранее обсуждали тут и тут: может ли мозг быть сверхтьюринговым вычислителем?

А теперь — обратная сторона: а что с самой физикой? Она — вычислима вообще?

Интуитивно кажется, что если всё подчиняется уравнениям, то всё можно и посчитать. Но...

Существует куча математических задач, которые в принципе неразрешимы — т.е. никакой алгоритм не сможет ответить на них корректно для всех случаев. Таких задач намного больше, чем разрешимых. Но вот интересный момент: в физике я пока не нашёл убедительных примеров, где бы эта невычислимость проявлялась естественно.

🔹 Есть исключения, но они всегда искусственные:
Волновые уравнения с экзотическими граничными условиями, которые никто никогда не создаст.
Конструкции из идеальных зеркал, где луч света должен вести себя как Тьюринговая машина — но механически это нереализуемо.
Квантовые решётки со специально подобранными Гамильтонианами, которые кодируют проблему остановки.

Продолжение тут 👇
👍21
2/2. Продолжение. Начало тут


🧠 А что насчёт мозга и нейросетей?
Тут как раз интересно. В 90-х Сигельманн с коллегами показали, что:

Любая Тьюринговая машина — это частный случай рекуррентной нейросети.

Сеть с рациональными весами (всего 886 нейронов!) может вычислить все частично-рекурсивные функции 👉 ссылки на публикации тут

А если веса вещественные — вычислительная мощность может выйти за пределы Тьюринга (и при этом в модели не требуется бесконечная точность, достаточно линейной. Hо тут есть нюанс! Mожет быть обсудим на одном из следующих стримов).

📐 Ключевая идея:
непрерывность (вещественные числа и аналоговые процессы) может не просто приближать реальность, а давать качественно новые вычислительные возможности. Хотя на практике мы не можем задать числа с бесконечной точностью, сама природа, как кажется, оперирует реальными значениями (π, G, массы планет и т.д.) независимо от нашей способности их измерить.


📊 Исследования даже показали, что между рациональными и вещественными весами в нейросетях лежит целая иерархия вычислительных классов. Суть в информационной сложности чисел, которая измеряется через ресурсно-ограниченную колмогоровскую сложность.

📌 Вывод: Мы не знаем, вычислима ли физика. Возможно, вся Вселенная — гигантский алгоритм. А может, где-то в её глубинах живёт настоящая невычислимость, просто мы её ещё не нашли.

Так что, по состоянию на сейчас:
Физический мир может быть вполне вычислим. А может и нет. ¯\_(ツ)_/¯

Если найдут настоящий физический феномен, где вычисление результата принципиально невозможно — это будет просто бомба. А пока… можно только моделировать невычислимость внутри математики, но не в лаборатории.

#Decidability #Computability #Turing #Physics #Brain #Philosophy
👍2
1/2

Как доказывается невычислимость в физике?

Важно понимать: мы никогда не доказываем, что сама природа невычислима. Мы доказываем, что математическая модель, которая её описывает, может вести себя как Тьюринг-машина. Всё.

📌 Как это делается?

– Берётся дифференциальное уравнение (оно может быть вполне классическим — типа волнового или гамильтонова).
– В правую часть уравнения аккуратно вписывается "логика", как в программе.
– Подбираются крайне искусственные граничные или начальные условия — часто совсем не физические.
– В результате получается: система ведёт себя в точности как Тьюринг-машина.
– Следовательно, задаваясь вопросами о будущем её состояния, ты фактически решаешь проблему остановки — а она неразрешима.

То есть, строго говоря, мы не обнаруживаем невычислимость в природе — мы встраиваем её в модель.

📌 Пример: классическая работа Кристофера Мура (1990), "Unpredictability and Undecidability in Dynamical Systems", опубликована в Physical Review Letters.

Продолжение
тут 👇
продолжение. начало тут.

Что показал Кристофер Мур:
— Система с тремя степенями свободы (например, частица в 3D-потенциале) может эмулировать Тьюринг-машину.
— Даже если начальные условия известны точно, всё равно невозможно ответить на многие вопросы о будущем поведения системы.
— Это не просто хаос (чувствительность к начальным данным), а глубинная невычислимость — фундаментальное ограничение, заложенное в математике.

🤯 Другими словами: можно построить закон движения, в котором "спрятана" неразрешимая задача, т.е. проблема остановки.

Формально — это уже физика, но физика, искусственно усложнённая до машины Тьюринга.

🌀 Теперь главный философский вопрос:

А если физика и вычислима, но вычисления займут больше времени, чем возраст Вселенной?


С практической точки зрения — это почти то же самое, что невозможность вообще. Модель может быть "вычислимой", но если тебе надо 10⁸⁰ шагов, чтобы узнать будет ли частица тут или там — на что тебе это знание?

То есть граница вычислимости — это не только "можно/нельзя", но и "успеть/не успеть".

📎 Вывод:

Физическая невычислимость пока строго доказана только в моделях, соответствие которых с физической реальностью очень спорно. Но даже если всё в природе формально вычислимо, это не значит, что мы когда-либо узнаем её будущее.

Возможно, законы Вселенной написаны на языке, который мы теоретически понимаем — но читать на нём практически невозможно.

#Decidability #Computability #Turing #Physics #Brain #Philosophy
This media is not supported in your browser
VIEW IN TELEGRAM
Используете ли вы математику в повседневной жизни?

Ну, кто-то считает сдачу в магазине, а Роджер Пенроуз — определяет гомотопический класс своей прогулки.

Да-да, сэр Роджер не просто гуляет, а делает это топологически разнообразно.

Если на пути дерево — он каждый раз обходит его с другой стороны, чтобы маршрут был математически уникальным.

Вот такой вот спонтанный GPS для физиков-теоретиков: "Поверните направо, чтобы не повториться в топологическом пространстве".

К сожалению, после десятого дерева даже гению сложно вспомнить, с какой стороны он обходил эти деревья, ибо 2¹⁰ = 1024 путей...

#Complexity
😁5
1/2

Свежая теория сознания от
Карла Фристона и коллег 🧠

Недавняя статья "Прекрасная петля: Теория сознания через активное предсказание" Карла Фристона и его коллег о теории сознания раскрывает подход, который они называют «Прекрасной петлёй».

Вкратце: чтобы сознание появилось, компьютер должен не просто циферки молотить, а как настоящий Шерлок Холмс – строить догадки и проверять их! 🕵️‍♂️🤖

Идея такова: компьютер или биологическая система, чтобы стать сознательной, должны не просто взаимодействовать с миром, а строить модель этого мира, потом моделировать себя в этом мире и, наконец, сомневаться в точности своих моделей. Этот процесс самоосознания становится глубже с каждым циклом, и чем больше он сомневается в точности своих прогнозов, тем ближе к сознанию. 🤔
👍2
2/2

Это по сути байесовский подход, при котором система строит вероятностные прогнозы о мире и обновляет их по мере получения новых данных. Мозг, возможно, работает точно так же — как супернавороченный байесовский вычислитель, постоянно пытающийся угадать, что происходит вокруг и внутри нас. Каждый новый опыт помогает ему уточнять свои прогнозы, а несоответствие между прогнозом и реальностью воспринимается как сигнал для корректировки модели. 🔄

Получается, то, что мы называем сознанием — процесс бесконечного самокорректирования и уточнения того, что мы знаем о себе и мире? 🌍 🧠

#Consciousness #BayesianOptimization
👍4
This media is not supported in your browser
VIEW IN TELEGRAM
Бытует мнение (смеркалось), что это лучшая мотивационная речь в истории.

#НастроениеПятницы #ЧерныйЮмор
😁3
Истории (не)успеха (ИИ)ЕИ pinned «🔬 Нобелевский лауреат Джефри Хинтон (тот самый крёстный отец ИИ) видимо, посмотрел наш прошлый лайв-стрим и решил не отставать — читает лекцию на ту же тему, что мы разбирали на прошлом стриме: "Биологические и цифровые нейросети". 🎓 Лекцию можно будет посмотреть…»
🔥 Следующий лайв-стрим — через две недели, в воскресенье 11.05.2025! Не пропустите!

На этот раз предварительно планируем разобрать темы:

1️⃣ Математика и ИИ — введение в теорию вычислимости и сложности вычислений + обзор результатов о вычислительной мощности искусственных нейронных сетей (см. тут и тут).

2️⃣ Математика и биология — введение в нейронауку и обсуждение книги Peter Dayan "Theoretical Neuroscience".

3️⃣ Философия - oткрытая дискуссия и дебаты.

🚀 Более подробный/окончательный анонс скоро появится здесь и в канале Hidden_heuristic!

Оставайтесь на связи и готовьте вопросы!

#LiveStream
🔥2
Вежливость — новая роскошь 🤔

Сэм Альтман недавно жаловался: «спасибо» и «пожалуйста» в запросах к ChatGPT — это десятки миллионов долларов расходов. 💸

На Hugging Face появился ChatUI-energy — чат, который не только отвечает, но и показывает, сколько электричества вы спалили на очередную глупость в запросе (на примере модели Qwen2.5-VL-7B-Instruct). 🔥

Например, доказать теорему Пифагора стоит чуть больше 1 Вт/ч. 👆


Это вообще сколько?

🔋 ~5,5% батареи среднестатистического современного смартфона
🔋 ~50 секунд работы ноутбука
🔋 ~4 секунды работы чайника

И это только один запрос. А теперь представьте миллиард таких «доказательств».

Другое дело, что в алгоритмах для языковых моделей (и трансформеров в частности) всё ещё полно неэффективности — и огромное поле для оптимизации. Работы здесь — непочатый край. 🚀

#AI #Energy #Economics #Physics
😁3🤔2
1/1

🧠 Сложность нейросетей: что это вообще значит?

Сегодня я хотел поговорить о вычислительной сложности нейросетей, но поймал себя на мысли:

стоп, а что вообще такое сложность?


Сложность по Шеннону? Колмогоровская сложность? Комбинаторная/асимптотическая сложность (по Тьюрингу)? Cложность собрать себя в понедельник утром на работу? 🤔

Решил разобраться с базовыми определениями, чтобы не получить ошибку вроде NullConceptException: понятие не определено.

📉 Энтропия по Шеннону — это мера неопределенности, когда не знаешь, что произойдёт.

Например, честная монета: → два равновероятных исхода — орел или решка → энтропия = 1 бит

Если монета всегда выпадает «орлом», энтропия будет 0 бит — никакой неожиданности.

📦 Колмогоровская сложность — это когда строку нельзя объяснить проще, чем просто запомнить.
Пример: 0101010101010101 — легко объяснить как «повтори 01 восемь раз», то есть низкая сложность.
0110101100101110 — тут уже нет очевидной схемы, сложность высокая.
👍4
2/2. продолжение. начало тут.

🧮
Сложность по Тьюрингу (асимптотическая/комбинаторная сложность)
Не будем забывать и об этом виде сложности, которая определяется в терминах машины Тьюринга. В этом контексте мы говорим о вычислительной сложности задачи, то есть о том, сколько ресурсов (время, память) нужно для решения задачи с помощью алгоритма.

Пример:

🎯 Число π — кажется, что оно абсолютно хаотичное: 3.1415926535… Цифры «равномерно раскиданы» (хотя это не доказано).
Энтропия — высокая, потому что предсказать, какие цифры пойдут дальше, сложно. Но! Это не случайность.
π можно сгенерировать по формуле, и мы знаем, как извлечь нужные цифры. Тут энтропия высокая, а Колмогоровская сложность низкая.

💡 Вывод:

📉 Энтропия — когда не знаешь, что дальше.
📦 Колмогоровская сложность — когда даже зная, не можешь объяснить проще.
🧮Тьюринг - а хватит ли нам ресурсов вселенной, шобы вообще вычислить?


📌 В следующий раз поговорим о том, как нейросети справляются с разными задачами и как они используют концепции сложности!

#LLM #Transformer #Complexity

@easy_about_complex
👍4