Mathematical Models of the Real World
756 subscribers
296 photos
3 videos
19 files
809 links
Channel of Professor Andrey Uskov @ProfUskov about mathematical models (Israel).
It is a mirror of the Facebook group https://www.facebook.com/groups/mathmodels
Download Telegram
Мы не понимаем почему большие языковые модели такие умные!

Сначала модели опираются на положение слов в предложении.
По мере накопления данных происходит скачкообразное переключение — сеть начинает понимать смысл слов, игнорируя их порядок.
Это поведение напоминает фазовый переход в физике: как вода превращается в пар - количество переходит в качество.
Такой переход — своего рода «момент озарения», когда сеть отказывается от «зубрёжки» и начинает осмыслять язык.

И хотя архитектура моделей вроде трансформеров хорошо изучена, ключевые моменты — как из статистики и механики вдруг выныривает смысл — всё ещё остаются загадкой.

🔍 Этот «момент озарения» показывает: ИИ в какой-то момент отказывается от простой логики (положение слов) и начинает использовать семантику (значение слов). Это напоминает ситуацию, когда человек вдруг понимает, а не просто повторяет.

Такое поведение сложно предсказать: нейросети обучаются миллиардами параметров, и их коллективное поведение оказывается больше, чем сумма частей. Поэтому учёные теперь всё чаще обращаются к методам физики, биологии и теории сложных систем, чтобы хоть как-то объяснить этот феномен.

Краткий пересказ и перевод аннотации:

Учёные провели теоретический анализ того, как в нейросетях возникает семантическое внимание — способность модели понимать смысл слов, а не просто их порядок.

📌 Основные идеи:
На ранних этапах обучения языковые модели используют позиционное внимание — ориентируются на расположение слов.

При накоплении большого объёма данных происходит резкий переход к семантическому вниманию — модель начинает учитывать значение слов.

Этот переход напоминает фазовый переход в физике: как вода внезапно превращается в пар.

Авторы изучили нелинейный слой внимания с обучаемыми матрицами запросов и ключей, и вывели точную формулу для глобального минимума функции потерь.

Показано, что семантический механизм работает лучше, чем линейный позиционный, если данных достаточно.

📎 Исследование помогает понять, почему большие языковые модели вдруг начинают "понимать", и как это связано с количеством обучающих примеров.

https://iopscience.iop.org/article/10.1088/1742-5468/ade137
👍51
Интересное исследование, которое показывает что использование больших языковых моделей в данный момент может не уменьшать, а увеличивать время разработки программного обеспечения

«Удивительно, но мы обнаружили, что использование ИИ фактически увеличивает время выполнения на 19% — разработчики работают медленнее, когда используют инструменты ИИ»

Мне кажется дело в том, что тестирование проводилось на инструментах, языках и задачах, которые разработчики хорошо знают и их навыки доведены до автоматизма...
Это как хороший водитель может водить лучше автопилота, но автопилот водит лучше, чем средний водитель, а если нужно вести машину сутки непрерывно, тогда вообще результат сравнения очевиден.

https://techcrunch.com/2025/07/11/ai-coding-tools-may-not-speed-up-every-developer-study-shows/?utm_source=ixbtcom

https://arxiv.org/abs/2507.09089
👍21
Возможная жизнь на Марсе — и случайное её уничтожение

Около 50 лет назад миссия NASA "Викинг" провела биологические эксперименты с марсианским грунтом, чтобы найти признаки жизни. Один из тестов дал обнадеживающие результаты — почва испустила радиоактивный газ, что могло свидетельствовать о метаболизме микробов. Однако повторные тесты не подтвердили выводы, и учёные списали это на химическое вещество перхлорат.
👨‍🔬 Профессор Дирк Шульце-Макуч предполагает, что эксперименты могли уничтожить марсианских микробов, добавив в почву воду. Он сравнивает это с ситуацией, когда инопланетяне бросают человека в океан, думая, что ему нужна вода. Условия на Марсе настолько экстремальны, что местные формы жизни могли быть очень чувствительными к лишней влаге.
🧪 Дополнительно Шульце-Макуч выдвинул теорию, что марсианские организмы могли использовать перекись водорода, как адаптацию к холодному и сухому климату планеты. При нагревании образцов этот компонент мог бы убить микробов и вызвать выброс углекислого газа — как раз то, что зафиксировали приборы.
⚠️ Если эта гипотеза верна, то человечество — пусть и случайно — нашло жизнь на Марсе и сразу её уничтожило, как неуклюжие антагонисты из научной фантастики.


https://www.iflscience.com/nasas-viking-project-may-have-found-life-on-mars-50-years-ago-then-accidentally-killed-it-80150
👍2🔥1
Человеческий организм с точки зрения теории надежности

Авторы провели масштабный анализ более 12 700 белков из 516 образцов тканей и плазмы, охватывающий 13 органов и возрастной диапазон от 14 до 68 лет. Это позволило выявить уникальные биологические часы для каждого органа и механизмы, лежащие в основе возрастных изменений, включая накопление амилоидов и воспалительных белков.

Исследователи обнаружили, что наиболее резкие изменения произошли в возрасте от 45 до 55 лет. Именно на этом этапе многие ткани подвергаются существенному протеомному ремоделированию, причем наиболее заметные изменения происходят в аорте, демонстрируя сильную восприимчивость к старению. Поджелудочная железа и селезенка также показали устойчивые изменения.

https://www.cell.com/cell/abstract/S0092-8674(25)00749-4?
https://www.sciencealert.com/study-reveals-turning-point-when-your-bodys-aging-accelerates
👍32
Большие языковые модели... этап переоценки...

После появления больших языковых моделей многие компании поспешили начать сокращение персонала, заменив существенную часть людей клинской службы на чат-боты...
Год спустя многие стали возвращать людей на рабочие места и фиксировать убытки...

Что получилось?
Чат-боты плохо общаются с неподготовленными пользователями, которые невнятно формулируют свои желания, неспособность решить проблему раздражает пользователей, которые требуют соединить их с оператором человеком.
Поддержка специализированных чат-ботов клиентской службы оказалась не такой простой и дешевой задачей, как казалось в начале.

В принципе пока имеем то, что давно предсказывалось: большие языковые модели - это прежде всего помощник, справочная система, советник, исполнитель рутинных задач, но поручать им самостоятельное принятие решений - очень опрометчиво. Для успеха с AI должен общаться подготовленный пользователь, который умеет формулировать промпты, понимает что можно поручить интеллектуальному помощнику, а что нет, способен верифицировать полученный результат и т.д.

https://habr.com/ru/companies/first/articles/931994/
2🤔2
Самый корректный двухщелевой эксперимент... Свет, это волна или частица?

При помощи суперсовременного оборудования физики из Массачусетского технологического института (MIT) подняли планку классического двухщелевого опыта, проведя его буквально на квантовом уровне. В результате им удалось разрешить практически вековой спор Альберта Эйнштейна и Нильса Бора о природе света, показав ошибочность суждений Эйнштейна в данном конкретном случае.

В случае с корпускулярной природой света предполагается, что наблюдатель увидит пару световых пятен, однако в реальности видны полосы, характерные для интерференции волн. Было также установлено, что свет поглощается на экране в отдельных точках, а усовершенствованный эксперимент с фотонными детекторами дополнительно показывает, что каждый обнаруженный фотон проходит только через одну щель - то есть ведет себя как частица, а не волна.
В то же время эту двойственность оказалось невозможно наблюдать одновременно: стоит попытаться определить, через какую именно щель прошел свет, как интерференционная картина исчезает.

https://journals.aps.org/prl/abstract/10.1103/zwhd-1k2t
На русском https://habr.com/ru/news/932332/
👍3🤔2
Про бизнес, основанный на статистике...
Еще перед войной в России я как-то страховал недвижимость... если читать условия страховки в крупных страховых компаниях, то что написано мелким шрифтом, то почти везде указывалось, что теракты, война, бунт, восстание, революция, землетрясения, техногенные и природные катастрофы и т.д. - это не страховой случай, а форс-мажор. Видимо, страховщики не хотят лезть туда, где они не имеют статистики и не могут оценить риски...
Статистику ДТП или заливов соседей жильцами сверху они отлично знают, а вот связываться с тем, что может сразу разорить корпорацию, им совсем не хочется, они же бизнесмены, а не в рулетку играют.
🤔3
Мир пост правды... Самые неточные (лживые) боты на основе большие языковые модели оказались наиболее успешными в изменении общественного мнения...

Учёные решили проверить, как искусственный интеллект (ИИ) может влиять на политические взгляды людей. То есть — насколько ИИ может убедить человека изменить своё мнение по темам вроде выборов, законов, общественных проблем.
🔧 Что они сделали?
Взяли много разных ИИ-моделей (аж 19 штук) и протестировали их на десятках тысяч людей.
Эти модели обсуждали более 700 политических тем — от охраны окружающей среды до миграции.
Потом проверили, насколько ИИ был убедителен и правдив в своих доводах.
💥 Что выяснилось?
Самые убедительные ИИ — это не просто «умные» или «большие», а те, которые:
были специально обучены для убеждения
имели грамотно написанные подсказки (вопросы/тексты, с которых начинается диалог)
Такие ИИ могут повлиять на мнение человека почти в два раза сильнее, чем обычные.
Но есть минус: чем больше убеждают — тем чаще ошибаются с фактами.
⚖️ Почему это важно?
Это показывает, что ИИ уже может влиять на политические решения людей.
И это вызывает этические вопросы: допустимо ли усиливать влияние ИИ, если он иногда даёт неточную информацию?
https://arxiv.org/html/2507.13919v1
👍4
Часто читаю, что большие языковые модели скоро станут очень умными, вот настолько умными что будут все делать лучше людей...

В связи с этим посетила такая мысль... Любое изобретение пройдя стадию усовершенствований достигает своего потолка... Если вы посмотрите на ноутбук 5-10 лет назад и сейчас, то не сильно увидеть разницу... Если посмотрите на автомобиль после того как появился инжектор, микропроцессорное управление двигателем и его ряд вещей т.е. это начало 90-х годов и сравните с автомобилями сейчас, т.е. 35 лет спустя, то тоже не увидите большого прогресса, технические характеристики какие-то стали лучше, например, выбросы и расход топлива, а что касается прочности кузова и надёжности, так авто из 90-х на мой взгляд поприличнее будут... Короче, мы не знаем что будет с большими языковыми моделями дальше, возможно, они скоро упрутся в потолок своих возможностей и останутся приблизительно такими же как сейчас, не смотря на то что обновления будут выходить раз в несколько месяцев...
👍9
Новый алгоритм поиска кратчайшего пути на графе так называемый «барьер сортировки»

📌 Суть проблемы
Классические алгоритмы (например, Дейкстра) требуют сортировки вершин по расстоянию, чтобы выбрать ближайшую.
Сортировка — дорогая операция, особенно при больших графах.
С 1980-х считалось, что этот барьер невозможно преодолеть без потери универсальности.

🚀 Что предложил новый алгоритм? https://arxiv.org/abs/2504.17033?utm_source=Securitylab.ru
Вместо сортировки границы текущей области, алгоритм разбивает её на кластеры и выбирает по одному узлу из каждого.
Это снижает количество сравнений и устраняет необходимость сортировки.
Работает как для ориентированных, так и для неориентированных графов с произвольными весами.
Вдохновлён идеями Беллмана-Форда, но использует их точечно, чтобы выявить ключевые «узлы-связки».

📈 Почему это важно?
Это первый универсальный алгоритм, который обходит сортировочный барьер без ограничений на тип графа.
Потенциально меняет подход к маршрутизации, логистике, сетевому анализу и многим другим задачам.

Для чего это нужно:
🚗 1. Навигация и транспорт
GPS и карты: Google Maps, Waze и другие используют алгоритмы кратчайшего пути для построения маршрутов.
Логистика: Оптимизация доставки товаров, маршруты грузовиков, дронов и курьеров.
Транспортные сети: Расчёт времени поездки в метро, автобусах, авиаперелётах.
🖥 2. Компьютерные сети
Маршрутизация пакетов: Протоколы типа OSPF и BGP используют кратчайшие пути для передачи данных.
Оптимизация трафика: Балансировка нагрузки между серверами и дата-центрами.
🧬 3. Биология и медицина
Анализ молекулярных сетей: Поиск путей между генами, белками, метаболическими реакциями.
Медицинская диагностика: Сравнение симптомов и заболеваний через графы знаний.
🛒 4. Рекомендательные системы
Поиск связей между пользователями и товарами: Например, в Amazon или Netflix.
Социальные сети: Определение степени близости между людьми (например, «друзья друзей»).
🏙 5. Городское планирование и робототехника
Планирование движения роботов: В складских системах, на заводах.
Оптимизация инфраструктуры: Где строить дороги, мосты, электросети.
🎮 6. Игры и искусственный интеллект
Играющие агенты: Перемещение персонажей по карте.
AI-планирование: Принятие решений в стратегических играх.
На русском https://www.securitylab.ru/news/562195.php
🔥4👍3
Зачем нам столько десятичных знаков числа π?

Десяти цифр после запятой π хватает для вычисления длины экватора Земли с точностью один дюйм. А тридцать цифр дают такую точность, что при расчете длины окружности видимой Вселенной погрешность нужно разглядывать в микроскоп.
https://quoteinvestigator.com/2018/07/14/pi/
😁3🤔1
Учёные из Чжэцзянского университета в Китае представили нейроморфный компьютер Darwin Monkey, который по сложности имитирует мозг макаки — это значительный шаг в развитии искусственного интеллекта и нейронауки.

🧠 Что такое Darwin Monkey?
💡 Кластер из 960 нейроморфных процессоров Darwin 3
🧬 2 миллиарда электронных нейронов и 100 миллиардов синапсов
⚡️ Энергопотребление — всего 2 кВт
🧠 Способен имитировать нервную деятельность мышей, червей и обезьян
🧠 Работает на ИИ собственной разработки, решает задачи логики, математики, генерации контента
🔬 Почему это важно?
Это первая в мире платформа, приближающаяся к сложности мозга приматов.
Предыдущие рекорды — имитация мозга кошки и платформа Intel Loihi 2 (1,15 млрд нейронов).
Darwin Monkey — новая вычислительная парадигма: высокая параллельность, низкое энергопотребление, биоподобная архитектура.
🧩 Философский контекст
Разработчики признают, что природа мышления остаётся загадкой, возможно даже квантовой. Это означает, что количественный рост нейронов не гарантирует качественного скачка в понимании сознания. Тем не менее, такие проекты приближают нас к разгадке механизмов мышления и открывают путь к новым формам ИИ.
https://habr.com/ru/companies/bothub/news/934536/

Сравнительный анализ нейроморфного компьютера и больших языковых моделей (LLM) — двух принципиально разных подходов к искусственному интеллекту.
Такое разделение возникло еще на заре ИИ, первый подход подразумевает создание аналогов нервной системы живых организмов, второй - решение интеллектуальных задач, не опираясь на то как это делают высшие животные.
Интересно, что искусственные нейросети в начале относились к нейроморфному подходу, в частности, персептрон Розенблатта задумывался как модель нейросети животных, но потом стало ясно, что между искусственными нейросетями и их биологическими аналогами пропасть.
👍3
Новый транзистор способен работать при +800 градусах... не нужно думать об охлаждении схемы...

В начале были германиевые транзисторы — первые полупроводниковые приборы, положившие начало эре современной электроники. Однако вскоре они уступили место кремниевым, которые обладали рядом преимуществ: более высокой стабильностью, доступностью сырья, лучшей технологичностью и — что особенно важно — способностью работать в более широком температурном диапазоне. Именно кремний стал основой для всей современной микроэлектроники, от компьютеров до космических аппаратов.
Но даже кремний имеет свои пределы. При температурах выше 150 °C он теряет стабильность, что ограничивает его применение в экстремальных условиях — например, в реактивных двигателях, на химических производствах или на поверхности других планет.
Учёные из Университета штата Пенсильвания разработали уникальные транзисторы на основе нитрида галлия, способные выдерживать экстремальные температуры до 800 °C — это делает их пригодными даже для работы на поверхности Венеры, где температура достигает 470 °C.
🔬 В чём суть технологии?
Используется нитрид галлия (GaN) — материал с широкой запрещённой зоной, устойчивый к тепловому пробою.
Создан HEMT-транзистор (High Electron Mobility Transistor) с двухслойной структурой:
Верхний слой — нитрид алюминия и галлия
Нижний — нитрид галлия
На границе слоёв формируется двумерный электронный газ (2DEG) — зона с высокой подвижностью электронов и низким сопротивлением.
Это позволяет транзистору быстро переключаться и сохранять стабильность даже при 800 °C.
🚀 Почему это важно?
Обычные транзисторы выходят из строя при температуре выше 150 °C.
Даже карбид кремния, ранее считавшийся эталоном жаростойкости, выдерживает максимум 600 °C.
Новый транзистор работал стабильно в течение часа при 800 °C, демонстрируя низкие токи утечки и высокую надёжность.
🌍 Применение
Космос: электроника для зондов на Венеру и другие экстремальные планеты.
Авиация: датчики для гиперзвуковых самолётов и ракет.
Промышленность: мониторинг турбин, нефтехимических процессов, высокотемпературных производств.
https://spectrum.ieee.org/high-temperature-transistor
👍5
Периодическая таблица: вековая классика с изъянами
Плоская таблица Менделеева честно отработала больше века: на ней выросли поколения студентов и преподавателей, она стала символом химии и даже украшением на футболках и кружках. Но у удобства есть цена.
Разрывы периодов, вынесенные в «подвал» лантаноиды и актиноиды, спорное положение водорода, ломанная логика блоков — всё это делает таблицу не столько наглядной, сколько условной. Закономерности приходится «достраивать в голове», а не видеть глазами. Она больше напоминает компромисс между научной точностью и типографским удобством, чем отражение глубинной структуры атомного мира.
Рисунок взят отсюда https://allperiodictables.com/AAEpages/aae3d.html
👍4🤔2
Исследователи создали мини-соцсеть с чат-ботами — те разбились на политические «коалиции» и повторили «токсичное» поведение обычных пользователей

"Мы обнаружили, что полученные сети-агенты воспроизводят три хорошо документированные дисфункции: (1) партийные эхо-камеры; (2) концентрированное влияние среди небольшой элиты; (3) усиление поляризованных голосов, создавая «призму социальных сетей», которая искажает политический дискурс. "

https://arxiv.org/pdf/2508.03385

https://vc.ru/social/2157303-mini-sotsset-s-chat-botami-issledovanie-toksichnogo-povedeniya
😁5👍4
Первые жертвы LLM

Источник новости — это официальный медицинский кейс опубликованный в журнале Annals of Internal Medicine, и подробно описанный в статье на сайте Popular Science.
🧠 Краткое содержание инцидента
60-летний мужчина из США решил исключить поваренную соль (NaCl) из рациона.
Получив совет от ChatGPT, он заменил её на бромид натрия (NaBr) — вещество, используемое для дезинфекции бассейнов.
Через 3 месяца у него развился бромизм — токсическое поражение нервной системы:
Паранойя
Галлюцинации
Отказ от воды
Попытка побега из больницы
Его госпитализировали и держали на принудительном психиатрическом лечении 3 недели.
Врачи выяснили, что причиной стал совет ИИ, и опубликовали случай как предупреждение о рисках неконтролируемого использования AI в медицине.
👍3🤡1
Вероятность окончания военного конфликта

Предположим, имеем некий военный конфликт и хотим найти вероятность, что он закончится в следующий год, как зависит эта вероятность от предыдущей длительности конфликта?

Логика процесса

Начальная фаза конфликта

Когда конфликт только начинается, есть шансы на быстрый исход — либо одна сторона быстро достигает целей, либо стороны идут на переговоры из-за неопределённости.

Вероятность окончания в первый год может быть относительно высокой.

Фаза затяжного противостояния

Если быстрый исход не достигнут, конфликт входит в стабильную фазу с закрепившимися фронтами, рутиной снабжения, наладившейся военной экономикой.

Здесь вероятность прекращения в любой отдельный год снижается: стороны уже адаптировались, их цели не достигнуты, компромисс труден.

Фаза истощения

По мере накопления потерь, разрушений и экономического давления, растёт усталость:

ресурсы (материальные, людские, политические) истощаются,

давление общества и внешних игроков усиливается.

Вероятность окончания снова повышается.

📈 Модель в терминах статистики

Можно описать это "U-образной" зависимостью, вернее, перевёрнутой колоколообразной функцией.

В исследованиях конфликтов применяют:

Survival analysis (анализ «выживания» конфликтов)

Модели с переменной «опасности» (hazard function), которая может сначала падать, а потом расти.

🔍 Пример из реальных данных

По статистике вооружённых конфликтов XX–XXI вв., войны, длившиеся более 2 лет, имеют сниженную «вероятность завершения» в каждый следующий год.

Но для конфликтов, длившихся 7–10+ лет, вероятность окончания в ближайшие 12 месяцев начинает постепенно увеличиваться — эффект ресурсного истощения и политического давления.
👍3
"Is Chain-of-Thought Reasoning of LLMs a Mirage? A Data Distribution Lens" от исследователей из Arizona State University:
🧠 Основная идея
Авторы ставят под сомнение, действительно ли Chain-of-Thought (CoT) — пошаговое рассуждение, вызываемое у больших языковых моделей (LLMs) — является проявлением настоящего мышления. Они утверждают, что CoT — это не логическое рассуждение, а структурированное воспроизведение шаблонов, выученных на тренировочных данных.
🔍 Ключевые тезисы
1. CoT работает только в пределах обучающего распределения
Модели хорошо справляются с задачами, похожими на те, что были в обучении.
При малейшем отклонении (новая задача, формат, длина) — CoT начинает давать сбои.
2. CoT — это не мышление, а паттерн-матчинг
Модель не рассуждает, а воспроизводит шаблоны, которые она видела.
Пример: модель может правильно описать правило високосного года, но сделать логически противоречивый вывод.
3. DATAALCHEMY — экспериментальная среда
Авторы создали контролируемую среду, где обучали LLM с нуля.
Они проверяли CoT по трём осям:
Задача: насколько модель справляется с новыми типами задач.
Длина рассуждения: как меняется качество при увеличении/уменьшении количества шагов.
Формат запроса: насколько чувствительна модель к изменению формулировки.
4. CoT ломается при малейших изменениях
Даже небольшие изменения в формате запроса (вставка, удаление слов) резко снижают точность.
Модель может давать правильные шаги рассуждения, но неправильный ответ — и наоборот.
📉 Выводы и последствия
CoT — это иллюзия мышления, не отражающая настоящую способность к логическому выводу.
Файнтюнинг может временно «залатать» модель, но не решает проблему обобщения.
Практикам не стоит слепо доверять CoT в критических областях (медицина, финансы).
Исследователям стоит искать новые архитектуры, способные к настоящему выводу, а не к имитации.
2👍1