Мы не понимаем почему большие языковые модели такие умные!
Сначала модели опираются на положение слов в предложении.
По мере накопления данных происходит скачкообразное переключение — сеть начинает понимать смысл слов, игнорируя их порядок.
Это поведение напоминает фазовый переход в физике: как вода превращается в пар - количество переходит в качество.
Такой переход — своего рода «момент озарения», когда сеть отказывается от «зубрёжки» и начинает осмыслять язык.
И хотя архитектура моделей вроде трансформеров хорошо изучена, ключевые моменты — как из статистики и механики вдруг выныривает смысл — всё ещё остаются загадкой.
🔍 Этот «момент озарения» показывает: ИИ в какой-то момент отказывается от простой логики (положение слов) и начинает использовать семантику (значение слов). Это напоминает ситуацию, когда человек вдруг понимает, а не просто повторяет.
Такое поведение сложно предсказать: нейросети обучаются миллиардами параметров, и их коллективное поведение оказывается больше, чем сумма частей. Поэтому учёные теперь всё чаще обращаются к методам физики, биологии и теории сложных систем, чтобы хоть как-то объяснить этот феномен.
Краткий пересказ и перевод аннотации:
Учёные провели теоретический анализ того, как в нейросетях возникает семантическое внимание — способность модели понимать смысл слов, а не просто их порядок.
📌 Основные идеи:
На ранних этапах обучения языковые модели используют позиционное внимание — ориентируются на расположение слов.
При накоплении большого объёма данных происходит резкий переход к семантическому вниманию — модель начинает учитывать значение слов.
Этот переход напоминает фазовый переход в физике: как вода внезапно превращается в пар.
Авторы изучили нелинейный слой внимания с обучаемыми матрицами запросов и ключей, и вывели точную формулу для глобального минимума функции потерь.
Показано, что семантический механизм работает лучше, чем линейный позиционный, если данных достаточно.
📎 Исследование помогает понять, почему большие языковые модели вдруг начинают "понимать", и как это связано с количеством обучающих примеров.
https://iopscience.iop.org/article/10.1088/1742-5468/ade137
Сначала модели опираются на положение слов в предложении.
По мере накопления данных происходит скачкообразное переключение — сеть начинает понимать смысл слов, игнорируя их порядок.
Это поведение напоминает фазовый переход в физике: как вода превращается в пар - количество переходит в качество.
Такой переход — своего рода «момент озарения», когда сеть отказывается от «зубрёжки» и начинает осмыслять язык.
И хотя архитектура моделей вроде трансформеров хорошо изучена, ключевые моменты — как из статистики и механики вдруг выныривает смысл — всё ещё остаются загадкой.
🔍 Этот «момент озарения» показывает: ИИ в какой-то момент отказывается от простой логики (положение слов) и начинает использовать семантику (значение слов). Это напоминает ситуацию, когда человек вдруг понимает, а не просто повторяет.
Такое поведение сложно предсказать: нейросети обучаются миллиардами параметров, и их коллективное поведение оказывается больше, чем сумма частей. Поэтому учёные теперь всё чаще обращаются к методам физики, биологии и теории сложных систем, чтобы хоть как-то объяснить этот феномен.
Краткий пересказ и перевод аннотации:
Учёные провели теоретический анализ того, как в нейросетях возникает семантическое внимание — способность модели понимать смысл слов, а не просто их порядок.
📌 Основные идеи:
На ранних этапах обучения языковые модели используют позиционное внимание — ориентируются на расположение слов.
При накоплении большого объёма данных происходит резкий переход к семантическому вниманию — модель начинает учитывать значение слов.
Этот переход напоминает фазовый переход в физике: как вода внезапно превращается в пар.
Авторы изучили нелинейный слой внимания с обучаемыми матрицами запросов и ключей, и вывели точную формулу для глобального минимума функции потерь.
Показано, что семантический механизм работает лучше, чем линейный позиционный, если данных достаточно.
📎 Исследование помогает понять, почему большие языковые модели вдруг начинают "понимать", и как это связано с количеством обучающих примеров.
https://iopscience.iop.org/article/10.1088/1742-5468/ade137
iopscience.iop.org
A phase transition between positional and semantic learning in a solvable model of dot-product attention - IOPscience
A phase transition between positional and semantic learning in a solvable model of dot-product attention*, Cui, Hugo, Behrens, Freya, Krzakala, Florent, Zdeborová, Lenka
👍5❤1
Интересное исследование, которое показывает что использование больших языковых моделей в данный момент может не уменьшать, а увеличивать время разработки программного обеспечения
«Удивительно, но мы обнаружили, что использование ИИ фактически увеличивает время выполнения на 19% — разработчики работают медленнее, когда используют инструменты ИИ»
Мне кажется дело в том, что тестирование проводилось на инструментах, языках и задачах, которые разработчики хорошо знают и их навыки доведены до автоматизма...
Это как хороший водитель может водить лучше автопилота, но автопилот водит лучше, чем средний водитель, а если нужно вести машину сутки непрерывно, тогда вообще результат сравнения очевиден.
https://techcrunch.com/2025/07/11/ai-coding-tools-may-not-speed-up-every-developer-study-shows/?utm_source=ixbtcom
https://arxiv.org/abs/2507.09089
«Удивительно, но мы обнаружили, что использование ИИ фактически увеличивает время выполнения на 19% — разработчики работают медленнее, когда используют инструменты ИИ»
Мне кажется дело в том, что тестирование проводилось на инструментах, языках и задачах, которые разработчики хорошо знают и их навыки доведены до автоматизма...
Это как хороший водитель может водить лучше автопилота, но автопилот водит лучше, чем средний водитель, а если нужно вести машину сутки непрерывно, тогда вообще результат сравнения очевиден.
https://techcrunch.com/2025/07/11/ai-coding-tools-may-not-speed-up-every-developer-study-shows/?utm_source=ixbtcom
https://arxiv.org/abs/2507.09089
TechCrunch
AI coding tools may not speed up every developer, study shows | TechCrunch
A new study from the non-profit METR suggests that AI coding tools may not offer productivity gains for experienced developers.
👍2❤1
Возможная жизнь на Марсе — и случайное её уничтожение
Около 50 лет назад миссия NASA "Викинг" провела биологические эксперименты с марсианским грунтом, чтобы найти признаки жизни. Один из тестов дал обнадеживающие результаты — почва испустила радиоактивный газ, что могло свидетельствовать о метаболизме микробов. Однако повторные тесты не подтвердили выводы, и учёные списали это на химическое вещество перхлорат.
👨🔬 Профессор Дирк Шульце-Макуч предполагает, что эксперименты могли уничтожить марсианских микробов, добавив в почву воду. Он сравнивает это с ситуацией, когда инопланетяне бросают человека в океан, думая, что ему нужна вода. Условия на Марсе настолько экстремальны, что местные формы жизни могли быть очень чувствительными к лишней влаге.
🧪 Дополнительно Шульце-Макуч выдвинул теорию, что марсианские организмы могли использовать перекись водорода, как адаптацию к холодному и сухому климату планеты. При нагревании образцов этот компонент мог бы убить микробов и вызвать выброс углекислого газа — как раз то, что зафиксировали приборы.
⚠️ Если эта гипотеза верна, то человечество — пусть и случайно — нашло жизнь на Марсе и сразу её уничтожило, как неуклюжие антагонисты из научной фантастики.
https://www.iflscience.com/nasas-viking-project-may-have-found-life-on-mars-50-years-ago-then-accidentally-killed-it-80150
Около 50 лет назад миссия NASA "Викинг" провела биологические эксперименты с марсианским грунтом, чтобы найти признаки жизни. Один из тестов дал обнадеживающие результаты — почва испустила радиоактивный газ, что могло свидетельствовать о метаболизме микробов. Однако повторные тесты не подтвердили выводы, и учёные списали это на химическое вещество перхлорат.
👨🔬 Профессор Дирк Шульце-Макуч предполагает, что эксперименты могли уничтожить марсианских микробов, добавив в почву воду. Он сравнивает это с ситуацией, когда инопланетяне бросают человека в океан, думая, что ему нужна вода. Условия на Марсе настолько экстремальны, что местные формы жизни могли быть очень чувствительными к лишней влаге.
🧪 Дополнительно Шульце-Макуч выдвинул теорию, что марсианские организмы могли использовать перекись водорода, как адаптацию к холодному и сухому климату планеты. При нагревании образцов этот компонент мог бы убить микробов и вызвать выброс углекислого газа — как раз то, что зафиксировали приборы.
⚠️ Если эта гипотеза верна, то человечество — пусть и случайно — нашло жизнь на Марсе и сразу её уничтожило, как неуклюжие антагонисты из научной фантастики.
https://www.iflscience.com/nasas-viking-project-may-have-found-life-on-mars-50-years-ago-then-accidentally-killed-it-80150
IFLScience
NASA's Viking Project May Have Found Life On Mars 50 Years Ago, Then Accidentally Killed It
When you've just been drowned by an alien robot, you don't tend to be all that hungry.
👍2🔥1
Эрик Шмидт (бывший ген. директор Google) о будущем искусственного сверх интеллекта
https://www.youtube.com/watch?v=OjnXa9DDONA&t=2943s&fbclid=IwZXh0bgNhZW0CMTEAAR7ySNQS-_BnfCm8-zALdHLgL73M_r3sB1JC_DOmqmmcIRs5Qu3rP3q95jmbdQ_aem_hVnSKjLyBcYcIvrxGPHFEA
На английском без перевода https://www.youtube.com/watch?v=qaPHK1fJL5s&t=6s&fbclid=IwZXh0bgNhZW0CMTEAAR52GDoGls0AZTfjsBuj6lk0Vb7ssMl4VOrlb6zypmNBSAAwKw8cCivIPGY1mg_aem_zSFpmLvj-Zxcmu8z2joV_Q
https://www.youtube.com/watch?v=OjnXa9DDONA&t=2943s&fbclid=IwZXh0bgNhZW0CMTEAAR7ySNQS-_BnfCm8-zALdHLgL73M_r3sB1JC_DOmqmmcIRs5Qu3rP3q95jmbdQ_aem_hVnSKjLyBcYcIvrxGPHFEA
На английском без перевода https://www.youtube.com/watch?v=qaPHK1fJL5s&t=6s&fbclid=IwZXh0bgNhZW0CMTEAAR52GDoGls0AZTfjsBuj6lk0Vb7ssMl4VOrlb6zypmNBSAAwKw8cCivIPGY1mg_aem_zSFpmLvj-Zxcmu8z2joV_Q
YouTube
Эрик Шмидт (бывший ген. директор Google) о будущем искусственного сверх интеллекта
Бывший генеральный директор Google Эрик Шмидт рассказывает о будущем искусственного сверх интеллекта на подкасте «Лунные снимки с П. Диамандисом»
👍2
Человеческий организм с точки зрения теории надежности
Авторы провели масштабный анализ более 12 700 белков из 516 образцов тканей и плазмы, охватывающий 13 органов и возрастной диапазон от 14 до 68 лет. Это позволило выявить уникальные биологические часы для каждого органа и механизмы, лежащие в основе возрастных изменений, включая накопление амилоидов и воспалительных белков.
Исследователи обнаружили, что наиболее резкие изменения произошли в возрасте от 45 до 55 лет. Именно на этом этапе многие ткани подвергаются существенному протеомному ремоделированию, причем наиболее заметные изменения происходят в аорте, демонстрируя сильную восприимчивость к старению. Поджелудочная железа и селезенка также показали устойчивые изменения.
https://www.cell.com/cell/abstract/S0092-8674(25)00749-4?
https://www.sciencealert.com/study-reveals-turning-point-when-your-bodys-aging-accelerates
Авторы провели масштабный анализ более 12 700 белков из 516 образцов тканей и плазмы, охватывающий 13 органов и возрастной диапазон от 14 до 68 лет. Это позволило выявить уникальные биологические часы для каждого органа и механизмы, лежащие в основе возрастных изменений, включая накопление амилоидов и воспалительных белков.
Исследователи обнаружили, что наиболее резкие изменения произошли в возрасте от 45 до 55 лет. Именно на этом этапе многие ткани подвергаются существенному протеомному ремоделированию, причем наиболее заметные изменения происходят в аорте, демонстрируя сильную восприимчивость к старению. Поджелудочная железа и селезенка также показали устойчивые изменения.
https://www.cell.com/cell/abstract/S0092-8674(25)00749-4?
https://www.sciencealert.com/study-reveals-turning-point-when-your-bodys-aging-accelerates
👍3✍2
Большие языковые модели... этап переоценки...
После появления больших языковых моделей многие компании поспешили начать сокращение персонала, заменив существенную часть людей клинской службы на чат-боты...
Год спустя многие стали возвращать людей на рабочие места и фиксировать убытки...
Что получилось?
Чат-боты плохо общаются с неподготовленными пользователями, которые невнятно формулируют свои желания, неспособность решить проблему раздражает пользователей, которые требуют соединить их с оператором человеком.
Поддержка специализированных чат-ботов клиентской службы оказалась не такой простой и дешевой задачей, как казалось в начале.
В принципе пока имеем то, что давно предсказывалось: большие языковые модели - это прежде всего помощник, справочная система, советник, исполнитель рутинных задач, но поручать им самостоятельное принятие решений - очень опрометчиво. Для успеха с AI должен общаться подготовленный пользователь, который умеет формулировать промпты, понимает что можно поручить интеллектуальному помощнику, а что нет, способен верифицировать полученный результат и т.д.
https://habr.com/ru/companies/first/articles/931994/
После появления больших языковых моделей многие компании поспешили начать сокращение персонала, заменив существенную часть людей клинской службы на чат-боты...
Год спустя многие стали возвращать людей на рабочие места и фиксировать убытки...
Что получилось?
Чат-боты плохо общаются с неподготовленными пользователями, которые невнятно формулируют свои желания, неспособность решить проблему раздражает пользователей, которые требуют соединить их с оператором человеком.
Поддержка специализированных чат-ботов клиентской службы оказалась не такой простой и дешевой задачей, как казалось в начале.
В принципе пока имеем то, что давно предсказывалось: большие языковые модели - это прежде всего помощник, справочная система, советник, исполнитель рутинных задач, но поручать им самостоятельное принятие решений - очень опрометчиво. Для успеха с AI должен общаться подготовленный пользователь, который умеет формулировать промпты, понимает что можно поручить интеллектуальному помощнику, а что нет, способен верифицировать полученный результат и т.д.
https://habr.com/ru/companies/first/articles/931994/
Хабр
Компании, заменившие людей на ИИ, стали осознавать свою ошибку
Роботы ищут работу По словам миллиардера и гендиректора OpenAI Сэма Альтмана, 2025 год должен был стать годом, «когда ИИ-агенты заработают в полную силу». На эту же идею купились многие компании....
❤2🤔2
Самый корректный двухщелевой эксперимент... Свет, это волна или частица?
При помощи суперсовременного оборудования физики из Массачусетского технологического института (MIT) подняли планку классического двухщелевого опыта, проведя его буквально на квантовом уровне. В результате им удалось разрешить практически вековой спор Альберта Эйнштейна и Нильса Бора о природе света, показав ошибочность суждений Эйнштейна в данном конкретном случае.
В случае с корпускулярной природой света предполагается, что наблюдатель увидит пару световых пятен, однако в реальности видны полосы, характерные для интерференции волн. Было также установлено, что свет поглощается на экране в отдельных точках, а усовершенствованный эксперимент с фотонными детекторами дополнительно показывает, что каждый обнаруженный фотон проходит только через одну щель - то есть ведет себя как частица, а не волна.
В то же время эту двойственность оказалось невозможно наблюдать одновременно: стоит попытаться определить, через какую именно щель прошел свет, как интерференционная картина исчезает.
https://journals.aps.org/prl/abstract/10.1103/zwhd-1k2t
На русском https://habr.com/ru/news/932332/
При помощи суперсовременного оборудования физики из Массачусетского технологического института (MIT) подняли планку классического двухщелевого опыта, проведя его буквально на квантовом уровне. В результате им удалось разрешить практически вековой спор Альберта Эйнштейна и Нильса Бора о природе света, показав ошибочность суждений Эйнштейна в данном конкретном случае.
В случае с корпускулярной природой света предполагается, что наблюдатель увидит пару световых пятен, однако в реальности видны полосы, характерные для интерференции волн. Было также установлено, что свет поглощается на экране в отдельных точках, а усовершенствованный эксперимент с фотонными детекторами дополнительно показывает, что каждый обнаруженный фотон проходит только через одну щель - то есть ведет себя как частица, а не волна.
В то же время эту двойственность оказалось невозможно наблюдать одновременно: стоит попытаться определить, через какую именно щель прошел свет, как интерференционная картина исчезает.
https://journals.aps.org/prl/abstract/10.1103/zwhd-1k2t
На русском https://habr.com/ru/news/932332/
Physical Review Letters
Coherent and Incoherent Light Scattering by Single-Atom Wave Packets
We study light scattering of atomic wave packets in free space and discuss the results in terms of atom-photon entanglement and which-way information. Using ultracold atoms released from an optical lattice, we realize a Gedanken experiment which interferes…
👍3🤔2
Про бизнес, основанный на статистике...
Еще перед войной в России я как-то страховал недвижимость... если читать условия страховки в крупных страховых компаниях, то что написано мелким шрифтом, то почти везде указывалось, что теракты, война, бунт, восстание, революция, землетрясения, техногенные и природные катастрофы и т.д. - это не страховой случай, а форс-мажор. Видимо, страховщики не хотят лезть туда, где они не имеют статистики и не могут оценить риски...
Статистику ДТП или заливов соседей жильцами сверху они отлично знают, а вот связываться с тем, что может сразу разорить корпорацию, им совсем не хочется, они же бизнесмены, а не в рулетку играют.
Еще перед войной в России я как-то страховал недвижимость... если читать условия страховки в крупных страховых компаниях, то что написано мелким шрифтом, то почти везде указывалось, что теракты, война, бунт, восстание, революция, землетрясения, техногенные и природные катастрофы и т.д. - это не страховой случай, а форс-мажор. Видимо, страховщики не хотят лезть туда, где они не имеют статистики и не могут оценить риски...
Статистику ДТП или заливов соседей жильцами сверху они отлично знают, а вот связываться с тем, что может сразу разорить корпорацию, им совсем не хочется, они же бизнесмены, а не в рулетку играют.
🤔3
Мир пост правды... Самые неточные (лживые) боты на основе большие языковые модели оказались наиболее успешными в изменении общественного мнения...
Учёные решили проверить, как искусственный интеллект (ИИ) может влиять на политические взгляды людей. То есть — насколько ИИ может убедить человека изменить своё мнение по темам вроде выборов, законов, общественных проблем.
🔧 Что они сделали?
Взяли много разных ИИ-моделей (аж 19 штук) и протестировали их на десятках тысяч людей.
Эти модели обсуждали более 700 политических тем — от охраны окружающей среды до миграции.
Потом проверили, насколько ИИ был убедителен и правдив в своих доводах.
💥 Что выяснилось?
Самые убедительные ИИ — это не просто «умные» или «большие», а те, которые:
были специально обучены для убеждения
имели грамотно написанные подсказки (вопросы/тексты, с которых начинается диалог)
Такие ИИ могут повлиять на мнение человека почти в два раза сильнее, чем обычные.
Но есть минус: чем больше убеждают — тем чаще ошибаются с фактами.
⚖️ Почему это важно?
Это показывает, что ИИ уже может влиять на политические решения людей.
И это вызывает этические вопросы: допустимо ли усиливать влияние ИИ, если он иногда даёт неточную информацию?
https://arxiv.org/html/2507.13919v1
Учёные решили проверить, как искусственный интеллект (ИИ) может влиять на политические взгляды людей. То есть — насколько ИИ может убедить человека изменить своё мнение по темам вроде выборов, законов, общественных проблем.
🔧 Что они сделали?
Взяли много разных ИИ-моделей (аж 19 штук) и протестировали их на десятках тысяч людей.
Эти модели обсуждали более 700 политических тем — от охраны окружающей среды до миграции.
Потом проверили, насколько ИИ был убедителен и правдив в своих доводах.
💥 Что выяснилось?
Самые убедительные ИИ — это не просто «умные» или «большие», а те, которые:
были специально обучены для убеждения
имели грамотно написанные подсказки (вопросы/тексты, с которых начинается диалог)
Такие ИИ могут повлиять на мнение человека почти в два раза сильнее, чем обычные.
Но есть минус: чем больше убеждают — тем чаще ошибаются с фактами.
⚖️ Почему это важно?
Это показывает, что ИИ уже может влиять на политические решения людей.
И это вызывает этические вопросы: допустимо ли усиливать влияние ИИ, если он иногда даёт неточную информацию?
https://arxiv.org/html/2507.13919v1
👍4
Часто читаю, что большие языковые модели скоро станут очень умными, вот настолько умными что будут все делать лучше людей...
В связи с этим посетила такая мысль... Любое изобретение пройдя стадию усовершенствований достигает своего потолка... Если вы посмотрите на ноутбук 5-10 лет назад и сейчас, то не сильно увидеть разницу... Если посмотрите на автомобиль после того как появился инжектор, микропроцессорное управление двигателем и его ряд вещей т.е. это начало 90-х годов и сравните с автомобилями сейчас, т.е. 35 лет спустя, то тоже не увидите большого прогресса, технические характеристики какие-то стали лучше, например, выбросы и расход топлива, а что касается прочности кузова и надёжности, так авто из 90-х на мой взгляд поприличнее будут... Короче, мы не знаем что будет с большими языковыми моделями дальше, возможно, они скоро упрутся в потолок своих возможностей и останутся приблизительно такими же как сейчас, не смотря на то что обновления будут выходить раз в несколько месяцев...
В связи с этим посетила такая мысль... Любое изобретение пройдя стадию усовершенствований достигает своего потолка... Если вы посмотрите на ноутбук 5-10 лет назад и сейчас, то не сильно увидеть разницу... Если посмотрите на автомобиль после того как появился инжектор, микропроцессорное управление двигателем и его ряд вещей т.е. это начало 90-х годов и сравните с автомобилями сейчас, т.е. 35 лет спустя, то тоже не увидите большого прогресса, технические характеристики какие-то стали лучше, например, выбросы и расход топлива, а что касается прочности кузова и надёжности, так авто из 90-х на мой взгляд поприличнее будут... Короче, мы не знаем что будет с большими языковыми моделями дальше, возможно, они скоро упрутся в потолок своих возможностей и останутся приблизительно такими же как сейчас, не смотря на то что обновления будут выходить раз в несколько месяцев...
👍9
Новый алгоритм поиска кратчайшего пути на графе так называемый «барьер сортировки»
📌 Суть проблемы
Классические алгоритмы (например, Дейкстра) требуют сортировки вершин по расстоянию, чтобы выбрать ближайшую.
Сортировка — дорогая операция, особенно при больших графах.
С 1980-х считалось, что этот барьер невозможно преодолеть без потери универсальности.
🚀 Что предложил новый алгоритм? https://arxiv.org/abs/2504.17033?utm_source=Securitylab.ru
Вместо сортировки границы текущей области, алгоритм разбивает её на кластеры и выбирает по одному узлу из каждого.
Это снижает количество сравнений и устраняет необходимость сортировки.
Работает как для ориентированных, так и для неориентированных графов с произвольными весами.
Вдохновлён идеями Беллмана-Форда, но использует их точечно, чтобы выявить ключевые «узлы-связки».
📈 Почему это важно?
Это первый универсальный алгоритм, который обходит сортировочный барьер без ограничений на тип графа.
Потенциально меняет подход к маршрутизации, логистике, сетевому анализу и многим другим задачам.
Для чего это нужно:
🚗 1. Навигация и транспорт
GPS и карты: Google Maps, Waze и другие используют алгоритмы кратчайшего пути для построения маршрутов.
Логистика: Оптимизация доставки товаров, маршруты грузовиков, дронов и курьеров.
Транспортные сети: Расчёт времени поездки в метро, автобусах, авиаперелётах.
🖥 2. Компьютерные сети
Маршрутизация пакетов: Протоколы типа OSPF и BGP используют кратчайшие пути для передачи данных.
Оптимизация трафика: Балансировка нагрузки между серверами и дата-центрами.
🧬 3. Биология и медицина
Анализ молекулярных сетей: Поиск путей между генами, белками, метаболическими реакциями.
Медицинская диагностика: Сравнение симптомов и заболеваний через графы знаний.
🛒 4. Рекомендательные системы
Поиск связей между пользователями и товарами: Например, в Amazon или Netflix.
Социальные сети: Определение степени близости между людьми (например, «друзья друзей»).
🏙 5. Городское планирование и робототехника
Планирование движения роботов: В складских системах, на заводах.
Оптимизация инфраструктуры: Где строить дороги, мосты, электросети.
🎮 6. Игры и искусственный интеллект
Играющие агенты: Перемещение персонажей по карте.
AI-планирование: Принятие решений в стратегических играх.
На русском https://www.securitylab.ru/news/562195.php
📌 Суть проблемы
Классические алгоритмы (например, Дейкстра) требуют сортировки вершин по расстоянию, чтобы выбрать ближайшую.
Сортировка — дорогая операция, особенно при больших графах.
С 1980-х считалось, что этот барьер невозможно преодолеть без потери универсальности.
🚀 Что предложил новый алгоритм? https://arxiv.org/abs/2504.17033?utm_source=Securitylab.ru
Вместо сортировки границы текущей области, алгоритм разбивает её на кластеры и выбирает по одному узлу из каждого.
Это снижает количество сравнений и устраняет необходимость сортировки.
Работает как для ориентированных, так и для неориентированных графов с произвольными весами.
Вдохновлён идеями Беллмана-Форда, но использует их точечно, чтобы выявить ключевые «узлы-связки».
📈 Почему это важно?
Это первый универсальный алгоритм, который обходит сортировочный барьер без ограничений на тип графа.
Потенциально меняет подход к маршрутизации, логистике, сетевому анализу и многим другим задачам.
Для чего это нужно:
🚗 1. Навигация и транспорт
GPS и карты: Google Maps, Waze и другие используют алгоритмы кратчайшего пути для построения маршрутов.
Логистика: Оптимизация доставки товаров, маршруты грузовиков, дронов и курьеров.
Транспортные сети: Расчёт времени поездки в метро, автобусах, авиаперелётах.
🖥 2. Компьютерные сети
Маршрутизация пакетов: Протоколы типа OSPF и BGP используют кратчайшие пути для передачи данных.
Оптимизация трафика: Балансировка нагрузки между серверами и дата-центрами.
🧬 3. Биология и медицина
Анализ молекулярных сетей: Поиск путей между генами, белками, метаболическими реакциями.
Медицинская диагностика: Сравнение симптомов и заболеваний через графы знаний.
🛒 4. Рекомендательные системы
Поиск связей между пользователями и товарами: Например, в Amazon или Netflix.
Социальные сети: Определение степени близости между людьми (например, «друзья друзей»).
🏙 5. Городское планирование и робототехника
Планирование движения роботов: В складских системах, на заводах.
Оптимизация инфраструктуры: Где строить дороги, мосты, электросети.
🎮 6. Игры и искусственный интеллект
Играющие агенты: Перемещение персонажей по карте.
AI-планирование: Принятие решений в стратегических играх.
На русском https://www.securitylab.ru/news/562195.php
arXiv.org
Breaking the Sorting Barrier for Directed Single-Source Shortest Paths
We give a deterministic $O(m\log^{2/3}n)$-time algorithm for single-source shortest paths (SSSP) on directed graphs with real non-negative edge weights in the comparison-addition model. This is...
🔥4👍3
Зачем нам столько десятичных знаков числа π?
Десяти цифр после запятой π хватает для вычисления длины экватора Земли с точностью один дюйм. А тридцать цифр дают такую точность, что при расчете длины окружности видимой Вселенной погрешность нужно разглядывать в микроскоп.
https://quoteinvestigator.com/2018/07/14/pi/
Десяти цифр после запятой π хватает для вычисления длины экватора Земли с точностью один дюйм. А тридцать цифр дают такую точность, что при расчете длины окружности видимой Вселенной погрешность нужно разглядывать в микроскоп.
https://quoteinvestigator.com/2018/07/14/pi/
😁3🤔1
Учёные из Чжэцзянского университета в Китае представили нейроморфный компьютер Darwin Monkey, который по сложности имитирует мозг макаки — это значительный шаг в развитии искусственного интеллекта и нейронауки.
🧠 Что такое Darwin Monkey?
💡 Кластер из 960 нейроморфных процессоров Darwin 3
🧬 2 миллиарда электронных нейронов и 100 миллиардов синапсов
⚡️ Энергопотребление — всего 2 кВт
🧠 Способен имитировать нервную деятельность мышей, червей и обезьян
🧠 Работает на ИИ собственной разработки, решает задачи логики, математики, генерации контента
🔬 Почему это важно?
Это первая в мире платформа, приближающаяся к сложности мозга приматов.
Предыдущие рекорды — имитация мозга кошки и платформа Intel Loihi 2 (1,15 млрд нейронов).
Darwin Monkey — новая вычислительная парадигма: высокая параллельность, низкое энергопотребление, биоподобная архитектура.
🧩 Философский контекст
Разработчики признают, что природа мышления остаётся загадкой, возможно даже квантовой. Это означает, что количественный рост нейронов не гарантирует качественного скачка в понимании сознания. Тем не менее, такие проекты приближают нас к разгадке механизмов мышления и открывают путь к новым формам ИИ.
https://habr.com/ru/companies/bothub/news/934536/
Сравнительный анализ нейроморфного компьютера и больших языковых моделей (LLM) — двух принципиально разных подходов к искусственному интеллекту.
Такое разделение возникло еще на заре ИИ, первый подход подразумевает создание аналогов нервной системы живых организмов, второй - решение интеллектуальных задач, не опираясь на то как это делают высшие животные.
Интересно, что искусственные нейросети в начале относились к нейроморфному подходу, в частности, персептрон Розенблатта задумывался как модель нейросети животных, но потом стало ясно, что между искусственными нейросетями и их биологическими аналогами пропасть.
🧠 Что такое Darwin Monkey?
💡 Кластер из 960 нейроморфных процессоров Darwin 3
🧬 2 миллиарда электронных нейронов и 100 миллиардов синапсов
⚡️ Энергопотребление — всего 2 кВт
🧠 Способен имитировать нервную деятельность мышей, червей и обезьян
🧠 Работает на ИИ собственной разработки, решает задачи логики, математики, генерации контента
🔬 Почему это важно?
Это первая в мире платформа, приближающаяся к сложности мозга приматов.
Предыдущие рекорды — имитация мозга кошки и платформа Intel Loihi 2 (1,15 млрд нейронов).
Darwin Monkey — новая вычислительная парадигма: высокая параллельность, низкое энергопотребление, биоподобная архитектура.
🧩 Философский контекст
Разработчики признают, что природа мышления остаётся загадкой, возможно даже квантовой. Это означает, что количественный рост нейронов не гарантирует качественного скачка в понимании сознания. Тем не менее, такие проекты приближают нас к разгадке механизмов мышления и открывают путь к новым формам ИИ.
https://habr.com/ru/companies/bothub/news/934536/
Сравнительный анализ нейроморфного компьютера и больших языковых моделей (LLM) — двух принципиально разных подходов к искусственному интеллекту.
Такое разделение возникло еще на заре ИИ, первый подход подразумевает создание аналогов нервной системы живых организмов, второй - решение интеллектуальных задач, не опираясь на то как это делают высшие животные.
Интересно, что искусственные нейросети в начале относились к нейроморфному подходу, в частности, персептрон Розенблатта задумывался как модель нейросети животных, но потом стало ясно, что между искусственными нейросетями и их биологическими аналогами пропасть.
Хабр
В Китае создали нейроморфный компьютер, имитирующий мозг обезьяны
Учёные из Чжэцзянского университета создали нейроморфный компьютер, который по сложности нервной деятельности приближается к мозгу макаки. Darwin Monkey работает под управлением ИИ собственной...
👍3
Новый транзистор способен работать при +800 градусах... не нужно думать об охлаждении схемы...
В начале были германиевые транзисторы — первые полупроводниковые приборы, положившие начало эре современной электроники. Однако вскоре они уступили место кремниевым, которые обладали рядом преимуществ: более высокой стабильностью, доступностью сырья, лучшей технологичностью и — что особенно важно — способностью работать в более широком температурном диапазоне. Именно кремний стал основой для всей современной микроэлектроники, от компьютеров до космических аппаратов.
Но даже кремний имеет свои пределы. При температурах выше 150 °C он теряет стабильность, что ограничивает его применение в экстремальных условиях — например, в реактивных двигателях, на химических производствах или на поверхности других планет.
Учёные из Университета штата Пенсильвания разработали уникальные транзисторы на основе нитрида галлия, способные выдерживать экстремальные температуры до 800 °C — это делает их пригодными даже для работы на поверхности Венеры, где температура достигает 470 °C.
🔬 В чём суть технологии?
Используется нитрид галлия (GaN) — материал с широкой запрещённой зоной, устойчивый к тепловому пробою.
Создан HEMT-транзистор (High Electron Mobility Transistor) с двухслойной структурой:
Верхний слой — нитрид алюминия и галлия
Нижний — нитрид галлия
На границе слоёв формируется двумерный электронный газ (2DEG) — зона с высокой подвижностью электронов и низким сопротивлением.
Это позволяет транзистору быстро переключаться и сохранять стабильность даже при 800 °C.
🚀 Почему это важно?
Обычные транзисторы выходят из строя при температуре выше 150 °C.
Даже карбид кремния, ранее считавшийся эталоном жаростойкости, выдерживает максимум 600 °C.
Новый транзистор работал стабильно в течение часа при 800 °C, демонстрируя низкие токи утечки и высокую надёжность.
🌍 Применение
Космос: электроника для зондов на Венеру и другие экстремальные планеты.
Авиация: датчики для гиперзвуковых самолётов и ракет.
Промышленность: мониторинг турбин, нефтехимических процессов, высокотемпературных производств.
https://spectrum.ieee.org/high-temperature-transistor
В начале были германиевые транзисторы — первые полупроводниковые приборы, положившие начало эре современной электроники. Однако вскоре они уступили место кремниевым, которые обладали рядом преимуществ: более высокой стабильностью, доступностью сырья, лучшей технологичностью и — что особенно важно — способностью работать в более широком температурном диапазоне. Именно кремний стал основой для всей современной микроэлектроники, от компьютеров до космических аппаратов.
Но даже кремний имеет свои пределы. При температурах выше 150 °C он теряет стабильность, что ограничивает его применение в экстремальных условиях — например, в реактивных двигателях, на химических производствах или на поверхности других планет.
Учёные из Университета штата Пенсильвания разработали уникальные транзисторы на основе нитрида галлия, способные выдерживать экстремальные температуры до 800 °C — это делает их пригодными даже для работы на поверхности Венеры, где температура достигает 470 °C.
🔬 В чём суть технологии?
Используется нитрид галлия (GaN) — материал с широкой запрещённой зоной, устойчивый к тепловому пробою.
Создан HEMT-транзистор (High Electron Mobility Transistor) с двухслойной структурой:
Верхний слой — нитрид алюминия и галлия
Нижний — нитрид галлия
На границе слоёв формируется двумерный электронный газ (2DEG) — зона с высокой подвижностью электронов и низким сопротивлением.
Это позволяет транзистору быстро переключаться и сохранять стабильность даже при 800 °C.
🚀 Почему это важно?
Обычные транзисторы выходят из строя при температуре выше 150 °C.
Даже карбид кремния, ранее считавшийся эталоном жаростойкости, выдерживает максимум 600 °C.
Новый транзистор работал стабильно в течение часа при 800 °C, демонстрируя низкие токи утечки и высокую надёжность.
🌍 Применение
Космос: электроника для зондов на Венеру и другие экстремальные планеты.
Авиация: датчики для гиперзвуковых самолётов и ракет.
Промышленность: мониторинг турбин, нефтехимических процессов, высокотемпературных производств.
https://spectrum.ieee.org/high-temperature-transistor
IEEE Spectrum
Semiconductor Rivalry Rages on in High-Temperature Chips
Silicon carbide vs. gallium nitride: Which semiconductor will dominate high-temperature electronics? The competition is heating up.
👍5
Периодическая таблица: вековая классика с изъянами
Плоская таблица Менделеева честно отработала больше века: на ней выросли поколения студентов и преподавателей, она стала символом химии и даже украшением на футболках и кружках. Но у удобства есть цена.
Разрывы периодов, вынесенные в «подвал» лантаноиды и актиноиды, спорное положение водорода, ломанная логика блоков — всё это делает таблицу не столько наглядной, сколько условной. Закономерности приходится «достраивать в голове», а не видеть глазами. Она больше напоминает компромисс между научной точностью и типографским удобством, чем отражение глубинной структуры атомного мира.
Рисунок взят отсюда https://allperiodictables.com/AAEpages/aae3d.html
Плоская таблица Менделеева честно отработала больше века: на ней выросли поколения студентов и преподавателей, она стала символом химии и даже украшением на футболках и кружках. Но у удобства есть цена.
Разрывы периодов, вынесенные в «подвал» лантаноиды и актиноиды, спорное положение водорода, ломанная логика блоков — всё это делает таблицу не столько наглядной, сколько условной. Закономерности приходится «достраивать в голове», а не видеть глазами. Она больше напоминает компромисс между научной точностью и типографским удобством, чем отражение глубинной структуры атомного мира.
Рисунок взят отсюда https://allperiodictables.com/AAEpages/aae3d.html
👍4🤔2
Исследователи создали мини-соцсеть с чат-ботами — те разбились на политические «коалиции» и повторили «токсичное» поведение обычных пользователей
"Мы обнаружили, что полученные сети-агенты воспроизводят три хорошо документированные дисфункции: (1) партийные эхо-камеры; (2) концентрированное влияние среди небольшой элиты; (3) усиление поляризованных голосов, создавая «призму социальных сетей», которая искажает политический дискурс. "
https://arxiv.org/pdf/2508.03385
https://vc.ru/social/2157303-mini-sotsset-s-chat-botami-issledovanie-toksichnogo-povedeniya
"Мы обнаружили, что полученные сети-агенты воспроизводят три хорошо документированные дисфункции: (1) партийные эхо-камеры; (2) концентрированное влияние среди небольшой элиты; (3) усиление поляризованных голосов, создавая «призму социальных сетей», которая искажает политический дискурс. "
https://arxiv.org/pdf/2508.03385
https://vc.ru/social/2157303-mini-sotsset-s-chat-botami-issledovanie-toksichnogo-povedeniya
😁5👍4
Первые жертвы LLM
Источник новости — это официальный медицинский кейс опубликованный в журнале Annals of Internal Medicine, и подробно описанный в статье на сайте Popular Science.
🧠 Краткое содержание инцидента
60-летний мужчина из США решил исключить поваренную соль (NaCl) из рациона.
Получив совет от ChatGPT, он заменил её на бромид натрия (NaBr) — вещество, используемое для дезинфекции бассейнов.
Через 3 месяца у него развился бромизм — токсическое поражение нервной системы:
Паранойя
Галлюцинации
Отказ от воды
Попытка побега из больницы
Его госпитализировали и держали на принудительном психиатрическом лечении 3 недели.
Врачи выяснили, что причиной стал совет ИИ, и опубликовали случай как предупреждение о рисках неконтролируемого использования AI в медицине.
Источник новости — это официальный медицинский кейс опубликованный в журнале Annals of Internal Medicine, и подробно описанный в статье на сайте Popular Science.
🧠 Краткое содержание инцидента
60-летний мужчина из США решил исключить поваренную соль (NaCl) из рациона.
Получив совет от ChatGPT, он заменил её на бромид натрия (NaBr) — вещество, используемое для дезинфекции бассейнов.
Через 3 месяца у него развился бромизм — токсическое поражение нервной системы:
Паранойя
Галлюцинации
Отказ от воды
Попытка побега из больницы
Его госпитализировали и держали на принудительном психиатрическом лечении 3 недели.
Врачи выяснили, что причиной стал совет ИИ, и опубликовали случай как предупреждение о рисках неконтролируемого использования AI в медицине.
Popular Science
Man develops psychosis following ChatGPT’s salt-free diet
Doctors say the patient swapped out sodium chloride for sodium bromide.
👍3🤡1
Вероятность окончания военного конфликта
Предположим, имеем некий военный конфликт и хотим найти вероятность, что он закончится в следующий год, как зависит эта вероятность от предыдущей длительности конфликта?
Логика процесса
Начальная фаза конфликта
Когда конфликт только начинается, есть шансы на быстрый исход — либо одна сторона быстро достигает целей, либо стороны идут на переговоры из-за неопределённости.
Вероятность окончания в первый год может быть относительно высокой.
Фаза затяжного противостояния
Если быстрый исход не достигнут, конфликт входит в стабильную фазу с закрепившимися фронтами, рутиной снабжения, наладившейся военной экономикой.
Здесь вероятность прекращения в любой отдельный год снижается: стороны уже адаптировались, их цели не достигнуты, компромисс труден.
Фаза истощения
По мере накопления потерь, разрушений и экономического давления, растёт усталость:
ресурсы (материальные, людские, политические) истощаются,
давление общества и внешних игроков усиливается.
Вероятность окончания снова повышается.
📈 Модель в терминах статистики
Можно описать это "U-образной" зависимостью, вернее, перевёрнутой колоколообразной функцией.
В исследованиях конфликтов применяют:
Survival analysis (анализ «выживания» конфликтов)
Модели с переменной «опасности» (hazard function), которая может сначала падать, а потом расти.
🔍 Пример из реальных данных
По статистике вооружённых конфликтов XX–XXI вв., войны, длившиеся более 2 лет, имеют сниженную «вероятность завершения» в каждый следующий год.
Но для конфликтов, длившихся 7–10+ лет, вероятность окончания в ближайшие 12 месяцев начинает постепенно увеличиваться — эффект ресурсного истощения и политического давления.
Предположим, имеем некий военный конфликт и хотим найти вероятность, что он закончится в следующий год, как зависит эта вероятность от предыдущей длительности конфликта?
Логика процесса
Начальная фаза конфликта
Когда конфликт только начинается, есть шансы на быстрый исход — либо одна сторона быстро достигает целей, либо стороны идут на переговоры из-за неопределённости.
Вероятность окончания в первый год может быть относительно высокой.
Фаза затяжного противостояния
Если быстрый исход не достигнут, конфликт входит в стабильную фазу с закрепившимися фронтами, рутиной снабжения, наладившейся военной экономикой.
Здесь вероятность прекращения в любой отдельный год снижается: стороны уже адаптировались, их цели не достигнуты, компромисс труден.
Фаза истощения
По мере накопления потерь, разрушений и экономического давления, растёт усталость:
ресурсы (материальные, людские, политические) истощаются,
давление общества и внешних игроков усиливается.
Вероятность окончания снова повышается.
📈 Модель в терминах статистики
Можно описать это "U-образной" зависимостью, вернее, перевёрнутой колоколообразной функцией.
В исследованиях конфликтов применяют:
Survival analysis (анализ «выживания» конфликтов)
Модели с переменной «опасности» (hazard function), которая может сначала падать, а потом расти.
🔍 Пример из реальных данных
По статистике вооружённых конфликтов XX–XXI вв., войны, длившиеся более 2 лет, имеют сниженную «вероятность завершения» в каждый следующий год.
Но для конфликтов, длившихся 7–10+ лет, вероятность окончания в ближайшие 12 месяцев начинает постепенно увеличиваться — эффект ресурсного истощения и политического давления.
👍3
"Is Chain-of-Thought Reasoning of LLMs a Mirage? A Data Distribution Lens" от исследователей из Arizona State University:
🧠 Основная идея
Авторы ставят под сомнение, действительно ли Chain-of-Thought (CoT) — пошаговое рассуждение, вызываемое у больших языковых моделей (LLMs) — является проявлением настоящего мышления. Они утверждают, что CoT — это не логическое рассуждение, а структурированное воспроизведение шаблонов, выученных на тренировочных данных.
🔍 Ключевые тезисы
1. CoT работает только в пределах обучающего распределения
Модели хорошо справляются с задачами, похожими на те, что были в обучении.
При малейшем отклонении (новая задача, формат, длина) — CoT начинает давать сбои.
2. CoT — это не мышление, а паттерн-матчинг
Модель не рассуждает, а воспроизводит шаблоны, которые она видела.
Пример: модель может правильно описать правило високосного года, но сделать логически противоречивый вывод.
3. DATAALCHEMY — экспериментальная среда
Авторы создали контролируемую среду, где обучали LLM с нуля.
Они проверяли CoT по трём осям:
Задача: насколько модель справляется с новыми типами задач.
Длина рассуждения: как меняется качество при увеличении/уменьшении количества шагов.
Формат запроса: насколько чувствительна модель к изменению формулировки.
4. CoT ломается при малейших изменениях
Даже небольшие изменения в формате запроса (вставка, удаление слов) резко снижают точность.
Модель может давать правильные шаги рассуждения, но неправильный ответ — и наоборот.
📉 Выводы и последствия
CoT — это иллюзия мышления, не отражающая настоящую способность к логическому выводу.
Файнтюнинг может временно «залатать» модель, но не решает проблему обобщения.
Практикам не стоит слепо доверять CoT в критических областях (медицина, финансы).
Исследователям стоит искать новые архитектуры, способные к настоящему выводу, а не к имитации.
🧠 Основная идея
Авторы ставят под сомнение, действительно ли Chain-of-Thought (CoT) — пошаговое рассуждение, вызываемое у больших языковых моделей (LLMs) — является проявлением настоящего мышления. Они утверждают, что CoT — это не логическое рассуждение, а структурированное воспроизведение шаблонов, выученных на тренировочных данных.
🔍 Ключевые тезисы
1. CoT работает только в пределах обучающего распределения
Модели хорошо справляются с задачами, похожими на те, что были в обучении.
При малейшем отклонении (новая задача, формат, длина) — CoT начинает давать сбои.
2. CoT — это не мышление, а паттерн-матчинг
Модель не рассуждает, а воспроизводит шаблоны, которые она видела.
Пример: модель может правильно описать правило високосного года, но сделать логически противоречивый вывод.
3. DATAALCHEMY — экспериментальная среда
Авторы создали контролируемую среду, где обучали LLM с нуля.
Они проверяли CoT по трём осям:
Задача: насколько модель справляется с новыми типами задач.
Длина рассуждения: как меняется качество при увеличении/уменьшении количества шагов.
Формат запроса: насколько чувствительна модель к изменению формулировки.
4. CoT ломается при малейших изменениях
Даже небольшие изменения в формате запроса (вставка, удаление слов) резко снижают точность.
Модель может давать правильные шаги рассуждения, но неправильный ответ — и наоборот.
📉 Выводы и последствия
CoT — это иллюзия мышления, не отражающая настоящую способность к логическому выводу.
Файнтюнинг может временно «залатать» модель, но не решает проблему обобщения.
Практикам не стоит слепо доверять CoT в критических областях (медицина, финансы).
Исследователям стоит искать новые архитектуры, способные к настоящему выводу, а не к имитации.
❤2👍1