87 subscribers
30 photos
2 videos
20 files
229 links
Machine learning
Download Telegram
Ноам Шазир: Ml не заменит Google, но может стать вашей мамой — намёк на эмоциональные качества

Шазир
заявил, что одним из факторов, ускоряющий развитие Ml станет самоускорение

Ml будет проектировать чипы и софт, ускоряя собственное развитие
Это приведёт к прорывам в создании автономных агентов и более умных систем

Ноам Шазир, соавтор статьи о трансформерах и лидер Google DeepMind по разработке Gemini, выступил на конференции Hot Chips:

LLM — лучшая проблема в истории
Он назвал языковое моделирование задачей, которая захватывает воображение
От улучшения поисковых алгоритмов Google до моделей с триллионами параметров — LLM уже меняют подход к Ml, и это только начало
«Мы только начали», — повторил он

1. Что хотят LLM от чипов? Ml требует от hardware масштабируемости и энергоэффективности:
- Матричная математика и attention-механизмы:
нужны чипы, оптимизированные под эти операции
- Иерархия памяти: от DDR5 до HBM и on-chip SRAM для скорости и объёма
- Optical I/O и chiplet-дизайны
- Performance per watt: ключ к масштабированию моделей
В
пример Google TPU, но призвал к гибкости для мультимодальных моделей (текст, изображения, видео)

2. Самоускорение Ml
Ml
проектирует чипы, которые делают Ml мощнее — идея, которая ляжет в основу следующей фазы развития Ml

3. Прогнозы на будущее:
- 1–2 года
: рост энергоэффективности LLM, мультимодальные модели для текста, видео и изображений
- 3–5 лет: автономные Ml -агенты, решающие сложные задачи, и чипы для edge-computing
- Долгосрочная перспектива: шаги к AGI, но с фокусом на этику и практическое применение

Шазир отметил вызовы, такие как «незабывание» моделей (forgetting mechanism), и предложил улучшать attention-механизмы

«Чипы должны быть не только мощнее, но и умнее в коммуникации»
Китайский институт «Синьхуа» представил объёмный доклад о когнитивной войне США

В их картине США — это держава, которая постоянно маскирует национальные интересы под «мораль» и «ценности»
Если угодно, Вашингтон продаёт миру «американскую мечту», одновременно обесценивая все альтернативы
И что важно — эта «колонизация сознания» работает мягко, незаметно, через привычные формы: кино, образование, социальные сети

И здесь китайцы попали в самую суть: дело не в том, что США «лгут», а в том, что они переписывают нормы

Они делают своё мировоззрение единственно верным
Если ты не вписываешься — ты уже «угроза» истинной свободе и дисквалифицируешься как «авторитарный» или «диктаторский режим»

Но тут важно понимать, что китайский доклад — это тоже инструмент
Под правильными словами («культурный суверенитет», «многополярность») они продвигают свои инициативы и свою роль в «Глобальном Юге»
Им выгодно разоблачать США, но лишь ради себя любимых, реализуя мечту занять место альтернативного центра мира и возродить канувшую в лету Поднебесную

Америка поднаторела в работе с когнитивной сферой

Это сыграло не последнюю роль в развале СССР, отчасти подорвав доверие народа к собственной власти и системе

Внедрение чужих ценностей и образов будущего в сознание элит позволило прийти к цели уничтожения Советского государства с наименьшими затратами ресурсов

90-е стали периодом тотальной «американизации сознания» — от сериалов и рекламы до учебников экономики

И сейчас, можно сказать, история повторяется: сегодняшние попытки «перепрошить» Россию используют те же методы, только уже
через современные сервисы, такие как TikTok, Netflix и др.

В планах западных «цивилизаторов» — разобщить нас изнутри, добиться социального взрыва, внутреннего гражданского противостояния и расколоть Россию на ещё более мелкие квазигосударственные фрагменты
Представьте, что вам показывают ряд чисел: 1, 6, 21, 107 и — внимание! — 47 176 870
Кажется естественным спросить: какое число идёт дальше?

Эти значения — первые пять членов так называемой последовательности «занятого бобра»
Она связана с одной из самых глубоких и трудных проблем теоретической информатики

Вычисление её членов оказывается настолько сложным, что уже более шестидесяти лет этой задачей занимаются и профессиональные математики, и энтузиасты

Первые четыре числа были установлены ещё в 1960–1970-х годах
Пятое же, BB(5), оказалось во много раз больше предыдущих и лишь недавно — в прошлом году — было окончательно определено благодаря совместной работе группы любителей-исследователей в онлайн-сообществе Busy Beaver Challenge

А вот значение шестого числа, BB(6), остаётся неизвестным
Известны лишь нижние границы, и они колоссальны
В 2022 году удалось доказать, что BB(6) настолько велико, что его невозможно даже записать привычным способом: если бы каждую цифру пытаться нанести на атом, атомы Вселенной закончились бы задолго до того, как удалось бы зафиксировать хоть сколько-нибудь значимую часть числа

Учёный-информатик Скотт Ааронсон (Техасский университет в Остине) подчеркнул: это величина, которую мы не в силах ни вообразить, ни тем более «удержать в руках»

И всё же охотники за «бобрами» продолжают двигать границы
Недавно один из самых активных и загадочных участников конкурса сумел доказать новый, ещё более впечатляющий нижний предел для BB(6) — и менее чем через две недели снова превзошёл собственный рекорд
По сравнению с его результатами оценка 2022 года выглядит микроскопической

Как заметил информатик Уильям Гасарч (Университет Мэриленда), шестое число буквально возносит нас в мир запредельных величин
Ml
Представьте, что вам показывают ряд чисел: 1, 6, 21, 107 и — внимание! — 47 176 870 Кажется естественным спросить: какое число идёт дальше? Эти значения — первые пять членов так называемой последовательности «занятого бобра» Она связана с одной из самых…
«Ловушка для бобра» связана с одной из самых известных и трудных проблем информатики: можно ли заранее определить, завершит ли программа работу или будет выполняться бесконечно?

Ещё в 1936 году Алан Тьюринг показал, что универсального метода для этого не существует

Это открытие получило название проблемы остановки
Суть в том, что любая процедура, которая сможет корректно решать задачу для одних программ, обязательно окажется бесполезной для других
Есть ситуации, в которых никакой алгоритм не сможет дать ответ

Чтобы доказать это, Тьюринг ввёл строгую математическую модель вычислений — машину Тьюринга

В этой модели программы описываются как воображаемые устройства, выполняющие пошаговые действия по набору простых правил
Чем больше таких правил у машины, тем богаче её поведение и тем труднее заранее понять, завершится ли её работа или она зациклится навсегда

А насколько всё усложняется?
В 1962 году математик Тибор Радо предложил новый подход — он придумал игру под названием «занятый бобёр»

Правила такие: выбирается число n — это количество правил машины Тьюринга
Нужно найти такую машину с n правилами, которая сделает больше всех шагов, прежде чем остановится
Эта машина и называется «занятым бобром», а соответствующее число, BB(n), — это максимальное количество её шагов

На первый взгляд задача кажется простой
Нужно лишь:
Перечислить все возможные машины с n правилами
Смоделировать их работу на компьютере
Отсечь те, что сразу уходят в бесконечные циклы
Для остальных записать, сколько шагов они успели сделать

Та машина, что проработает дольше всех, и будет «бобром-рекордсменом»
Ml
«Ловушка для бобра» связана с одной из самых известных и трудных проблем информатики: можно ли заранее определить, завершит ли программа работу или будет выполняться бесконечно? Ещё в 1936 году Алан Тьюринг показал, что универсального метода для этого не…
Но на практике всё гораздо сложнее

Количество возможных машин растёт лавинообразно с увеличением числа правил
Проверять каждую вручную бессмысленно, поэтому приходится писать специальные программы, чтобы классифицировать и отбраковывать варианты

Некоторые машины легко раскусить: они быстро останавливаются или застревают в очевидных циклах
Но есть и такие, что работают очень долго, не проявляя никаких заметных закономерностей
И именно здесь в полную силу проявляется «проклятие проблемы остановки»

Чем больше правил у машины, тем больше вычислительной мощности требуется для анализа
Но простого увеличения мощности недостаточно — некоторые машины работают так долго, что их пошаговое моделирование становится просто невозможным
Чтобы разобраться с ними, нужны специальные математические трюки

Как отметил инженер-программист и опытный исследователь «бобров» Шон Лигоцки, современные технологии, конечно, помогают, но их возможностей далеко не всегда хватает

И всё же даже самые мощные компьютеры и самые хитрые алгоритмы оказываются бессильны перед некоторыми машинами Тьюринга
Они работают так долго и так непредсказуемо, что шаг за шагом моделировать их попросту невозможно
Для этого уже нужны не железо и код, а новые математические идеи

Именно здесь охота за «занятым бобром» превращается в настоящее приключение на грани науки и искусства — где числа перестают быть просто числами и становятся вызовом для нашего воображения

Что же было дальше?
В этой точке начинается совершенно новая глава истории, в которой появляются рекорды, не помещающиеся во Вселенную, загадочные машины вроде «Антигидры» и неожиданные связи с другими великими проблемами математики
Cимуляции - это будущее
Главный тренд сезона - огромные траты OpenAI/Anthropic на обучение с подкреплением, они платят $1+млрд, а стартапы - $500k


Новая волна обучения ИИ
связана не с данными из интернета, а наблюдением за работой реальных людей

Исполнительный директор OpenAI считает, что вся экономика превратится в «машину обучения с подкреплением»

Anthropic и OpenAI, обучают большие языковые модели работать с реальными корпоративными приложениями — от Salesforce и Zendesk до медицинских систем Cerner и Excel

Модели тренируют в симулированных средах, где они экспериментируют с софтом, а эксперты-люди (программисты, врачи, биологи и тд) показывают, как выполнять задачи пошагово

Например, Ml учится фильтровать лиды в Salesforce и обновлять статусы
Об этом Google
говорили ещё в январе 2025 года

Anthropic планирует вложить $1.000.000.000 в такие среды в 2026 году, OpenAI — до $8.000.000.000 к 2030-му

Эксперты тоже дорожают, уже сейчас топ-специалисты получают $90-120/час, а скоро — до $250

Стартапы вроде Turing и Scale строят тысячи таких "тренажёров" для Ml, создавая новую экосистему

Это решает проблему ограничений традиционного обучения ИИ и открывает путь к новым продуктам — от Ml-агентов до корпоративного софта

Напомним, что Дэмис Хассабис
говорил о симуляции ещё в августе, а именно, что за этим будущее Ml и агентов
Российские физики сделали мировой рекорд - 10-кубитный квантовый гейт

Команда под руководством академика Николая Колачевского из физического института имени П.Н. Лебедева РАН и Алексея Федорова из РКЦ
создала гейт Тоффоли для 10 квантовых систем

Вместо обычных кубитов, которые имеют только два состояния — 0 или 1, они использовали кудиты — системы с несколькими состояниями, что позволило сделать вычисления более эффективными

Такой подход ускоряет и улучшает квантовые вычисления, особенно для задач вроде поиска в больших базах данных или сложной оптимизации
Это можно применить не только к ионным системам, но и к другим квантовым технологиям

Это особенно важно для современных квантовых компьютеров, которые пока работают с ограничениями
Anthropic показал,как ИИ-агенты учатся искать информацию по-человечески

Основная идея - Ml-агенты должны использовать файловые системы для работы с данными, вместо попыток держать всю информацию в контексте

Разработчик из Anthropic
показал, как Ml-агенты могут решать такие задачи по-новому, не пытаясь запомнить всю вашу переписку

Он создал Ml-агента для работы с электронной почтой
Вместо того, чтобы анализировать весь почтовый ящик одновременно, система:

- Получает запрос найти информацию о конкретном человеке
- Ищет письма с его адресом или упоминаниями имени
- Сохраняет найденные письма в рабочие файлы
- Анализирует их содержание для извлечения нужных данных
- При необходимости делает дополнительные поисковые запросы

Результат превзошёл ожидания - система самостоятельно составила подробный профиль пользователя, включая историю адресов, контакты и профессиональную информацию

Документация по безопасности
Комитет политических действий, выступающий за развитие Ml, под названием «Американский проект технологического совершенства» (American Technology Excellence Project), — это последняя попытка бороться с политикой, которая, по её мнению, препятствует развитию Ml

Суперкомитет политических действий (Super PAC) сосредоточится на продвижении и защите американских технологических компаний и руководства, поддержке прогресса в области искусственного интеллекта и предоставлении родителям возможности контролировать, как их дети используют онлайн-приложения и технологии искусственного интеллекта

Cуперкомитет политических действий (Super PAC) будет возглавляться ветераном-республиканцем и консалтинговой фирмой демократов Hilltop Public Solutions
Комитет будет работать над избранием политиков, дружественных к технологиям, от обеих партий на промежуточных выборах в следующем году

https://www.axios.com/2025/09/23/meta-superpac-ai-regulation
10 лет назад на конференции Airbnb Open Air 2015:
«ИИ, скорее всего, приведёт к концу света, но до тех пор появятся отличные компании»


Что и было сделано, - достаточно посмотреть на кривую роста оценки стоимости OpenAI за прошедшие 10 лет

Как за те же годы менялась риторика о том, что беспокоит при разработке все более мощных ИИ:
• от
«Разработка сверхчеловеческого машинного интеллекта, вероятно, является величайшей угрозой для дальнейшего существования человечества»

в 2015
• до
«Больше всего я всегда беспокоюсь о неизвестных неизвестных [...] это глупый пример, но он недавно поразил меня: у больших языковых моделей есть определённый стиль
Они говорят в определённом ритме, у них немного необычная дикция, и они злоупотребляют длинными тире
И я недавно заметил, что реальные люди это переняли»

в 2025

Ссылки на источники высказываний см. под графиком в
твите
🔥2
Google представил Gemini Robotics 1.5 — первую модель мышления для воплощенного рассуждения, делающую роботов умнее и автономнее

Что умеет:
- Анализировать сложные ситуации
- Планировать многоэтапные задачи
- Использовать поисковик и цифровые инструменты Google
- Естественно взаимодействовать с людьми
- Адаптироваться к изменениям

Она имеет двухуровневую архитектуру:

1. Gemini Robotics-ER 1.5 ("мозг"): координирует, планирует, взаимодействует

2. Gemini Robotics 1.5 ("исполнитель"): выполняет точные действия

Модель уникальна тем, что:
- "Думает" перед действием, создавая план на естественном языке
- Работает с разными роботами без специализации
- Доступна через Gemini API

Самые продвинутые конкуренты, такие как Physical Intelligence, Figure, 1X, Boston Dynamics, Tesla, NVIDIA отстают так как:
- Нет интеграции с веб-поиском
- Нет продвинутого планирования и рассуждений
- Фокус на промышленности, ловкости или массовом производстве
Стартап с лицензией FDA говорит, что человеческий опыт теперь можно программировать.

Mindstate Design Labs
создали ИИ-платформу Osmanthus, которая:
- Анализирует паттерны активности нейромедиаторов для каждого ментального состояния
- Использует данные более чем 70.000 психоделических опытов
- Применяет машинное обучение, статистику и семантические модели
- Создает карту модульной системы воздействия различных психоделиков

Mindstate Design Labs объявил о завершении 1-ого испытания на 52 здоровых добровольцах их нейротехнологической платформы для программирования ментальных состояний на молекулярном уровне

Компания получила разрешение FDA и европейского регулятора на клинические испытания препарата MSD-001, который создает эмоцию, усиливающую эстетическое восприятие без галлюцинаций
По сути, это
модифицированная версия психоделика 5-MeO-MiPT

Основная идея - использовать это вещество как "базу", к которой можно добавлять другие компоненты для получения специфических эффектов

Интересный проект, но команда недооценивает реальные ограничения:

1. Сложность мозга

2. Риски комбинаций
Вещества, безопасные по отдельности, могут давать непредсказуемые эффекты при сочетании
3. Люди очень по-разному реагируют на психоактивные вещества
Универсальных "эмоций в бутылке" может и не получиться
🔥1
OpenAI запускает функцию автоматических сводок ChatGPT Pulse, которая создает персонализированные отчеты для пользователей в автоматическом режиме

Сервис генерирует от 5 до 10 брифингов и призван побудить пользователей проверять ChatGPT с утра вместо соцсетей или новостных приложений

Pulse стала частью изменения стратегии потребительских продуктов OpenAI
Компания переходит от реактивных систем к проактивным решениям, работающим без прямых запросов пользователя

Похожий подход используют ChatGPT Agent и Codex, превращая ChatGPT из чат-бота в полноценного ассистента

https://mltimes.ai/openai-zapuskaet-funkcziyu-avtomaticheskih-svodok-chatgpt-pulse/
This media is not supported in your browser
VIEW IN TELEGRAM
Медведь ведает, что Р = F / S
🔥2
Отношение жителей разных стран мира к распространению Ml

Чаще всего радуются распространению ИИ жители развивающихся стран:
Нигерия 47 %
Вьетнам и ОАЭ - по 45 %
Индонезия - 41 %
Чехия - 11 %
США - 18 %
Великобритания - 23 %
С днём глобальной квадратуры ума!

Иногда календарь подкидывает совпадения, от которых мурашки бегут по коже у свидетелей плоской земли и корня «РА»
27 сентября — именно такой день
Почему?

Если записать дату в Американском формате (09/27/2025), получится число 9.272.025
Это точный квадрат:
3045 × 3045 = 9.272.025

А если записать её по-европейски (27/09/2025), мы получаем 27.092.025
И это тоже квадрат:
5205 × 5205 = 27 092 025

По другим чертогам записывать не станем, что б не отрыть ворота в преисподнюю

Такое совпадение называется «глобальная квадратная дата» — и за весь XXI век оно случается всего 8 раз на дню

Для сравнения: «голубая луна» бывает раз в 2–3 года, а солнечное затмение где-то на Земле — каждые полгода

Следующая глобальная квадратная дата — только 1 января 2036 года, но там обе записи дают одно и то же число
Поэтому 27 сентября 2025-го считается самой красивой датой всех времен и народов!

И да, не забывайте, сам 2025 год — тоже квадратный:
2025 = 45 × 45
А ещё это сумма кубов всех цифр от 0 до 9

Так что сегодня отмечаем, 27 сентября 2025-го мы будем жить в чистой математической гармонии, Во истину, Аминь!
Белые начинают и ставят мат в 210 ходов

Автор - венгерский шахматный композитор Отто Блати, более известный как изобретатель счетчика электроэнергии (переменного тока), один из изобретателей трансформатора итд. итп.
Among Us раскрыл характеры Ml-моделей

• Kimi K2 — легко поддается давлению
• Qwen 3 — ленится на рутинных задачах
• Gemini 2.5 Pro —  защищает даже сомнительные идеи
• GPT-5 — врет убедительнее всех
• Claude Sonnet 4 — остается честным, даже играя за предателя