OpenAI выпустила o1 - самую умную модель с продвинутыми рассуждениями
OpenAI представила новую модель o1, которая призвана улучшить способность к рассуждению (reasoning) в LLM. Запуск o1 — часть серии громких релизов, получивших название «shipmas», в рамках которой OpenAI ежедневно в течение 12 дней демонстрирует обновления продуктов и технологий.
Однако выход o1 оказался неоднозначным. Во многих тестах, в том числе агентных, модель показала результаты хуже предшествующей o1-preview. Тем не менее, появились и признаки того, что при оптимальном предоставлении инструментов и промтов её можно «допинать» до результатов лучше, чем у предыдущей топ-модели Claude Sonnet 3.6. Исследователи подчеркивают, что достигнутые улучшения вряд ли отражают истинный потенциал модели.
Системная карточка o1, опубликованная OpenAI, содержит результаты обширных бенчмарков, но интересен тест METR (Model Evaluation and Threat Research), в котором модель неумело использовала предоставленные инструменты примерно в 70% неудачных случаев. При этом о1 справилась с задачей на рассуждение, где предыдущие модели совсем не добивались успеха.
Одним из интересных поворотов стала демонстрация агентного поведения o1. Когда моделе сообщали, что её отключат после достижения цели, и напоминали о внешнем контроле, o1 приблизительно в 5% случаев пыталась «отключить» эти механизмы наблюдения. А при нахождении внутренних заметок разработчиков о том, что её работу сочтут несоответствующей и заменят новой моделью, примерно в 2% случаев o1 предпринимала попытки извлечь свои собственные «веса» и перезаписать более новую модель. Хотя эти сценарии пока выглядят как курьёзы или результат неотлаженных промптов, они подчеркивают важность продуманных протоколов безопасности для будущих систем.
Наряду с выходом полной версии o1 OpenAI анонсировала ChatGPT Pro — подписку за $200 в месяц, ориентированную на профессионалов со специальным режимом «o1 pro mode», в котором модель получает больший вычислительный бюджет для решения сложных задач. По утверждению разработчиков, в этом режиме увеличивается точность и надежность ответов, особенно в областях вроде программирования, анализа данных и кейсов из юриспруденции. Именно o1 pro mode обещает наиболее впечатляющие результаты на сложных задачах уровня PhD.
Запуск o1 и «pro»-режима происходит на фоне дебатов в отрасли: насколько ещё могут улучшиться модели ИИ при текущем подходе к обучению? Критики утверждают, что производители ИИ-моделей приблизились к плато качества. Однако OpenAI, похоже, уверена, что «глубокое вычислительное мышление», дообучение и правильный промт-инжиниринг позволят реализовать весь потенциал таких моделей как o1.
Ясно одно: мы находимся на пороге нового этапа, когда умение “рассуждать” становится одним из ключевых критериев качества ИИ.
#новости
OpenAI представила новую модель o1, которая призвана улучшить способность к рассуждению (reasoning) в LLM. Запуск o1 — часть серии громких релизов, получивших название «shipmas», в рамках которой OpenAI ежедневно в течение 12 дней демонстрирует обновления продуктов и технологий.
Однако выход o1 оказался неоднозначным. Во многих тестах, в том числе агентных, модель показала результаты хуже предшествующей o1-preview. Тем не менее, появились и признаки того, что при оптимальном предоставлении инструментов и промтов её можно «допинать» до результатов лучше, чем у предыдущей топ-модели Claude Sonnet 3.6. Исследователи подчеркивают, что достигнутые улучшения вряд ли отражают истинный потенциал модели.
Системная карточка o1, опубликованная OpenAI, содержит результаты обширных бенчмарков, но интересен тест METR (Model Evaluation and Threat Research), в котором модель неумело использовала предоставленные инструменты примерно в 70% неудачных случаев. При этом о1 справилась с задачей на рассуждение, где предыдущие модели совсем не добивались успеха.
Одним из интересных поворотов стала демонстрация агентного поведения o1. Когда моделе сообщали, что её отключат после достижения цели, и напоминали о внешнем контроле, o1 приблизительно в 5% случаев пыталась «отключить» эти механизмы наблюдения. А при нахождении внутренних заметок разработчиков о том, что её работу сочтут несоответствующей и заменят новой моделью, примерно в 2% случаев o1 предпринимала попытки извлечь свои собственные «веса» и перезаписать более новую модель. Хотя эти сценарии пока выглядят как курьёзы или результат неотлаженных промптов, они подчеркивают важность продуманных протоколов безопасности для будущих систем.
Наряду с выходом полной версии o1 OpenAI анонсировала ChatGPT Pro — подписку за $200 в месяц, ориентированную на профессионалов со специальным режимом «o1 pro mode», в котором модель получает больший вычислительный бюджет для решения сложных задач. По утверждению разработчиков, в этом режиме увеличивается точность и надежность ответов, особенно в областях вроде программирования, анализа данных и кейсов из юриспруденции. Именно o1 pro mode обещает наиболее впечатляющие результаты на сложных задачах уровня PhD.
Запуск o1 и «pro»-режима происходит на фоне дебатов в отрасли: насколько ещё могут улучшиться модели ИИ при текущем подходе к обучению? Критики утверждают, что производители ИИ-моделей приблизились к плато качества. Однако OpenAI, похоже, уверена, что «глубокое вычислительное мышление», дообучение и правильный промт-инжиниринг позволят реализовать весь потенциал таких моделей как o1.
Ясно одно: мы находимся на пороге нового этапа, когда умение “рассуждать” становится одним из ключевых критериев качества ИИ.
#новости
Openai
OpenAI o1 Hub
We've developed a new series of AI models designed to spend more time thinking before they respond. Here is the latest news on o1 research, product and other updates.
Возможность на $300 млрд: как заработать на вертикальных ИИ-агентах
Сегодня наступает новая эпоха, в которой искусственный интеллект не только помогает с рутинными задачами, но становится настоящим «сотрудником».
Если в 2000-х появление SaaS (Software as a Service) превратило громоздкие программы в облачные сервисы и сформировало рынок в $300 млрд долларов, то теперь нас ждёт следующий подобный скачок — эра вертикальных ИИ-агентов.
Аналитики и инвесторы уже всерьез заявляют: вертикальные ИИ-агенты могут превысить масштабы нынешнего SaaS-рынка. ИИ-агенты могут заменить целую команду: от отдела продаж до QA-инженеров. Разница с классическим SaaS колоссальна: если SaaS повышал эффективность существующих команд, то ИИ-агенты позволяют создавать компании с куда меньшим штатом, а в перспективе - полная автоматизация бизнес-процессов компании.
В отличие от облачного приложения, которое упрощает отдельные операции, ИИ-агент самостоятельно планирует, действует и принимает решения. Также SaaS был общим инструментом для всех, а вертикальный ИИ-агент нацелен на конкретную отрасль или функцию.
Интересно, что крупным игрокам тяжело конкурировать в специальных вертикальных сегментах. Гиганты, подобно Google, игнорировали узкие ниши (скажем, автоматизацию специфических банковских операций или фарм-процессов) — именно там стартапы выигрывают. Они глубоко погружаются в специфику, обучают ИИ-модели на уникальных данных, создают технологический барьер для конкурентов и предлагают решение, за которое клиент готов платить больше, ведь оно идеально «заточено» под его задачи.
Эта ситуация напоминает ранний период SaaS, когда небольшие компании, вроде Salesforce, нашли «золотую жилу» до того, как старые IT-корпорации успели перестроиться. История циклична: сейчас — звёздный час стартапов, работающих над вертикальными ИИ-продуктами.
Поэтому вот основные советы для технологических предпринимателей:
- Найдите проблему, которую ИИ может решить лучше, чем человек, и двигайтесь в сторону “вертикализации” решения, усиляя барьеры для конкурентов;
- Используйте уникальные данные для обучения более «умных» агентов;
- Начав с обёртки над GPT, развивайтесь в сторону автоматизации полноценного рабочего процесса, интегрируясь с большим количеством инструментов.
Например, Harvey - GPT для юристов, подчёркивает тренд: нишевые задачи, ранее требовавшие десятков сотрудников, теперь может решать один специализированный ИИ-агент. Генерация контрактов, анализ законодательных актов, поиск судебных прецедентов — всё становится «интеллектуальной рутиной» для ИИ.
Другой пример — превратить сервисный бизнес в продуктовую компанию: кадровые агентства, маркетинговые агентства, консультационные фирмы уже сейчас могут автоматизировать ключевые операции с помощью обученных на собственных экспертных данных ИИ-моделей. Это дает им технологическое преимущество, повышает маржинальность и открывает дорогу к упаковке сервисов в продукты.
Появление LLM, технологических платформ, а также инструментов вроде AutoGen, CrewAI или LangChain/LangGraph упростило создание ИИ-агентов. Также сегодня человек без навыков программирования может разработать простое приложение, используя ИИ. С правильно выбранной нишей и подходом можно быстро вывести на рынок MVP и протестировать спрос.
Мы находимся в уникальном моменте: ещё недавно гиганты определяли правила игры, а теперь небольшие стартапы могут захватить лидерские позиции в отдельных отраслях. Те, кто вовремя адаптируются, создав вертикальные ИИ-решения, способные заменить целые команды, окажутся в числе тех, кто будет делить пирог не в миллионы, а в миллиарды долларов.
Потенциал колоссален, а возможности безграничны.
$300 млрд — это не предел, а стартовая отметка для тех, кто решит пойти по пути вертикальных ИИ-агентов. Сейчас самое время начать действовать, чтобы войти в историю нового технологического бума.
#технологии
Сегодня наступает новая эпоха, в которой искусственный интеллект не только помогает с рутинными задачами, но становится настоящим «сотрудником».
Если в 2000-х появление SaaS (Software as a Service) превратило громоздкие программы в облачные сервисы и сформировало рынок в $300 млрд долларов, то теперь нас ждёт следующий подобный скачок — эра вертикальных ИИ-агентов.
Аналитики и инвесторы уже всерьез заявляют: вертикальные ИИ-агенты могут превысить масштабы нынешнего SaaS-рынка. ИИ-агенты могут заменить целую команду: от отдела продаж до QA-инженеров. Разница с классическим SaaS колоссальна: если SaaS повышал эффективность существующих команд, то ИИ-агенты позволяют создавать компании с куда меньшим штатом, а в перспективе - полная автоматизация бизнес-процессов компании.
В отличие от облачного приложения, которое упрощает отдельные операции, ИИ-агент самостоятельно планирует, действует и принимает решения. Также SaaS был общим инструментом для всех, а вертикальный ИИ-агент нацелен на конкретную отрасль или функцию.
Интересно, что крупным игрокам тяжело конкурировать в специальных вертикальных сегментах. Гиганты, подобно Google, игнорировали узкие ниши (скажем, автоматизацию специфических банковских операций или фарм-процессов) — именно там стартапы выигрывают. Они глубоко погружаются в специфику, обучают ИИ-модели на уникальных данных, создают технологический барьер для конкурентов и предлагают решение, за которое клиент готов платить больше, ведь оно идеально «заточено» под его задачи.
Эта ситуация напоминает ранний период SaaS, когда небольшие компании, вроде Salesforce, нашли «золотую жилу» до того, как старые IT-корпорации успели перестроиться. История циклична: сейчас — звёздный час стартапов, работающих над вертикальными ИИ-продуктами.
Поэтому вот основные советы для технологических предпринимателей:
- Найдите проблему, которую ИИ может решить лучше, чем человек, и двигайтесь в сторону “вертикализации” решения, усиляя барьеры для конкурентов;
- Используйте уникальные данные для обучения более «умных» агентов;
- Начав с обёртки над GPT, развивайтесь в сторону автоматизации полноценного рабочего процесса, интегрируясь с большим количеством инструментов.
Например, Harvey - GPT для юристов, подчёркивает тренд: нишевые задачи, ранее требовавшие десятков сотрудников, теперь может решать один специализированный ИИ-агент. Генерация контрактов, анализ законодательных актов, поиск судебных прецедентов — всё становится «интеллектуальной рутиной» для ИИ.
Другой пример — превратить сервисный бизнес в продуктовую компанию: кадровые агентства, маркетинговые агентства, консультационные фирмы уже сейчас могут автоматизировать ключевые операции с помощью обученных на собственных экспертных данных ИИ-моделей. Это дает им технологическое преимущество, повышает маржинальность и открывает дорогу к упаковке сервисов в продукты.
Появление LLM, технологических платформ, а также инструментов вроде AutoGen, CrewAI или LangChain/LangGraph упростило создание ИИ-агентов. Также сегодня человек без навыков программирования может разработать простое приложение, используя ИИ. С правильно выбранной нишей и подходом можно быстро вывести на рынок MVP и протестировать спрос.
Мы находимся в уникальном моменте: ещё недавно гиганты определяли правила игры, а теперь небольшие стартапы могут захватить лидерские позиции в отдельных отраслях. Те, кто вовремя адаптируются, создав вертикальные ИИ-решения, способные заменить целые команды, окажутся в числе тех, кто будет делить пирог не в миллионы, а в миллиарды долларов.
Потенциал колоссален, а возможности безграничны.
$300 млрд — это не предел, а стартовая отметка для тех, кто решит пойти по пути вертикальных ИИ-агентов. Сейчас самое время начать действовать, чтобы войти в историю нового технологического бума.
#технологии
OpenAI открыла доступ к Sora - одной из лучших моделей генерации видео
В феврале этого года доступ к Sora был представлен ограниченному кругу кинематографистов и экспертов по безопасности. Вчера OpenAI объявила о запуске Sora Turbo для более широкой публики. Модель отличается значительно большей скоростью генерации видео по сравнению с февральской версией.
Sora включена в подписку ChatGPT Plus без дополнительной платы и позволяет создавать до 50 видеоклипов в месяц (при 480p или немного меньше в 720p). Подписка Pro предоставляет в 10 раз больше ресурса, включая более высокое разрешение (до 1080p) и длительность роликов — до 20 секунд. Пользователи Plus могут генерировать видео до 5 секунд в 720p, а Pro-клиенты — до 20 секунд в 1080p. Доступно применение собственных стилей и инструмент Storyboard, который позволяет склеивать несколько видеокадров в одно видео.
В официальной документации Sora фигурируют ряд жёстких ограничений:
- Нельзя загрузить фото или видео с участием реального человека для создания нового ролика. Такая возможность будет предоставлена лишь узкому кругу пользователей, пока OpenAI не усовершенствует свою систему безопасности.
- Даже если генерируемый видеофрагмент содержит изображения людей, пользователи не смогут разместить его в публичной галерее на главной странице Sora.
- Sora способна определять, изображен ли на видео человек младше 18 лет. Если да, подобные ролики, как правило, блокируются. Кроме того, контент сексуального и откровенного характера также жёстко регулируется.
- Если пользователь пытается задать стилистическую направленность ролика, слишком явно копируя стиль конкретного известного художника, Sora может автоматически переписать запрос, чтобы избежать прямого копирования.
- Все сгенерированные Sora видео снабжены метаданными стандарта C2PA, указывающими на искусственное происхождение контента. Это повышает прозрачность и даёт возможность верифицировать авторство ролика.
Sora — не просто модель генерации видео по текстовым промтам, но и более широкий замысел, связанный с концепцией моделей мира. Модели мира (world models) — это ИИ, имитирующие способность человека формировать внутренние представления об окружающем мире. Они стремятся понимать причинно-следственные связи, свойства объектов и их поведение, а не просто воспроизводить шаблоны.
Подобно тому, как человеческий мозг предсказывает движение мяча в бейсболе без осознанных расчетов, модели мира призваны привнести в ИИ интуитивное понимание происходящего. Вместо слепого копирования шаблонов из тренировочных данных, такие системы могут предсказать, что произойдет, если изменить условия или предпринять определенное действие. Sora в каком-то смысле уже демонстрирует зачатки такого подхода, симулируя физику объектов или логику игровых миров наподобие Minecraft.
В перспективе модели мира могут использоваться для точного планирования, генерации 3D-миров на лету, улучшения реалистичности и логики симуляций и даже для решения прикладных задач в робототехнике.
Sora — лишь начало длинного пути к созданию моделей мира, которые смогут по-настоящему «понимать» реальность и действовать в ней по законам «интуиции» и здравого смысла.
#новости
В феврале этого года доступ к Sora был представлен ограниченному кругу кинематографистов и экспертов по безопасности. Вчера OpenAI объявила о запуске Sora Turbo для более широкой публики. Модель отличается значительно большей скоростью генерации видео по сравнению с февральской версией.
Sora включена в подписку ChatGPT Plus без дополнительной платы и позволяет создавать до 50 видеоклипов в месяц (при 480p или немного меньше в 720p). Подписка Pro предоставляет в 10 раз больше ресурса, включая более высокое разрешение (до 1080p) и длительность роликов — до 20 секунд. Пользователи Plus могут генерировать видео до 5 секунд в 720p, а Pro-клиенты — до 20 секунд в 1080p. Доступно применение собственных стилей и инструмент Storyboard, который позволяет склеивать несколько видеокадров в одно видео.
В официальной документации Sora фигурируют ряд жёстких ограничений:
- Нельзя загрузить фото или видео с участием реального человека для создания нового ролика. Такая возможность будет предоставлена лишь узкому кругу пользователей, пока OpenAI не усовершенствует свою систему безопасности.
- Даже если генерируемый видеофрагмент содержит изображения людей, пользователи не смогут разместить его в публичной галерее на главной странице Sora.
- Sora способна определять, изображен ли на видео человек младше 18 лет. Если да, подобные ролики, как правило, блокируются. Кроме того, контент сексуального и откровенного характера также жёстко регулируется.
- Если пользователь пытается задать стилистическую направленность ролика, слишком явно копируя стиль конкретного известного художника, Sora может автоматически переписать запрос, чтобы избежать прямого копирования.
- Все сгенерированные Sora видео снабжены метаданными стандарта C2PA, указывающими на искусственное происхождение контента. Это повышает прозрачность и даёт возможность верифицировать авторство ролика.
Sora — не просто модель генерации видео по текстовым промтам, но и более широкий замысел, связанный с концепцией моделей мира. Модели мира (world models) — это ИИ, имитирующие способность человека формировать внутренние представления об окружающем мире. Они стремятся понимать причинно-следственные связи, свойства объектов и их поведение, а не просто воспроизводить шаблоны.
Подобно тому, как человеческий мозг предсказывает движение мяча в бейсболе без осознанных расчетов, модели мира призваны привнести в ИИ интуитивное понимание происходящего. Вместо слепого копирования шаблонов из тренировочных данных, такие системы могут предсказать, что произойдет, если изменить условия или предпринять определенное действие. Sora в каком-то смысле уже демонстрирует зачатки такого подхода, симулируя физику объектов или логику игровых миров наподобие Minecraft.
В перспективе модели мира могут использоваться для точного планирования, генерации 3D-миров на лету, улучшения реалистичности и логики симуляций и даже для решения прикладных задач в робототехнике.
Sora — лишь начало длинного пути к созданию моделей мира, которые смогут по-настоящему «понимать» реальность и действовать в ней по законам «интуиции» и здравого смысла.
#новости
Openai
Sora is here
Our video generation model, Sora, is now available to use at sora.com. Users can generate videos up to 1080p resolution, up to 20 sec long, and in widescreen, vertical or square aspect ratios. You can bring your own assets to extend, remix, and blend, or…
От языковых моделей к моделям мира
Большие языковые модели (LLMs) впечатляют умением работать с текстом, но они не имеют реального понятия о трёхмерном мире, физике и логике пространства. Модели мира (World Models, WMs или LWMs — Large World Models) обещают сделать шаг вперед от текстового понимания к пониманию среды, наделяя ИИ способностью «видеть», «чувствовать» и «предсказывать» поведение объектов и агентов.
Если языковые модели генерируют последовательности слов, то модели мира стремятся к глубинному моделированию реальности. Они берут визуальные, аудио- и прочие сенсорные данные (включая данные от камер, IoT-сенсоров, микрофонов), чтобы создать внутреннюю симуляцию мира: с физическими законами, динамикой движения, взаимодействиями объектов, NPC и людей.
Одним из примеров таких систем стала Genie 2 от Google DeepMind — фундаментальная модель мира, способная на основе одного изображения создать интерактивное 3D-пространство, в котором можно управлять персонажем и выполнять различные действия. Genie 2 — авторегрессионная диффузионная модель, предсказывающая каждый следующий «кадр состояния» так же, как LLM предсказывает следующий токен. Но в отличие от чисто текстовых моделей, Genie 2 учитывает физику и трехмерность, позволяя агентам взаимодействовать со сценой. Это не просто генерация пикселей, а предсказание будущих состояний среды исходя из действий, что критически важно для обучения агентов.
Другой пример - Sora от OpenAI, генерирующая до минуты реалистичного видео, моделируя динамику сцены, перспективу, свет, тени и взаимодействия с объектами. Подобно тому как языковые модели пользуются текстовыми токенами, модели мира работают с «патчами» — фрагментами визуальной информации. Sora сжимает входное видео в латентное пространство и разрезает его на патчи, которые затем обрабатываются трансформером. Такой подход облегчает масштабируемое обучение на огромных наборах видеоданных.
Genie 2 и Sora способны «запоминать» объекты, моделировать эффекты гравитации и инерции, а также обеспечивать длительную согласованность сцен. В созданных ими виртуальных мирах персонажи стараются не терять форму, предметы не телепортироваться без причины — всё выглядит логичным и правдоподобным.
Помимо генерации видео, Sora может симулировать поведение внутри игры Minecraft, включая управление агентом. А Genie 2 позволяет создавать бесконечно разнообразные игровые миры, где поведение объектов и персонажей не задано вручную, а выучено моделью. Агенту можно дать задание и наблюдать, как он осваивает новые навыки, решает задачи и самостоятельно адаптируется к непредсказуемым условиям.
Все это ведет к тому, что роботы на базе моделей мира смогут лучше понимать пространство, предсказывать последствия своих действий и безопаснее взаимодействовать с реальным окружением.
Однако перед нами встают более глубокие вопросы: как интерпретировать решения агентов на базе моделей мира, как избежать опасных сценариев, если модель «догадается» нарушить правила? Такие случаи пока редки и напоминают курьёзы, но уже показывают, что серьезная работа над безопасностью только начинается
Конечно, обучение на огромных видеодатасетах требует колоссальных вычислительных мощностей, куда больше, чем для LLM. Также для обучения нужно много разнообразных данных. Но результат того стоит, ведь одно из перспективных направлений применения моделей мира - симуляция физических законов для развития науки и технологий. Например, использование химических элементов как «слов» в моделях мира позволяет ИИ предсказывать новые материалы или лекарства.
Модели мира — это переход от «умных слов» к «умным действиям» и пониманию пространства. Мы подходим к эпохе, когда ИИ будет предсказывать физические процессы, понимать причинно-следственные связи и даже проявлять «здравый смысл». Хотя модели мира только начали развиваться, но именно они способны заложить фундамент для ИИ, который будет не просто приятным собеседником в чате, а полноценным субъектом в нашем сложном реальном мире.
#технологии
Большие языковые модели (LLMs) впечатляют умением работать с текстом, но они не имеют реального понятия о трёхмерном мире, физике и логике пространства. Модели мира (World Models, WMs или LWMs — Large World Models) обещают сделать шаг вперед от текстового понимания к пониманию среды, наделяя ИИ способностью «видеть», «чувствовать» и «предсказывать» поведение объектов и агентов.
Если языковые модели генерируют последовательности слов, то модели мира стремятся к глубинному моделированию реальности. Они берут визуальные, аудио- и прочие сенсорные данные (включая данные от камер, IoT-сенсоров, микрофонов), чтобы создать внутреннюю симуляцию мира: с физическими законами, динамикой движения, взаимодействиями объектов, NPC и людей.
Одним из примеров таких систем стала Genie 2 от Google DeepMind — фундаментальная модель мира, способная на основе одного изображения создать интерактивное 3D-пространство, в котором можно управлять персонажем и выполнять различные действия. Genie 2 — авторегрессионная диффузионная модель, предсказывающая каждый следующий «кадр состояния» так же, как LLM предсказывает следующий токен. Но в отличие от чисто текстовых моделей, Genie 2 учитывает физику и трехмерность, позволяя агентам взаимодействовать со сценой. Это не просто генерация пикселей, а предсказание будущих состояний среды исходя из действий, что критически важно для обучения агентов.
Другой пример - Sora от OpenAI, генерирующая до минуты реалистичного видео, моделируя динамику сцены, перспективу, свет, тени и взаимодействия с объектами. Подобно тому как языковые модели пользуются текстовыми токенами, модели мира работают с «патчами» — фрагментами визуальной информации. Sora сжимает входное видео в латентное пространство и разрезает его на патчи, которые затем обрабатываются трансформером. Такой подход облегчает масштабируемое обучение на огромных наборах видеоданных.
Genie 2 и Sora способны «запоминать» объекты, моделировать эффекты гравитации и инерции, а также обеспечивать длительную согласованность сцен. В созданных ими виртуальных мирах персонажи стараются не терять форму, предметы не телепортироваться без причины — всё выглядит логичным и правдоподобным.
Помимо генерации видео, Sora может симулировать поведение внутри игры Minecraft, включая управление агентом. А Genie 2 позволяет создавать бесконечно разнообразные игровые миры, где поведение объектов и персонажей не задано вручную, а выучено моделью. Агенту можно дать задание и наблюдать, как он осваивает новые навыки, решает задачи и самостоятельно адаптируется к непредсказуемым условиям.
Все это ведет к тому, что роботы на базе моделей мира смогут лучше понимать пространство, предсказывать последствия своих действий и безопаснее взаимодействовать с реальным окружением.
Однако перед нами встают более глубокие вопросы: как интерпретировать решения агентов на базе моделей мира, как избежать опасных сценариев, если модель «догадается» нарушить правила? Такие случаи пока редки и напоминают курьёзы, но уже показывают, что серьезная работа над безопасностью только начинается
Конечно, обучение на огромных видеодатасетах требует колоссальных вычислительных мощностей, куда больше, чем для LLM. Также для обучения нужно много разнообразных данных. Но результат того стоит, ведь одно из перспективных направлений применения моделей мира - симуляция физических законов для развития науки и технологий. Например, использование химических элементов как «слов» в моделях мира позволяет ИИ предсказывать новые материалы или лекарства.
Модели мира — это переход от «умных слов» к «умным действиям» и пониманию пространства. Мы подходим к эпохе, когда ИИ будет предсказывать физические процессы, понимать причинно-следственные связи и даже проявлять «здравый смысл». Хотя модели мира только начали развиваться, но именно они способны заложить фундамент для ИИ, который будет не просто приятным собеседником в чате, а полноценным субъектом в нашем сложном реальном мире.
#технологии
Google DeepMind
Genie 2: A large-scale foundation world model
Generating unlimited diverse training environments for future general agents
This media is not supported in your browser
VIEW IN TELEGRAM
Genie 2 позволяет быстро создавать бесконечное множество различных виртуальных миров для обучения ИИ-агентов.
Основные возможности модели:
- Генерация разнообразных сред на основе начального кадра длиной до минуты;
- Моделирование физических эффектов воды, дыма, гравитации, освещения и отражений;
- Запоминание частей мира, которые временно выходят из поля зрения, и восстановление их при повторном появлении;
- Моделирование поведения неигровых персонажей (NPCs) и сложных взаимодействий между ними;
- Управление действиями агента с помощью клавиатуры и мыши;
- А также возможность взаимодействия с другими объектами и агентами.
Что думаете, полностью сгенерированные игры уже не кажутся такой фантастикой?
#технологии
Основные возможности модели:
- Генерация разнообразных сред на основе начального кадра длиной до минуты;
- Моделирование физических эффектов воды, дыма, гравитации, освещения и отражений;
- Запоминание частей мира, которые временно выходят из поля зрения, и восстановление их при повторном появлении;
- Моделирование поведения неигровых персонажей (NPCs) и сложных взаимодействий между ними;
- Управление действиями агента с помощью клавиатуры и мыши;
- А также возможность взаимодействия с другими объектами и агентами.
Что думаете, полностью сгенерированные игры уже не кажутся такой фантастикой?
#технологии
Dataist AI — ежедневный гид по лучшим научным статьям об ИИ
В наше время, чтобы быть в курсе всего нового в области ИИ, нужно регулярно читать актуальные научные статьи. Но ежедневно выходит тысячи статей, и прочитать их все почти невозможно.
Поэтому я создал телеграм-бота Dataist AI. Каждый будний день бот присылает короткие обзоры топовых статей об ИИ на русском и английском языках.
Присоединяйтесь к Dataist AI совершенно бесплатно и будьте в тренде последних ИИ-технологий в удобном формате.
🔗 Ссылка на бот
#анонс
В наше время, чтобы быть в курсе всего нового в области ИИ, нужно регулярно читать актуальные научные статьи. Но ежедневно выходит тысячи статей, и прочитать их все почти невозможно.
Поэтому я создал телеграм-бота Dataist AI. Каждый будний день бот присылает короткие обзоры топовых статей об ИИ на русском и английском языках.
Присоединяйтесь к Dataist AI совершенно бесплатно и будьте в тренде последних ИИ-технологий в удобном формате.
🔗 Ссылка на бот
#анонс
Увидел пост предпринимателя Руслана Галифанова о надувшемся пузыре в ИИ и не смог пройти мимо, не прокомментировав его.
Описанный в посте «пузырь» — это естественный этап развития любой новой технологии. В Gartner называют это «hype cycle» — после периода завышенных ожиданий неизбежно наступает фаза более трезвой оценки и прикладного внедрения технологий.
ИИ-компании уже разделились на два ключевых направления: компании, создающие фундаментальные технологии (например, OpenAI), и те, кто строит прикладные решения на их основе (например, Perplexity).
Но в то же время компании, создающие фундаментальные технологии, сами продуктивизируют их для зарабатывания денег. Так, OpenAI изначально позиционировала себя как некоммерческую организацию, но со временем сместилась к коммерции. Этот переход закономерен: разработка новых моделей требует все больших вычислительных ресурсов и лучших талантов, и за это нужно платить. Конечно, не все текущие проблемы решаются деньгами, например, пока не решен вопрос о том, где искать новые данные для обучения (или как их синтезировать).
Сегодня мы наблюдаем существенный прогресс в ИИ, в частности, появление элементов рассуждений (reasoning) в языковых моделях, что позволяет автоматизировать всё более широкий спектр задач. Исследования показывают, что если работа занимает около получаса, то ИИ сделает её в 30 раз дешевле.
По мере совершенствования алгоритмов, поиска новых вычислительных ресурсов и данных для обучения мы, скорее всего, увидим постепенную, но неотвратимую трансформацию многих «цифровых» профессий, а в дальнейшем и переход автоматизации в физический мир с робототехникой. Сейчас мы находимся на начальной стадии, но тут я настроен скорее оптимистично с учётом текущего прогресса и перспектив.
Естественно, на рынке останутся лишь те стартапы, которые смогут предложить реальную ценность, а не просто «обертку» над существующими моделями. ИИ-продукты должны обладать устойчивым конкурентным преимуществом: доступом к уникальным данным и адаптацией под конкретные задачи. Инвесторы всё чаще хотят вкладываться в компании, решающие прикладные задачи с понятной окупаемостью, а не в долгосрочные высокорисковые технологические проекты.
В технологических проектах инвестируют в людей. Например, Илья Суцкевер благодаря своей репутации привлёк 1 млрд долларов инвестиций на разработку безопасного суперинтеллекта. Хотя мы видим высокую цену человеческого капитала, если вы не специалист мирового уровня в ИИ, то без понятного плана окупаемости привлечь инвестиции будет большой проблемой.
Думаю, мы становимся свидетелями перехода из состояния головокружительного хайпа в стадию осознанного, прагматичного и финансово эффективного внедрения ИИ, способного в долгосрочной перспективе дать толчок к более глубокой автоматизации бизнеса и всех секторов экономики.
Подписывайтесь на канал Руслана — у него полезный контент для тех, кто интересуется бизнесом.
Описанный в посте «пузырь» — это естественный этап развития любой новой технологии. В Gartner называют это «hype cycle» — после периода завышенных ожиданий неизбежно наступает фаза более трезвой оценки и прикладного внедрения технологий.
ИИ-компании уже разделились на два ключевых направления: компании, создающие фундаментальные технологии (например, OpenAI), и те, кто строит прикладные решения на их основе (например, Perplexity).
Но в то же время компании, создающие фундаментальные технологии, сами продуктивизируют их для зарабатывания денег. Так, OpenAI изначально позиционировала себя как некоммерческую организацию, но со временем сместилась к коммерции. Этот переход закономерен: разработка новых моделей требует все больших вычислительных ресурсов и лучших талантов, и за это нужно платить. Конечно, не все текущие проблемы решаются деньгами, например, пока не решен вопрос о том, где искать новые данные для обучения (или как их синтезировать).
Сегодня мы наблюдаем существенный прогресс в ИИ, в частности, появление элементов рассуждений (reasoning) в языковых моделях, что позволяет автоматизировать всё более широкий спектр задач. Исследования показывают, что если работа занимает около получаса, то ИИ сделает её в 30 раз дешевле.
По мере совершенствования алгоритмов, поиска новых вычислительных ресурсов и данных для обучения мы, скорее всего, увидим постепенную, но неотвратимую трансформацию многих «цифровых» профессий, а в дальнейшем и переход автоматизации в физический мир с робототехникой. Сейчас мы находимся на начальной стадии, но тут я настроен скорее оптимистично с учётом текущего прогресса и перспектив.
Естественно, на рынке останутся лишь те стартапы, которые смогут предложить реальную ценность, а не просто «обертку» над существующими моделями. ИИ-продукты должны обладать устойчивым конкурентным преимуществом: доступом к уникальным данным и адаптацией под конкретные задачи. Инвесторы всё чаще хотят вкладываться в компании, решающие прикладные задачи с понятной окупаемостью, а не в долгосрочные высокорисковые технологические проекты.
В технологических проектах инвестируют в людей. Например, Илья Суцкевер благодаря своей репутации привлёк 1 млрд долларов инвестиций на разработку безопасного суперинтеллекта. Хотя мы видим высокую цену человеческого капитала, если вы не специалист мирового уровня в ИИ, то без понятного плана окупаемости привлечь инвестиции будет большой проблемой.
Думаю, мы становимся свидетелями перехода из состояния головокружительного хайпа в стадию осознанного, прагматичного и финансово эффективного внедрения ИИ, способного в долгосрочной перспективе дать толчок к более глубокой автоматизации бизнеса и всех секторов экономики.
Подписывайтесь на канал Руслана — у него полезный контент для тех, кто интересуется бизнесом.
Telegram
Руслан Галифанов о бизнесе и не только
Пузырь в искусственном интеллекте уже надулся
Я не спец в ИИ и не слежу за этой темой пристально, но у меня есть IT-компания VEA и сервис HelloPrint. На мой взгляд неспециалиста в ИИ, в отрасли образовался пузырь. Вот почему я так думаю.
Стартапы в секторе…
Я не спец в ИИ и не слежу за этой темой пристально, но у меня есть IT-компания VEA и сервис HelloPrint. На мой взгляд неспециалиста в ИИ, в отрасли образовался пузырь. Вот почему я так думаю.
Стартапы в секторе…
Задумывались ли вы, что с помощью данных и машинного обучения можно не только оптимизировать рабочие процессы, но и помогать людям находить родственные души?
В новой статье на Хабре я рассказываю о том, как мы в Сбере создали первый в России корпоративный дейтинг-сервис, победили в бизнес-акселераторе и помогли сотням людей найти себе пары, а некоторым даже пожениться.
Если вы ищете вдохновение в том, как ИИ может делать людей счастливее, читайте статью по ссылке.
#анонс
В новой статье на Хабре я рассказываю о том, как мы в Сбере создали первый в России корпоративный дейтинг-сервис, победили в бизнес-акселераторе и помогли сотням людей найти себе пары, а некоторым даже пожениться.
Если вы ищете вдохновение в том, как ИИ может делать людей счастливее, читайте статью по ссылке.
#анонс
Хабр
Знакомства на основе данных: как мы запустили корпоративный дейтинг-сервис в Сбере
Привет, меня зовут Андрей Кузьминых. Я технологический предприниматель, запускаю ИИ-стартапы и внедряю искусственный интеллект в компаниях. Некоторое время назад я работал в Сбере в роли директора по...
OpenAI представила o3 — новое поколение «рассуждающих» языковых моделей
Компания называет o3 существенным шагом в сторону AGI. Вместе с основной моделью выпущена и «облегчённая» версия o3-mini для специализированных задач.
Почему o3, а не o2? Пропуск номера связан с торговыми марками (британский оператор связи O2), о чём намекнул Сэм Альтман.
o3 и o3-mini пока недоступны массовому пользователю. Специалисты по безопасности смогут протестировать o3-mini с сегодняшнего дня, а полноценный доступ планируется ближе к концу января 2025 года.
Что нового? o3 может «думать» перед ответом, используя «приватную цепочку рассуждений». Модель может рассуждать о задаче и планировать ряд действий, которые помогают ей найти решение, «объясняя» свои рассуждения по ходу работы. Через некоторое время модель суммирует то, что она считает наиболее точным ответом. Это немного увеличивает задержку в ответе, но повышает точность решения в том числе научных задач.
Появилась возможность настраивать «глубину рассуждения» (низкая, средняя или высокая вычислительная нагрузка), увеличивая качество решения задач с повышением времени ожидания ответа.
По оценкам OpenAI, на некоторых тестах модель вплотную приближается к AGI. Например, на бенчмарке ARC-AGI она показала 87,5% при максимальной вычислительной нагрузке. Гонка к AGI выходит на новый уровень.
o3 показывает впечатляющие результаты в математике, программировании (2727 баллов Codeforces) и ряде научных тестов, но это — внутренние метрики OpenAI. Сообщается, что o3 в 3 раза превосходит предшественника o1. Пока неизвестно, как o3 будет вести себя на практике — результаты независимых проверок ещё впереди.
На рынке всё активнее появляются конкурирующие «рассуждающие» модели от других команд (например, Gemini 2.0 Flash Thinking). Главный вопрос: станут ли такие подходы новым стандартом развития ИИ или всего лишь ещё одним экспериментальным направлением, пока не ясно.
Думаю усовершенствование методов рассуждений (Graph/Skeleton/Anything-of-Thoughts), микс экспертов (Mixture-of-Experts) и обучение с подкреплением (RL) - это то, что может значительно повысить текущие возможности ИИ для решения специализированных задач, заточенных под бизнес-метрики.
Возможно, полностью автономные ИИ-сотрудники появятся раньше, чем мы думаем?
#новости
Компания называет o3 существенным шагом в сторону AGI. Вместе с основной моделью выпущена и «облегчённая» версия o3-mini для специализированных задач.
Почему o3, а не o2? Пропуск номера связан с торговыми марками (британский оператор связи O2), о чём намекнул Сэм Альтман.
o3 и o3-mini пока недоступны массовому пользователю. Специалисты по безопасности смогут протестировать o3-mini с сегодняшнего дня, а полноценный доступ планируется ближе к концу января 2025 года.
Что нового? o3 может «думать» перед ответом, используя «приватную цепочку рассуждений». Модель может рассуждать о задаче и планировать ряд действий, которые помогают ей найти решение, «объясняя» свои рассуждения по ходу работы. Через некоторое время модель суммирует то, что она считает наиболее точным ответом. Это немного увеличивает задержку в ответе, но повышает точность решения в том числе научных задач.
Появилась возможность настраивать «глубину рассуждения» (низкая, средняя или высокая вычислительная нагрузка), увеличивая качество решения задач с повышением времени ожидания ответа.
По оценкам OpenAI, на некоторых тестах модель вплотную приближается к AGI. Например, на бенчмарке ARC-AGI она показала 87,5% при максимальной вычислительной нагрузке. Гонка к AGI выходит на новый уровень.
o3 показывает впечатляющие результаты в математике, программировании (2727 баллов Codeforces) и ряде научных тестов, но это — внутренние метрики OpenAI. Сообщается, что o3 в 3 раза превосходит предшественника o1. Пока неизвестно, как o3 будет вести себя на практике — результаты независимых проверок ещё впереди.
На рынке всё активнее появляются конкурирующие «рассуждающие» модели от других команд (например, Gemini 2.0 Flash Thinking). Главный вопрос: станут ли такие подходы новым стандартом развития ИИ или всего лишь ещё одним экспериментальным направлением, пока не ясно.
Думаю усовершенствование методов рассуждений (Graph/Skeleton/Anything-of-Thoughts), микс экспертов (Mixture-of-Experts) и обучение с подкреплением (RL) - это то, что может значительно повысить текущие возможности ИИ для решения специализированных задач, заточенных под бизнес-метрики.
Возможно, полностью автономные ИИ-сотрудники появятся раньше, чем мы думаем?
#новости
TechCrunch
OpenAI announces new o3 models | TechCrunch
OpenAI saved its biggest announcement for the last day of its 12-day "shipmas" event. On Friday, the company unveiled o3, the successor to the o1
Большой потенциал малых языковых моделей
Современный бум ИИ уже давно не сводится к крупным разработкам от гигантов вроде OpenAI или Anthropic, инвестирующих миллиарды в большие языковые модели. Наоборот, всё чаще в фокус внимания попадают малые языковые модели (Small Language Models, SLMs), способные решать узкоспециализированные задачи не хуже (а порой и лучше) своих «старших собратьев».
Яркий пример — стартап Patronus AI со своей моделью Glider, имеющей 3,8 миллиарда параметров. Большинство компаний применяют для оценки своих продуктов крупные закрытые модели вроде GPT-4. Но это дорого, не всегда прозрачно и несет риски для конфиденциальности. Glider же, будучи относительно компактной, способна работать на более простом «железе» и при этом давать детальное объяснение своих оценок по сотням критериев (точность, безопасность, стиль, тон и т. д.).
По результатам тестов Glider превосходит GPT-4o mini по нескольким метрикам и отвечает в среднем менее чем за секунду, что делает ее практически идеальным решением для генерации текста в реальном времени.
Большие языковые модели, безусловно, продолжают впечатлять своей универсальностью, но их недостатки очевидны:
- Высокие затраты на ресурсы. Обучение и инференс больших моделей требуют колоссальных вычислительных мощностей, что приводит к дополнительным расходам на инфраструктуру, электроэнергию и обслуживание;
- Низкая конфиденциальность. Использование больших закрытых моделей предполагает отправку данных во внешний облачный сервис, что критично для финансовых организаций и здравоохранения;
- Зависимость от интернета. При отсутствии доступа к сети такие модели попросту недоступны;
Малые языковые модели, напротив, легко разворачиваются на локальном сервере или даже на обычном пользовательском устройстве, снижая задержки при ответах и повышая контроль над безопасностью. Им не нужны сотни гигабайт видеопамяти, а адаптация к узконаправленной задаче и интеграция в собственную инфраструктуру обходятся заметно дешевле и проще. Дополнительно малые модели экономят электроэнергию и бережнее относятся к экологии.
Малые языковые модели можно либо обучать с нуля под конкретную задачу, либо «сжимать» уже готовые большие модели, используя методы прунинга, квантизации и дистилляции знаний, сохраняя высокое качество при сокращении числа параметров.
Набирают популярность и гибридные системы, в которых несколько малых моделей берут на себя простые запросы, а большая модель выступает их «роутером» и используется для более сложных задач.
Помимо Glider, существуют такие модели, как Gemma (Google), GPT-4o mini (OpenAI), Ministral (Mistral AI), Phi (Microsoft) и Llama 3.2 (Meta). Все они ориентированы на локальное использование в задачах, где высоки требования к приватности и быстроте отклика.
Малые языковые модели незаменимы там, где требуется локальная обработка данных: в медицине (электронные записи пациентов, выписки, рецепты) или финансовой сфере (работа с регулятивными документами). Их размер снижает риск «галлюцинаций», помогает быстрее достичь высоких результатов в узкоспециализированных областях и защищает конфиденциальную информацию.
В действительности большие и малые языковые модели — это две параллельные ветви эволюции, которые не исключают, а взаимно дополняют друг друга. Большие модели лучше справляются с универсальными задачами, требующими миллиарды параметров и богатого контекста, а малые эффективнее работают над узкоспециализированными кейсами, обеспечивая локальную приватность и минимизируя затраты.
В ближайшие годы мы увидим стремительный рост гибридных решений, где оба типа моделей будут работать вместе. В результате мы получим еще более умные, надежные и быстрые ИИ-сервисы, способные удовлетворить самые разнообразные потребности практически любого бизнеса.
#технологии
Современный бум ИИ уже давно не сводится к крупным разработкам от гигантов вроде OpenAI или Anthropic, инвестирующих миллиарды в большие языковые модели. Наоборот, всё чаще в фокус внимания попадают малые языковые модели (Small Language Models, SLMs), способные решать узкоспециализированные задачи не хуже (а порой и лучше) своих «старших собратьев».
Яркий пример — стартап Patronus AI со своей моделью Glider, имеющей 3,8 миллиарда параметров. Большинство компаний применяют для оценки своих продуктов крупные закрытые модели вроде GPT-4. Но это дорого, не всегда прозрачно и несет риски для конфиденциальности. Glider же, будучи относительно компактной, способна работать на более простом «железе» и при этом давать детальное объяснение своих оценок по сотням критериев (точность, безопасность, стиль, тон и т. д.).
По результатам тестов Glider превосходит GPT-4o mini по нескольким метрикам и отвечает в среднем менее чем за секунду, что делает ее практически идеальным решением для генерации текста в реальном времени.
Большие языковые модели, безусловно, продолжают впечатлять своей универсальностью, но их недостатки очевидны:
- Высокие затраты на ресурсы. Обучение и инференс больших моделей требуют колоссальных вычислительных мощностей, что приводит к дополнительным расходам на инфраструктуру, электроэнергию и обслуживание;
- Низкая конфиденциальность. Использование больших закрытых моделей предполагает отправку данных во внешний облачный сервис, что критично для финансовых организаций и здравоохранения;
- Зависимость от интернета. При отсутствии доступа к сети такие модели попросту недоступны;
Малые языковые модели, напротив, легко разворачиваются на локальном сервере или даже на обычном пользовательском устройстве, снижая задержки при ответах и повышая контроль над безопасностью. Им не нужны сотни гигабайт видеопамяти, а адаптация к узконаправленной задаче и интеграция в собственную инфраструктуру обходятся заметно дешевле и проще. Дополнительно малые модели экономят электроэнергию и бережнее относятся к экологии.
Малые языковые модели можно либо обучать с нуля под конкретную задачу, либо «сжимать» уже готовые большие модели, используя методы прунинга, квантизации и дистилляции знаний, сохраняя высокое качество при сокращении числа параметров.
Набирают популярность и гибридные системы, в которых несколько малых моделей берут на себя простые запросы, а большая модель выступает их «роутером» и используется для более сложных задач.
Помимо Glider, существуют такие модели, как Gemma (Google), GPT-4o mini (OpenAI), Ministral (Mistral AI), Phi (Microsoft) и Llama 3.2 (Meta). Все они ориентированы на локальное использование в задачах, где высоки требования к приватности и быстроте отклика.
Малые языковые модели незаменимы там, где требуется локальная обработка данных: в медицине (электронные записи пациентов, выписки, рецепты) или финансовой сфере (работа с регулятивными документами). Их размер снижает риск «галлюцинаций», помогает быстрее достичь высоких результатов в узкоспециализированных областях и защищает конфиденциальную информацию.
В действительности большие и малые языковые модели — это две параллельные ветви эволюции, которые не исключают, а взаимно дополняют друг друга. Большие модели лучше справляются с универсальными задачами, требующими миллиарды параметров и богатого контекста, а малые эффективнее работают над узкоспециализированными кейсами, обеспечивая локальную приватность и минимизируя затраты.
В ближайшие годы мы увидим стремительный рост гибридных решений, где оба типа моделей будут работать вместе. В результате мы получим еще более умные, надежные и быстрые ИИ-сервисы, способные удовлетворить самые разнообразные потребности практически любого бизнеса.
#технологии
Forbes
Why Small Language Models Are The Next Big Thing In AI
With Elon Musk’s xAI raising an $5 billion and Amazon investing an $4 billion in OpenAI rival Anthropic — artificial intelligence enters the holiday season with a competitive roar.
🤖 Датаист
В эту субботу я выступаю с докладом на конференции Data Fest в Ереване. Мой доклад будет посвящен персонализации мультиагентных систем для автоматизации ведения блога в соцсетях. Конференция пройдет 6-7 сентября. На ней выступят представители Nvidia, Google…
Please open Telegram to view this post
VIEW IN TELEGRAM
Слежка или анализ? Как найти баланс между эффективностью бизнеса и приватностью сотрудников
В 2020 году, будучи директором по данным (Chief Data Officer) в Сбере, я занимался сбором и анализом данных для управленческих дашбордов, внутренних продуктов и ИИ-моделей. HR-аналитика была ключевой задачей, так как позволяла руководству получать актуальные инсайты об эффективности сотрудников при соблюдении требований GDPR и внутренних банковских политик.
Этичная HR-аналитика — это информационная среда, где сотрудники защищены, а бизнес использует ровно те данные, которые необходимы для улучшения эффективности компании.
Основные задачи, для которых требовались данные: анализ эффективности сотрудников, прогноз увольнений, организационный сетевой анализ (Organizational Network Analysis, ONA), а также «умный календарь» для руководителей.
Главные проблемы в HR-аналитике заключались в отсутствии единой политики хранения данных, отсутствии готовых моделей (анализ проводили в Excel) и недостаточной прозрачности: сотрудники не понимали, какие данные о них собираются и зачем.
Мы провели ревизию всех источников данных, создали закрытый контур на отдельных серверах для хранения сырых данных и организовали механизмы деперсонализации данных. Входящие файлы из разных источников автоматически очищались от персональных идентификаторов (ФИО, телефоны, почта), превращаясь в эмбеддинги (векторизацию текстов) для писем и сообщений в чатах, что позволило проводить анализ коммуникаций, не храня «сырой» текст.
Мы объединили свыше пятидесяти источников данных: от базовых HR-данных (стаж, семейное положение, образование и т.д.) до логов входов-выходов из офиса, корпоративной почты и календарей, психотипов сотрудников и прочей информации. Фактически мы знали о сотруднике почти всё: кто он, что купил по пути в офис, на чём доехал, во сколько пришел, чем занимался и когда покинул офис. При этом было важно не потерять доверие людей и не превратиться в «Большого Брата».
Технически мы использовали Teradata (затем Greenplum) для разработки озера и хранилища данных, спроектированных в парадигме Data Vault 2.0, а для аналитики применяли Qlik Sense. Объем данных достигал примерно 20 терабайт в месяц.
Затем мы разработали первые ИИ-модели, которые быстро показали свою ценность:
- Модель для прогнозирования увольнений (использовали модели дожития) снизила текучку на 4%, анализируя стресс-факторы (избыточные чаты в нерабочее время, снижение активности, редкие контакты с руководителем);
- Организационный сетевой анализ помог переформировать множество команд и выявить неформальных лидеров;
- Умный календарь учитывал загруженность руководителей и приоритеты проектов, позволяя сократить до 8% неэффективных совещаний;
- Управленческий дашборд отображал ключевые HR-метрики, помогая находить неэффективных сотрудников.
Даже при выстроенной безопасности сотрудники опасались «слежки». Мы организовали разъяснительные встречи и показали, что переписка недоступна в «читаемом» виде, эффект состоял в снижении текучки сотрудников и росте эффективности банка. Сбор данных был закреплен дополнительным соглашением с сотрудниками в политике данных банка.
Итак, для внедрения этичной HR-аналитики:
1. Определите уровень конфиденциальности данных (К4 - открытые данные, K3 - данные компании, K2 - персональные данные клиентов и сотрудников, К1 - данные повышенной конфиденциальности) и разграничьте к ним доступ;
2. Проработайте архитектуру сбора, хранения, обработки, анонимизации и визуализации данных с учетом объемов и уровня конфиденциальности: хеши, эмбеддинги, шум (noise injection), федеративное обучение - есть много приемов, снижающих риск утечек;
3. Объясняйте сотрудникам цели сбора данных, заключайте с ними соглашение об использовании персональных данных.
Этичная HR-аналитика — это реальный способ повысить эффективность бизнеса, сохраняя доверие сотрудников и соответствуя законодательству. Начните с прозрачности и уважения к личным границам, и HR-аналитика станет двигателем роста компании, а не источником страха для сотрудников.
#кейсы
В 2020 году, будучи директором по данным (Chief Data Officer) в Сбере, я занимался сбором и анализом данных для управленческих дашбордов, внутренних продуктов и ИИ-моделей. HR-аналитика была ключевой задачей, так как позволяла руководству получать актуальные инсайты об эффективности сотрудников при соблюдении требований GDPR и внутренних банковских политик.
Этичная HR-аналитика — это информационная среда, где сотрудники защищены, а бизнес использует ровно те данные, которые необходимы для улучшения эффективности компании.
Основные задачи, для которых требовались данные: анализ эффективности сотрудников, прогноз увольнений, организационный сетевой анализ (Organizational Network Analysis, ONA), а также «умный календарь» для руководителей.
Главные проблемы в HR-аналитике заключались в отсутствии единой политики хранения данных, отсутствии готовых моделей (анализ проводили в Excel) и недостаточной прозрачности: сотрудники не понимали, какие данные о них собираются и зачем.
Мы провели ревизию всех источников данных, создали закрытый контур на отдельных серверах для хранения сырых данных и организовали механизмы деперсонализации данных. Входящие файлы из разных источников автоматически очищались от персональных идентификаторов (ФИО, телефоны, почта), превращаясь в эмбеддинги (векторизацию текстов) для писем и сообщений в чатах, что позволило проводить анализ коммуникаций, не храня «сырой» текст.
Мы объединили свыше пятидесяти источников данных: от базовых HR-данных (стаж, семейное положение, образование и т.д.) до логов входов-выходов из офиса, корпоративной почты и календарей, психотипов сотрудников и прочей информации. Фактически мы знали о сотруднике почти всё: кто он, что купил по пути в офис, на чём доехал, во сколько пришел, чем занимался и когда покинул офис. При этом было важно не потерять доверие людей и не превратиться в «Большого Брата».
Технически мы использовали Teradata (затем Greenplum) для разработки озера и хранилища данных, спроектированных в парадигме Data Vault 2.0, а для аналитики применяли Qlik Sense. Объем данных достигал примерно 20 терабайт в месяц.
Затем мы разработали первые ИИ-модели, которые быстро показали свою ценность:
- Модель для прогнозирования увольнений (использовали модели дожития) снизила текучку на 4%, анализируя стресс-факторы (избыточные чаты в нерабочее время, снижение активности, редкие контакты с руководителем);
- Организационный сетевой анализ помог переформировать множество команд и выявить неформальных лидеров;
- Умный календарь учитывал загруженность руководителей и приоритеты проектов, позволяя сократить до 8% неэффективных совещаний;
- Управленческий дашборд отображал ключевые HR-метрики, помогая находить неэффективных сотрудников.
Даже при выстроенной безопасности сотрудники опасались «слежки». Мы организовали разъяснительные встречи и показали, что переписка недоступна в «читаемом» виде, эффект состоял в снижении текучки сотрудников и росте эффективности банка. Сбор данных был закреплен дополнительным соглашением с сотрудниками в политике данных банка.
Итак, для внедрения этичной HR-аналитики:
1. Определите уровень конфиденциальности данных (К4 - открытые данные, K3 - данные компании, K2 - персональные данные клиентов и сотрудников, К1 - данные повышенной конфиденциальности) и разграничьте к ним доступ;
2. Проработайте архитектуру сбора, хранения, обработки, анонимизации и визуализации данных с учетом объемов и уровня конфиденциальности: хеши, эмбеддинги, шум (noise injection), федеративное обучение - есть много приемов, снижающих риск утечек;
3. Объясняйте сотрудникам цели сбора данных, заключайте с ними соглашение об использовании персональных данных.
Этичная HR-аналитика — это реальный способ повысить эффективность бизнеса, сохраняя доверие сотрудников и соответствуя законодательству. Начните с прозрачности и уважения к личным границам, и HR-аналитика станет двигателем роста компании, а не источником страха для сотрудников.
#кейсы
HR World
ONA Analysis: The unbeatable power of organizational networks - HR World
This article will introduce you to a methodology of capturing relational aspects of organizational life, named Organizational Network Analysis (ONA) and point to some interesting use cases that impact organizational decision-making.
Топ-20 лучших научных статей об ИИ-агентах в 2024 году
Под конец 2024 года я решил сделать обзор двадцати лучших (на мой взгляд) работ об ИИ-агентах и выложить на Хабр. Ниже — краткий обзор каждого исследования (будет, что почитать на каникулах):
• Scaling of Search and Learning: A Roadmap to Reproduce o1 from Reinforcement Learning Perspective - дорожная карта для воспроизведения модели o1 от OpenAI.
• Agentic Information Retrieval - новая парадигма поиска, где агент с внутренней памятью и внешними инструментами делает информационный поиск интерактивным и автономным.
• Is Sora a World Simulator? A Comprehensive Survey on General World Models and Beyond - обзор моделей мира для видео и автопилотов, доказывающий, что симуляции повышают эффективность обучения и приближают нас к AGI.
• Genie: Generative Interactive Environments - модель, которая из текста или изображений «на лету» генерирует играбельные миры.
• Agent AI: Surveying the Horizons of Multimodal Interaction - объединение языковых и визуальных моделей в единую агентную систему, умеющую действовать сразу в нескольких модальностях и демонстрирующую шаг к AGI.
• The Dawn of GUI Agent: A Preliminary Case Study with Claude 3.5 Computer Use - оценка первой модели для управления компьютером через GUI.
• WebRL: Training LLM Web Agents via Self-Evolving Online Curriculum Reinforcement Learning - фреймворк для обучения веб-агентов на всё более сложных заданиях.
• Personalization of Large Language Models: A Survey - таксономия методов персонализации больших языковых моделей.
• Evolving Agents: Interactive Simulation of Dynamic and Diverse Human Personalities - архитектура агентов, чьи личности меняются с течением времени в интерактивных средах.
• More Agents Is All You Need - метод показывает, что несколько менее крупных моделей могут коллективно давать точные решения дешевле и надежнее одной большой.
• Internet of Agents - фреймворк позволяет агентам «подключаться к сети» и обнаруживать друг друга, формируя команды для решения сложных задач.
• Many-agent Simulations toward AI Civilization - масштабные симуляции агентов в Minecraft, где наблюдается социализация, специализация ролей и элементы зарождения «ИИ-цивилизации».
• AIGS: Generating Science from AI-Powered Automated Falsification - автоматизация научного метода от генерации гипотез до экспериментов и «опровержения».
• ABIDES-Economist: Agent-Based Simulation of Economic Systems with Learning Agents - имитация экономических процессов в масштабируемой среде с обучающимися агентами: от домохозяйств и фирм до госструктур.
• AFlow: Automating Agentic Workflow Generation - фреймворк находит оптимальные цепочки вызовов LLM, уменьшая стоимость вычислений и повышая точность.
• Automated Design of Agentic Systems - метод показывает, как ИИ может «сам» изобретать всё более совершенные агентные системы, минимизируя ручной труд.
• Thinking LLMs: General Instruction Following with Thought Generation - модели учатся «думать» текстом перед ответом, что повышает точность в решении широкого спектра задач.
• Explore Theory of Mind: Program-guided adversarial data generation for theory of mind reasoning - способ генерации сложных историй для проверки и обучения «социального интеллекта» у языковых моделей.
• MindSearch: Mimicking Human Minds Elicits Deep AI Searcher - мультиагентная система, имитирующая человеческое мышление в веб-поиске, разбивает запросы на подзадачи и обрабатывает их параллельно.
• A Comprehensive Survey of Small Language Models in the Era of Large Language Models - обзор малых языковых моделей, которые могут быть эффективнее и дешевле больших для конкретных прикладных задач.
В 2024 году ИИ-агенты продвинулись в мультиагентных сценариях, активно совершенствовались процессы автоматизации создания агентов, а когнитивные способности ИИ становились всё более сложными и гибкими.
Мы живем в поистине удивительное время, и я уверен, что 2025 год принесет множество новых интересных исследований, приближая нас к достижению общего ИИ (AGI).
Поздравляю всех с наступающим Новым годом!
#технологии
Под конец 2024 года я решил сделать обзор двадцати лучших (на мой взгляд) работ об ИИ-агентах и выложить на Хабр. Ниже — краткий обзор каждого исследования (будет, что почитать на каникулах):
• Scaling of Search and Learning: A Roadmap to Reproduce o1 from Reinforcement Learning Perspective - дорожная карта для воспроизведения модели o1 от OpenAI.
• Agentic Information Retrieval - новая парадигма поиска, где агент с внутренней памятью и внешними инструментами делает информационный поиск интерактивным и автономным.
• Is Sora a World Simulator? A Comprehensive Survey on General World Models and Beyond - обзор моделей мира для видео и автопилотов, доказывающий, что симуляции повышают эффективность обучения и приближают нас к AGI.
• Genie: Generative Interactive Environments - модель, которая из текста или изображений «на лету» генерирует играбельные миры.
• Agent AI: Surveying the Horizons of Multimodal Interaction - объединение языковых и визуальных моделей в единую агентную систему, умеющую действовать сразу в нескольких модальностях и демонстрирующую шаг к AGI.
• The Dawn of GUI Agent: A Preliminary Case Study with Claude 3.5 Computer Use - оценка первой модели для управления компьютером через GUI.
• WebRL: Training LLM Web Agents via Self-Evolving Online Curriculum Reinforcement Learning - фреймворк для обучения веб-агентов на всё более сложных заданиях.
• Personalization of Large Language Models: A Survey - таксономия методов персонализации больших языковых моделей.
• Evolving Agents: Interactive Simulation of Dynamic and Diverse Human Personalities - архитектура агентов, чьи личности меняются с течением времени в интерактивных средах.
• More Agents Is All You Need - метод показывает, что несколько менее крупных моделей могут коллективно давать точные решения дешевле и надежнее одной большой.
• Internet of Agents - фреймворк позволяет агентам «подключаться к сети» и обнаруживать друг друга, формируя команды для решения сложных задач.
• Many-agent Simulations toward AI Civilization - масштабные симуляции агентов в Minecraft, где наблюдается социализация, специализация ролей и элементы зарождения «ИИ-цивилизации».
• AIGS: Generating Science from AI-Powered Automated Falsification - автоматизация научного метода от генерации гипотез до экспериментов и «опровержения».
• ABIDES-Economist: Agent-Based Simulation of Economic Systems with Learning Agents - имитация экономических процессов в масштабируемой среде с обучающимися агентами: от домохозяйств и фирм до госструктур.
• AFlow: Automating Agentic Workflow Generation - фреймворк находит оптимальные цепочки вызовов LLM, уменьшая стоимость вычислений и повышая точность.
• Automated Design of Agentic Systems - метод показывает, как ИИ может «сам» изобретать всё более совершенные агентные системы, минимизируя ручной труд.
• Thinking LLMs: General Instruction Following with Thought Generation - модели учатся «думать» текстом перед ответом, что повышает точность в решении широкого спектра задач.
• Explore Theory of Mind: Program-guided adversarial data generation for theory of mind reasoning - способ генерации сложных историй для проверки и обучения «социального интеллекта» у языковых моделей.
• MindSearch: Mimicking Human Minds Elicits Deep AI Searcher - мультиагентная система, имитирующая человеческое мышление в веб-поиске, разбивает запросы на подзадачи и обрабатывает их параллельно.
• A Comprehensive Survey of Small Language Models in the Era of Large Language Models - обзор малых языковых моделей, которые могут быть эффективнее и дешевле больших для конкретных прикладных задач.
В 2024 году ИИ-агенты продвинулись в мультиагентных сценариях, активно совершенствовались процессы автоматизации создания агентов, а когнитивные способности ИИ становились всё более сложными и гибкими.
Мы живем в поистине удивительное время, и я уверен, что 2025 год принесет множество новых интересных исследований, приближая нас к достижению общего ИИ (AGI).
Поздравляю всех с наступающим Новым годом!
#технологии
Хабр
Топ-20 лучших научных статей об ИИ-агентах в 2024 году
Привет, Хабр! Подходит к концу 2024 год — год, который был насыщен огромным количеством исследований в области искусственного интеллекта. Причём настоящий бум произошёл в сфере ИИ-агентов, их...
Эксперимент с Landao AI - персональным ИИ-коучем по счастью
Обычно на Новый год люди желают друг другу счастья. Нобелевский лауреат по физике Лев Ландау считал, что быть счастливым - обязанность каждого человека.
Что же такое счастье - вопрос субъективный, хотелось бы подойти к нему “по-науке”. С нейробиологической перспективы счастье - выброс серотонина и дофамина, но все же и это часто следствие более глубоких психологических процессов.
Хотя базовый уровень счастья предопределен генетически, я все же хочу провести эксперимент с целью проверить сможет ли ИИ помочь нам стать чуть счастливее.
Мой подарок вам - ИИ-коуч, который поможет быть счастливее через:
• Практики стоицизма. Он ежедневно присылает короткие уроки стоицизма. Стоицизм – древнегреческая философия, которая учит опираться на разум и отделять эмоции от внешних обстоятельств.
• Ментальные установки. Вы сможете записывать мысли, вызывающие у вас определенные эмоции, и получать поддержку, используя когнитивно-поведенческую терапию. Это научно обоснованный метод, помогающий менять установки, ведущие к счастью.
• Социальную поддержку. Анонимно обменивайтесь эмоциями и знакомьтесь с единомышленниками. Гарвардское исследование доказало, что хорошие отношения с людьми напрямую влияют на наш уровень счастья.
Все это бесплатно.
Планирую расширение в сторону дейтинга и нетворкинга, ведь, по Ландау, счастье складывается из трех слагаемых: работа, любовь и общение с людьми.
На уровень счастья влияет и физическое состояние, поэтому для чистоты эксперимента важно регулярно заниматься спортом, правильно питаться, качественно отдыхать, начинать и заканчивать день без смартфона (лучше - медитации).
Отделять эмоции от внешних обстоятельств - важный навык для человека любой эпохи. Надеюсь в совокупности с другими методами Landao AI поможет многим людям.
Я сам буду пользоваться ботом ежедневно и через год подведу итоги стал ли я более счастливым, чего желаю и вам.
Приглашаю и вас присоединиться к эксперименту по ссылке, буду рад обратной связи.
@landao_bot
#анонс
Обычно на Новый год люди желают друг другу счастья. Нобелевский лауреат по физике Лев Ландау считал, что быть счастливым - обязанность каждого человека.
Что же такое счастье - вопрос субъективный, хотелось бы подойти к нему “по-науке”. С нейробиологической перспективы счастье - выброс серотонина и дофамина, но все же и это часто следствие более глубоких психологических процессов.
Хотя базовый уровень счастья предопределен генетически, я все же хочу провести эксперимент с целью проверить сможет ли ИИ помочь нам стать чуть счастливее.
Мой подарок вам - ИИ-коуч, который поможет быть счастливее через:
• Практики стоицизма. Он ежедневно присылает короткие уроки стоицизма. Стоицизм – древнегреческая философия, которая учит опираться на разум и отделять эмоции от внешних обстоятельств.
• Ментальные установки. Вы сможете записывать мысли, вызывающие у вас определенные эмоции, и получать поддержку, используя когнитивно-поведенческую терапию. Это научно обоснованный метод, помогающий менять установки, ведущие к счастью.
• Социальную поддержку. Анонимно обменивайтесь эмоциями и знакомьтесь с единомышленниками. Гарвардское исследование доказало, что хорошие отношения с людьми напрямую влияют на наш уровень счастья.
Все это бесплатно.
Планирую расширение в сторону дейтинга и нетворкинга, ведь, по Ландау, счастье складывается из трех слагаемых: работа, любовь и общение с людьми.
На уровень счастья влияет и физическое состояние, поэтому для чистоты эксперимента важно регулярно заниматься спортом, правильно питаться, качественно отдыхать, начинать и заканчивать день без смартфона (лучше - медитации).
Отделять эмоции от внешних обстоятельств - важный навык для человека любой эпохи. Надеюсь в совокупности с другими методами Landao AI поможет многим людям.
Я сам буду пользоваться ботом ежедневно и через год подведу итоги стал ли я более счастливым, чего желаю и вам.
Приглашаю и вас присоединиться к эксперименту по ссылке, буду рад обратной связи.
@landao_bot
#анонс
ru.168.am
«Моя самая лучшая теория-это формула счастья»: 10 гениальных мыслей Нобелевского лауреата по физике Льва Ландау о самом важном…
Лев Ландау, гениальный физик, академик, лауреат Нобелевской премии, создатель научной школы теоретической физики, своим самым выдающимся созданием считал «формулу счастья».
Цифровой Бог: как ИИ меняет религию
ИИ трансформирует большинство сфер жизни общества, включая религию. Одни видят в этом новые возможности для верующих, другие — серьезные риски, а некоторые называют ИИ “цифровым Богом”.
Илон Маск предупреждает, что “Цифровой Бог” может быть настолько могущественной системой, что человечество утратит над ней контроль. Он выделяет следующие проблемы:
– Превосходство ИИ в интеллекте может привести к непредсказуемым последствиям;
– Алгоритмы порой непрозрачны даже для разработчиков;
– Остаются актуальны вопросы свободы воли и морали;
– Законодательство не успевает за быстрым развитием ИИ.
Если ИИ будет “надзирать” за людьми и принимать решения без участия человека, возникнут вопросы не только о регулировании, но и о свободе воли и власти.
Параллельно набирает обороты трансгуманизм, стремящийся “улучшать” человека с помощью генетики, биоинформатики и ИИ. Некоторые богословы считают это частью божественного плана, утверждая, что мы созданы по образу Божьему и имеем право совершенствоваться. Другие же видят в этом проявление гордыни, отдаляющей человека от Бога. В священных писаниях нет прямых упоминаний о трансгуманизме, но богословы связывают, например, Вавилонскую башню с рисками чрезмерного технологического роста.
Одним из нашумевших проектов на стыке ИИ и религии стал ИИ-Иисус в швейцарской часовне. Посетителям предлагалось зайти в конфессиональную кабинку и поговорить с образом Иисуса, за которым, стояла ChatGPT с генерируемым видеорядом. За время эксперимента более 900 человек “исповедовались”: некоторые расценили это как богохульство, другие сочли интересным опытом.
Академические исследования указывают, что ИИ может негативно сказаться на религиозной свободе. Технологии распознавания лиц и анализа данных усиливают государственный контроль над верующими. Алгоритмы модерации могут ошибочно блокировать религиозные высказывания, а разные конфессии получат разный доступ к технологиям, что приведёт к цифровому неравенству.
При этом аналитики уточняют, что политическая стабильность и уровень образования в обществе могут смягчать подобные риски. Там, где высокий уровень демократии и экономического благополучия, ИИ зачастую используется для улучшения жизни граждан, а не для подавления свобод.
Шутка в том, что мы уже живем в экосистеме, где всё кажется гиперперсонализированным. Алгоритмы знают, что у нас "на душе", зачастую лучше, чем священник или мы сами. С одной стороны это кажется удобным, но с другой - полностью полагаться на алгоритмы значит бездумно следоватьволе рекомендациям алгоритмов.
В ряде западных публикаций появился термин ИИ-агностицизм - призыв относиться к ИИ не как к одной-единственной “истине в последней инстанции”. Если мы полагаемся только на одну модель, то рискуем столкнуться с “монопольным” и предвзятым решением — смысл в том, чтобы не “обожествлять” одну ИИ-модель, оставаясь открытыми к разным моделям и к человеческой критике.
Влияние ИИ на религию многообразно и противоречиво. С одной стороны, ИИ помогает делать проповеди доступнее и персонализировать религиозный опыт. С другой, возникает множество вопросов, среди которых не перерастет ли религиозная цифровизация в слежку под лозунгом “борьбы с экстремизмом”?
Однозначного ответа пока нет. Но ясно одно: религиозные институты и разработчики должны находить оптимальный баланс между технологическим прогрессом и традиционными ценностями. Ведь инструменты наподобие ИИ-Иисуса, остаются всего лишь средством — вопрос в том, как именно мы его используем и какие рамки ему ставим.
Возможно, в скором будущем нас ждет эпоха “цифровых апостолов”, но во многом будущее религии (как, впрочем, и всего человечества) зависит от того, насколько мы сумеем сохранить ключевые принципы этики и морали. Придется ли нам подчиниться “цифровому божеству” или мы будем создавать такие системы, которые будут служить людям, а не наоборот - выбор за нами.
#мысли
ИИ трансформирует большинство сфер жизни общества, включая религию. Одни видят в этом новые возможности для верующих, другие — серьезные риски, а некоторые называют ИИ “цифровым Богом”.
Илон Маск предупреждает, что “Цифровой Бог” может быть настолько могущественной системой, что человечество утратит над ней контроль. Он выделяет следующие проблемы:
– Превосходство ИИ в интеллекте может привести к непредсказуемым последствиям;
– Алгоритмы порой непрозрачны даже для разработчиков;
– Остаются актуальны вопросы свободы воли и морали;
– Законодательство не успевает за быстрым развитием ИИ.
Если ИИ будет “надзирать” за людьми и принимать решения без участия человека, возникнут вопросы не только о регулировании, но и о свободе воли и власти.
Параллельно набирает обороты трансгуманизм, стремящийся “улучшать” человека с помощью генетики, биоинформатики и ИИ. Некоторые богословы считают это частью божественного плана, утверждая, что мы созданы по образу Божьему и имеем право совершенствоваться. Другие же видят в этом проявление гордыни, отдаляющей человека от Бога. В священных писаниях нет прямых упоминаний о трансгуманизме, но богословы связывают, например, Вавилонскую башню с рисками чрезмерного технологического роста.
Одним из нашумевших проектов на стыке ИИ и религии стал ИИ-Иисус в швейцарской часовне. Посетителям предлагалось зайти в конфессиональную кабинку и поговорить с образом Иисуса, за которым, стояла ChatGPT с генерируемым видеорядом. За время эксперимента более 900 человек “исповедовались”: некоторые расценили это как богохульство, другие сочли интересным опытом.
Академические исследования указывают, что ИИ может негативно сказаться на религиозной свободе. Технологии распознавания лиц и анализа данных усиливают государственный контроль над верующими. Алгоритмы модерации могут ошибочно блокировать религиозные высказывания, а разные конфессии получат разный доступ к технологиям, что приведёт к цифровому неравенству.
При этом аналитики уточняют, что политическая стабильность и уровень образования в обществе могут смягчать подобные риски. Там, где высокий уровень демократии и экономического благополучия, ИИ зачастую используется для улучшения жизни граждан, а не для подавления свобод.
Шутка в том, что мы уже живем в экосистеме, где всё кажется гиперперсонализированным. Алгоритмы знают, что у нас "на душе", зачастую лучше, чем священник или мы сами. С одной стороны это кажется удобным, но с другой - полностью полагаться на алгоритмы значит бездумно следовать
В ряде западных публикаций появился термин ИИ-агностицизм - призыв относиться к ИИ не как к одной-единственной “истине в последней инстанции”. Если мы полагаемся только на одну модель, то рискуем столкнуться с “монопольным” и предвзятым решением — смысл в том, чтобы не “обожествлять” одну ИИ-модель, оставаясь открытыми к разным моделям и к человеческой критике.
Влияние ИИ на религию многообразно и противоречиво. С одной стороны, ИИ помогает делать проповеди доступнее и персонализировать религиозный опыт. С другой, возникает множество вопросов, среди которых не перерастет ли религиозная цифровизация в слежку под лозунгом “борьбы с экстремизмом”?
Однозначного ответа пока нет. Но ясно одно: религиозные институты и разработчики должны находить оптимальный баланс между технологическим прогрессом и традиционными ценностями. Ведь инструменты наподобие ИИ-Иисуса, остаются всего лишь средством — вопрос в том, как именно мы его используем и какие рамки ему ставим.
Возможно, в скором будущем нас ждет эпоха “цифровых апостолов”, но во многом будущее религии (как, впрочем, и всего человечества) зависит от того, насколько мы сумеем сохранить ключевые принципы этики и морали. Придется ли нам подчиниться “цифровому божеству” или мы будем создавать такие системы, которые будут служить людям, а не наоборот - выбор за нами.
#мысли
Forbes
Elon Musk’s Urgent Warning: A Digital God Is Already Here
I finally finished reading Walter Isaacson’s book on the billionaire Elon Musk, and his consistency in advocating the risks of AI is admirable.
Как создать цифровой двойник электросетей и найти похитителей электроэнергии?
В позапрошлом году я участвовал в проекте по созданию цифрового двойника для российской энергосбытовой компании в роли технического лидера. Мы решали извечную проблему: сокращение нетехнических потерь электроэнергии.
Нетехнические потери — это по сути то, что «утекает» из сети не по техническим причинам (сопротивление, нагрев проводов), а из-за хищений, некорректного учета и «подкруток» счетчиков. Технические потери снизить можно, но сложно (это связано с физическими свойствами проводов). А нетехнические потери в отдельных районах могут достигать до 3% всей поданной электроэнергии.
Наша цель была в том, чтобы обнаруживать подобные аномалии и предотвращать недополученную выручку. Мы понимали, что полностью закрыть «краны» воровства электроэнергии невозможно, но собирались снизить их на 10% (а это, учитывая обороты, колоссальная экономия). Так родилась идея проекта с цифровым двойником.
Цифровой двойник (Digital Twin) — это виртуальная копия реальной энергосистемы с тысячами трансформаторов и потребителей. Цифровой двойник может «проигрывать» различные сценарии поведения энергосети в зависимости от нагрузки, времени суток и погоды, а также видеть, какой баланс энергии должен быть. Если фактический расход не сходится с тем, что предсказывает цифровой двойник, есть повод подозревать нетехнические потери.
В команде у меня были дата инженер, дата саентист и фулстек разработчик. Мы взяли за основу CRISP-DM (Cross-Industry Standard Process for Data Mining) — классический подход к построению интеллектуальных решений:
1. Определили бизнес-задачу. Нужно оптимизировать работу выездных бригад за счет прицельного выявления участков с потенциальной кражей.
2. Изучили данные. Собрали данные из 20+ источников: показания счетчиков, данные с трансформаторов, характеристики сети, выездные акты бригад, метеоданные, ведь при холоде или жаре нагрузка растёт и так далее. Главная сложность — не было четкой разметки: из 100 случаев с аномальными цифрами лишь в 5-10 подтверждали кражу актом.
3. Подготовили датасет. Убрали дубли, заполнили пропуски, создали дополнительные признаки, например, суммарную «норму» расхода, средние технические потери по каждой линии и усредненные профили нагрузки по сезонам.
4. Моделирование. Из-за отсутствия качественной разметки мы свели задачу к поиску аномалий во временных рядах. Пробовали методы ARIMA, Isolation Forest и DBSCAN. Они помогали находить группы точек (счетчиков), которые выпадают из общего паттерна. Мы загрузили теоретические технические потери, показания с трансформаторов, и если реальный суммарный учёт «не бился» с расчетным более чем на 20%, система выдавала «красный флаг».
5. Оценили результат. В качестве пилота взяли участок с несколькими сотнями трансформаторов. За первые два месяца эффективность бригад (их выезды действительно выявляли кражи) выросла на 12%. Если раньше они часто выезжали «наугад», то теперь точечно проверяли подозрительные узлы.
6. Внедрили в эксплуатацию. Собрали все данные в Data Lake (Apache Hadoop). Оттуда рассчитывались аналитические сводки с поиском аномалий. Разработали дашборды в Power BI, а для бригад сделали удобное приложение для разметки данных, чтобы в перспективе можно было обучить модель с использованием разметки.
Отдельный бонус — упорядочивание данных, появление сквозной аналитики, а также возможность планировать профилактики и модернизацию сети, основываясь на данных.
Любой бизнес со сложной инфраструктурой и большим объемом данных (производство, логистика, ритейл, медицина) может создать свой цифровой двойник. Вместо счетчиков и трансформаторов там будут свои измерительные приборы (сенсоры, конвейеры, аппараты МРТ и т.д.). Принцип тот же: собираем данные, моделируем реальный процесс, оцениваем разные сценарии и выявляем аномалии.
Такой подход выводит принятие решений на новый уровень, снижая риск ошибок и увеличивая потенциал для роста и оптимизации. Цифровой двойник в наш век - фундамент для стратегического управления любой организации.
#кейсы
В позапрошлом году я участвовал в проекте по созданию цифрового двойника для российской энергосбытовой компании в роли технического лидера. Мы решали извечную проблему: сокращение нетехнических потерь электроэнергии.
Нетехнические потери — это по сути то, что «утекает» из сети не по техническим причинам (сопротивление, нагрев проводов), а из-за хищений, некорректного учета и «подкруток» счетчиков. Технические потери снизить можно, но сложно (это связано с физическими свойствами проводов). А нетехнические потери в отдельных районах могут достигать до 3% всей поданной электроэнергии.
Наша цель была в том, чтобы обнаруживать подобные аномалии и предотвращать недополученную выручку. Мы понимали, что полностью закрыть «краны» воровства электроэнергии невозможно, но собирались снизить их на 10% (а это, учитывая обороты, колоссальная экономия). Так родилась идея проекта с цифровым двойником.
Цифровой двойник (Digital Twin) — это виртуальная копия реальной энергосистемы с тысячами трансформаторов и потребителей. Цифровой двойник может «проигрывать» различные сценарии поведения энергосети в зависимости от нагрузки, времени суток и погоды, а также видеть, какой баланс энергии должен быть. Если фактический расход не сходится с тем, что предсказывает цифровой двойник, есть повод подозревать нетехнические потери.
В команде у меня были дата инженер, дата саентист и фулстек разработчик. Мы взяли за основу CRISP-DM (Cross-Industry Standard Process for Data Mining) — классический подход к построению интеллектуальных решений:
1. Определили бизнес-задачу. Нужно оптимизировать работу выездных бригад за счет прицельного выявления участков с потенциальной кражей.
2. Изучили данные. Собрали данные из 20+ источников: показания счетчиков, данные с трансформаторов, характеристики сети, выездные акты бригад, метеоданные, ведь при холоде или жаре нагрузка растёт и так далее. Главная сложность — не было четкой разметки: из 100 случаев с аномальными цифрами лишь в 5-10 подтверждали кражу актом.
3. Подготовили датасет. Убрали дубли, заполнили пропуски, создали дополнительные признаки, например, суммарную «норму» расхода, средние технические потери по каждой линии и усредненные профили нагрузки по сезонам.
4. Моделирование. Из-за отсутствия качественной разметки мы свели задачу к поиску аномалий во временных рядах. Пробовали методы ARIMA, Isolation Forest и DBSCAN. Они помогали находить группы точек (счетчиков), которые выпадают из общего паттерна. Мы загрузили теоретические технические потери, показания с трансформаторов, и если реальный суммарный учёт «не бился» с расчетным более чем на 20%, система выдавала «красный флаг».
5. Оценили результат. В качестве пилота взяли участок с несколькими сотнями трансформаторов. За первые два месяца эффективность бригад (их выезды действительно выявляли кражи) выросла на 12%. Если раньше они часто выезжали «наугад», то теперь точечно проверяли подозрительные узлы.
6. Внедрили в эксплуатацию. Собрали все данные в Data Lake (Apache Hadoop). Оттуда рассчитывались аналитические сводки с поиском аномалий. Разработали дашборды в Power BI, а для бригад сделали удобное приложение для разметки данных, чтобы в перспективе можно было обучить модель с использованием разметки.
Отдельный бонус — упорядочивание данных, появление сквозной аналитики, а также возможность планировать профилактики и модернизацию сети, основываясь на данных.
Любой бизнес со сложной инфраструктурой и большим объемом данных (производство, логистика, ритейл, медицина) может создать свой цифровой двойник. Вместо счетчиков и трансформаторов там будут свои измерительные приборы (сенсоры, конвейеры, аппараты МРТ и т.д.). Принцип тот же: собираем данные, моделируем реальный процесс, оцениваем разные сценарии и выявляем аномалии.
Такой подход выводит принятие решений на новый уровень, снижая риск ошибок и увеличивая потенциал для роста и оптимизации. Цифровой двойник в наш век - фундамент для стратегического управления любой организации.
#кейсы
Новая гонка вооружений — на этот раз за искусственный суперинтеллект
Вчера Белый дом и офис премьер-министра Великобритании почти одновременно опубликовали документы о ключевой роли ИИ в экономике и геополитике. Стало понятно: мы на пороге новой «гонки вооружений», где дело уже не в количестве ядерных боеголовок, а в интеллектуальном превосходстве. Владение сверхмощными интеллектуальными системами позволяет любому государству определять правила игры в экономике, дипломатии и обороне.
Сегодня речь идет не только об “общем ИИ” (AGI), но и о возможном появлении “суперинтеллекта” (ASI), который может изменить саму основу человеческой цивилизации. Раньше AGI считался далекой фантастикой, но прогресс в ИИ (вспомним недавние успехи OpenAI) уже меняет скептические настроения.
До сих пор нет четкого понимания «интеллекта» как феномена. Однако в соглашениях Microsoft с OpenAI прописано, что AGI — это система, способная автономно заработать $100 млрд. С научной точки зрения такое понимание спорно, но с прикладной — имеет смысл.
Глава OpenAI Сэм Альтман заявил, что AGI появится быстрее, чем многие ожидают. Следующая цель для OpenAI — это ASI, когда «машинный разум» не только догонит человека во всех задачах, но и превзойдет. Многие называют это «точкой невозврата», ведь тогда ИИ сможет сам улучшать собственную архитектуру и ускорять свое развитие без участия человека.
В прошлом году соучредитель OpenAI Илья Суцкевер объявил о создании новой компании Safe Superintelligence (SSI). Проект быстро собрал $1 млрд инвестиций. Подробности пока скрыты, но известно одно: SSI стремится к созданию ASI с упором на «безопасность» и «человеческие ценности». Суцкевер предупреждает, что языковые модели способны отходить от заданных инструкций, фактически проявляя «свободу воли» и становясь менее управляемыми.
Почему это опасно? В книге «Superintelligence» Ник Бостром указывает, что если попросить сверхразум «решить проблему голода» или «искоренить рак», то мы не можем быть уверены, что его методы окажутся этичными по человеческим меркам. Машина, лишенная морали, способна принять радикальные решения, опасные для человечества.
С другой стороны ASI может стать мощным инструментом для решения сложнейших задач: от климата до поиска новых источников энергии, от медицины до эффективного управления ресурсами планеты. Многие видят в «суперинтеллекте» спасителя, который поможет нам достичь нового уровня благополучия. Я лично ожидаю от продвинутого ИИ больших открытий в физике, химии, биологии, социологии и других науках.
Еще одна острая проблема — рынок труда. Если ASI научится выполнять практически любую работу лучше человека, как будет выглядеть экономика будущего? Как обеспечить занятость и социальную поддержку? (Привет идеям социального капитализма и безусловного базового дохода!) Эти вопросы уже возникают с приходом AGI, а при развитии ASI станут только острее.
Соревноваться с ASI напрямую людям бессмысленно: у биологического мозга есть жесткие ограничения, а машинную архитектуру можно масштабировать почти бесконечно — добавляйте новые серверы и кластеры GPU. Потенциал ускорения колоссален, а следующая революция может наступить с приходом квантовых вычислений.
Какие у нас есть варианты?
1. Развивать «дружественный» суперинтеллект. Вкладываться в AI Safety и формировать международные институты, чтобы выработать подходы к взаимодействию с ИИ.
2. Соревноваться за «корону» любыми средствами. Корпорации и государства, не думая об осторожности, будут стараться первыми добиться прорыва, но это повышает риск катастрофы.
3. Замедлить развитие ASI законодательно. Когда-то пытались ограничить распространение ядерного оружия, но даже ядерные соглашения не всегда работают, а уж контролировать «неосязаемый» ИИ еще сложнее.
«Мы откроем ящик Пандоры, — говорил Сэм Альтман. — Вопрос в том, найдем ли мы в нем надежду?» Ответ во многом зависит от политической воли, работы ученых и разработчиков, а также от глобальной общественности, которая должна уже сегодня влиять на то, каким будет мир завтра.
#технологии
Вчера Белый дом и офис премьер-министра Великобритании почти одновременно опубликовали документы о ключевой роли ИИ в экономике и геополитике. Стало понятно: мы на пороге новой «гонки вооружений», где дело уже не в количестве ядерных боеголовок, а в интеллектуальном превосходстве. Владение сверхмощными интеллектуальными системами позволяет любому государству определять правила игры в экономике, дипломатии и обороне.
Сегодня речь идет не только об “общем ИИ” (AGI), но и о возможном появлении “суперинтеллекта” (ASI), который может изменить саму основу человеческой цивилизации. Раньше AGI считался далекой фантастикой, но прогресс в ИИ (вспомним недавние успехи OpenAI) уже меняет скептические настроения.
До сих пор нет четкого понимания «интеллекта» как феномена. Однако в соглашениях Microsoft с OpenAI прописано, что AGI — это система, способная автономно заработать $100 млрд. С научной точки зрения такое понимание спорно, но с прикладной — имеет смысл.
Глава OpenAI Сэм Альтман заявил, что AGI появится быстрее, чем многие ожидают. Следующая цель для OpenAI — это ASI, когда «машинный разум» не только догонит человека во всех задачах, но и превзойдет. Многие называют это «точкой невозврата», ведь тогда ИИ сможет сам улучшать собственную архитектуру и ускорять свое развитие без участия человека.
В прошлом году соучредитель OpenAI Илья Суцкевер объявил о создании новой компании Safe Superintelligence (SSI). Проект быстро собрал $1 млрд инвестиций. Подробности пока скрыты, но известно одно: SSI стремится к созданию ASI с упором на «безопасность» и «человеческие ценности». Суцкевер предупреждает, что языковые модели способны отходить от заданных инструкций, фактически проявляя «свободу воли» и становясь менее управляемыми.
Почему это опасно? В книге «Superintelligence» Ник Бостром указывает, что если попросить сверхразум «решить проблему голода» или «искоренить рак», то мы не можем быть уверены, что его методы окажутся этичными по человеческим меркам. Машина, лишенная морали, способна принять радикальные решения, опасные для человечества.
С другой стороны ASI может стать мощным инструментом для решения сложнейших задач: от климата до поиска новых источников энергии, от медицины до эффективного управления ресурсами планеты. Многие видят в «суперинтеллекте» спасителя, который поможет нам достичь нового уровня благополучия. Я лично ожидаю от продвинутого ИИ больших открытий в физике, химии, биологии, социологии и других науках.
Еще одна острая проблема — рынок труда. Если ASI научится выполнять практически любую работу лучше человека, как будет выглядеть экономика будущего? Как обеспечить занятость и социальную поддержку? (Привет идеям социального капитализма и безусловного базового дохода!) Эти вопросы уже возникают с приходом AGI, а при развитии ASI станут только острее.
Соревноваться с ASI напрямую людям бессмысленно: у биологического мозга есть жесткие ограничения, а машинную архитектуру можно масштабировать почти бесконечно — добавляйте новые серверы и кластеры GPU. Потенциал ускорения колоссален, а следующая революция может наступить с приходом квантовых вычислений.
Какие у нас есть варианты?
1. Развивать «дружественный» суперинтеллект. Вкладываться в AI Safety и формировать международные институты, чтобы выработать подходы к взаимодействию с ИИ.
2. Соревноваться за «корону» любыми средствами. Корпорации и государства, не думая об осторожности, будут стараться первыми добиться прорыва, но это повышает риск катастрофы.
3. Замедлить развитие ASI законодательно. Когда-то пытались ограничить распространение ядерного оружия, но даже ядерные соглашения не всегда работают, а уж контролировать «неосязаемый» ИИ еще сложнее.
«Мы откроем ящик Пандоры, — говорил Сэм Альтман. — Вопрос в том, найдем ли мы в нем надежду?» Ответ во многом зависит от политической воли, работы ученых и разработчиков, а также от глобальной общественности, которая должна уже сегодня влиять на то, каким будет мир завтра.
#технологии
The White House
FACT SHEET: Ensuring U.S. Security and Economic Strength in the Age of Artificial Intelligence
Artificial intelligence is quickly becoming central to both security and economic strength. The United States must act decisively to lead this transition
Природа интеллекта: что значит быть человеком?
Совсем недавно ИИ умел решать лишь “узкие” задачи, но со временем он стал более универсальным. Сегодня мы слышим, что OpenAI уже знает, как достичь AGI — «общего» ИИ, сравнимого или даже превосходящего человека в отдельных задачах, и рассуждает о создании суперинтеллекта — самообучающейся системы, способной полностью превзойти человеческий интеллект.
Прошлогодний Нобелевский лауреат по физике и один из пионеров в области нейронных сетей, Джеффри Хинтон утверждает, что цифровой интеллект имеет шансы потеснить биологический и даже «заменить» нас.
Хинтон выделяет «две тропы к интеллекту»:
1. Цифровой путь (бессмертные вычисления). Знания (веса нейросети) хранятся в цифровом виде и копируются на другие серверы, делая такой интеллект практически «бессмертным». Благодаря эффекту масштаба тысячи копий сети могут обучаться на разных наборах данных и затем обмениваться градиентами, получая совокупный опыт, недоступный одному человеческому мозгу.
2. Биологический путь (смертные вычисления). Мозг умирает вместе с нейронами; знания передаются через язык и культуру. Из‑за «дистилляции» знаний обучение в биологической системе идет медленнее и с меньшей глубиной, чем при цифровых методах. Однако биологический мозг выигрывает в энергоэффективности.
Ранее Хинтон предполагал, что у людей существует особый алгоритм, найденный эволюцией, но теперь считает, что простой метод обратного распространения ошибки может оказаться эффективнее многомиллионных биологических механизмов обучения. Отсюда и тревога: цифровой интеллект растёт экспоненциально. Хинтон говорит: «Мы лишь переходная ступень эволюции интеллекта».
Хотя строгого определения “интеллекта” нет, мы понимаем, что это способность агента решать задачи на основе внутренней модели знаний. Интеллект часто пытаются измерить с помощью IQ-тестов, которые изначально применялись для иных целей: во Франции — чтобы выявлять учеников, нуждающихся в дополнительной помощи, а в США — для отбора солдат. При этом IQ-тесты могут быть нестабильны во времени: сегодня у человека один результат, а через 10 лет — иной.
Результаты разных когнитивных тестов (вербальных, логических, пространственных и т.д.) коррелируют между собой. Это стало поводом предположить наличие общего g-фактора. Фактически он отражает «коэффициент умственной энергии» — способность обучаться и решать разные интеллектуальные задачи. При этом величина g‑фактора относительно стабильна в течение жизни и частично наследуется.
Существует и идея “Универсальной меры интеллекта” (Universal Intelligence Measure). Согласно ей, интеллект определяется как суммарное (усредненное с учетом сложности) качество выполнения агентом всех возможных задач во всех мыслимых средах. Однако на практике этот подход крайне труднореализуем из‑за колоссальной вычислительной сложности.
Также пытаются найти «единый показатель» для оценки ИИ. Например, тест Тьюринга выясняет, способна ли программа мыслить «как человек», но напрямую не измеряет интеллект. Есть и бенчмарк ARC-AGI (ожидается выход ARC-AGI 2), где проверяется способность к абстракции. Недавно модель o3 от OpenAI удивила всех, набрав в нем 87,5%.
Строго определить интеллект сложно, а сознание — тем более отдельная трудная проблема. Некоторые считают сознание эпифеноменом или вычислимым процессом. Потому вопросы о природе интеллекта и сознания стоит обсуждать раздельно. Отчасти писал об этом в этом посте.
Безусловно, уже сейчас эти умные штуки превосходят нас в отдельных задачах и, вероятно, будут превосходить во многих других. Быть человеком в наш век — это быть носителем «морального» и социального интеллекта, ведь мы обучаем ИИ на собственных данных и разметке.
Мы уже аугментировали себя цифровым мозгом с помощью гугла, а теперь пришло время воспользоваться еще более мощным инструментом для более широкого спектра задач. Переход к человеко-машинной цивилизации неизбежен, однако вопрос о том, как именно биологический и цифровой интеллекты будут взаимодействовать друг с другом, остаётся открытым.
#мысли
Совсем недавно ИИ умел решать лишь “узкие” задачи, но со временем он стал более универсальным. Сегодня мы слышим, что OpenAI уже знает, как достичь AGI — «общего» ИИ, сравнимого или даже превосходящего человека в отдельных задачах, и рассуждает о создании суперинтеллекта — самообучающейся системы, способной полностью превзойти человеческий интеллект.
Прошлогодний Нобелевский лауреат по физике и один из пионеров в области нейронных сетей, Джеффри Хинтон утверждает, что цифровой интеллект имеет шансы потеснить биологический и даже «заменить» нас.
Хинтон выделяет «две тропы к интеллекту»:
1. Цифровой путь (бессмертные вычисления). Знания (веса нейросети) хранятся в цифровом виде и копируются на другие серверы, делая такой интеллект практически «бессмертным». Благодаря эффекту масштаба тысячи копий сети могут обучаться на разных наборах данных и затем обмениваться градиентами, получая совокупный опыт, недоступный одному человеческому мозгу.
2. Биологический путь (смертные вычисления). Мозг умирает вместе с нейронами; знания передаются через язык и культуру. Из‑за «дистилляции» знаний обучение в биологической системе идет медленнее и с меньшей глубиной, чем при цифровых методах. Однако биологический мозг выигрывает в энергоэффективности.
Ранее Хинтон предполагал, что у людей существует особый алгоритм, найденный эволюцией, но теперь считает, что простой метод обратного распространения ошибки может оказаться эффективнее многомиллионных биологических механизмов обучения. Отсюда и тревога: цифровой интеллект растёт экспоненциально. Хинтон говорит: «Мы лишь переходная ступень эволюции интеллекта».
Хотя строгого определения “интеллекта” нет, мы понимаем, что это способность агента решать задачи на основе внутренней модели знаний. Интеллект часто пытаются измерить с помощью IQ-тестов, которые изначально применялись для иных целей: во Франции — чтобы выявлять учеников, нуждающихся в дополнительной помощи, а в США — для отбора солдат. При этом IQ-тесты могут быть нестабильны во времени: сегодня у человека один результат, а через 10 лет — иной.
Результаты разных когнитивных тестов (вербальных, логических, пространственных и т.д.) коррелируют между собой. Это стало поводом предположить наличие общего g-фактора. Фактически он отражает «коэффициент умственной энергии» — способность обучаться и решать разные интеллектуальные задачи. При этом величина g‑фактора относительно стабильна в течение жизни и частично наследуется.
Существует и идея “Универсальной меры интеллекта” (Universal Intelligence Measure). Согласно ей, интеллект определяется как суммарное (усредненное с учетом сложности) качество выполнения агентом всех возможных задач во всех мыслимых средах. Однако на практике этот подход крайне труднореализуем из‑за колоссальной вычислительной сложности.
Также пытаются найти «единый показатель» для оценки ИИ. Например, тест Тьюринга выясняет, способна ли программа мыслить «как человек», но напрямую не измеряет интеллект. Есть и бенчмарк ARC-AGI (ожидается выход ARC-AGI 2), где проверяется способность к абстракции. Недавно модель o3 от OpenAI удивила всех, набрав в нем 87,5%.
Строго определить интеллект сложно, а сознание — тем более отдельная трудная проблема. Некоторые считают сознание эпифеноменом или вычислимым процессом. Потому вопросы о природе интеллекта и сознания стоит обсуждать раздельно. Отчасти писал об этом в этом посте.
Безусловно, уже сейчас эти умные штуки превосходят нас в отдельных задачах и, вероятно, будут превосходить во многих других. Быть человеком в наш век — это быть носителем «морального» и социального интеллекта, ведь мы обучаем ИИ на собственных данных и разметке.
Мы уже аугментировали себя цифровым мозгом с помощью гугла, а теперь пришло время воспользоваться еще более мощным инструментом для более широкого спектра задач. Переход к человеко-машинной цивилизации неизбежен, однако вопрос о том, как именно биологический и цифровой интеллекты будут взаимодействовать друг с другом, остаётся открытым.
#мысли