Data Secrets
88.5K subscribers
6.68K photos
722 videos
20 files
2.93K links
Главный по машинному обучению

Сотрудничество: @veron_28

РКН: clck.ru/3FY3GN
Download Telegram
Google перепридумали квантование: их алгоритм TurboQuant может стать новым стандартом эффективности LLM

В современных моделях проблема памяти не только в числе параметров, но и в том, что модель постоянно таскает за собой огромное количество векторов – в KV-cache для длинного контекста и в индексах vector search для RAG. Именно они тормозят модель и делают инференс дорогим. Можно квантовать векторы (то есть уменьшать битность вычислений), но тогда модель теряет в качестве.

Google придумали, как сжимать умнее: не просто округлить числа погрубее, а сделать это так, чтобы модель почти не замечала потери точности. Для практики это означает три вещи:

1. Длинный контекст становится дешевле
2. Инференс на том же железе ускоряется
3. Vector search по огромным базам становится компактнее и быстрее


Технически метод TurboQuant состоит из двух слоев. PolarQuant сначала преобразует вектор через случайное вращение так, чтобы его можно было эффективно сжать с минимальными служебными затратами – именно за счет этого происходит основное сжатие без потери смысла. Затем QJL (Quantized Johnson-Lindenstrauss) добавляет сверхдешевую коррекцию ошибки, кодируя остаток всего одним дополнительным битом на компоненту. Это помогает еще точнее восстановить attention score с минимальной нагрузкой на вычисления.

В экспериментах TurboQuant показывает лучший баланс между искажением скалярного произведения, recall и размером KV-cache – его удалось квантануть аж до 3 бит без дообучения и без компромисса по точности. В статье подчеркивается, что значения близки к теоретическим нижним границам, то есть это почти оптимум.

Очень сильная инфрастуктурная работа. Google, как всегда, молодцы.

research.google/blog/turboquant-redefining-ai-efficiency-with-extreme-compression/
🔥20549👍25❤‍🔥3😁32🤝1🫡1
🚀Yandex B2B Tech выделит компаниям 500 млн рублей на разработку ИИ-агентов

Если вы планируете внедрить ИИ в свои решения, есть шанс упростить и ускорить запуск. Яндекс открывает программу Yandex AI Studio Boost, в рамках которой компании могут получить грант до 1 млн рублей на создание ИИ-агентов и других ИИ-продуктов на базе Yandex AI Studio в течение полугода.

Помимо финансирования, участники получают экспертную поддержку, маркетинговые ресурсы и скидку до 70% на платформу до полугода после окончания программы. Программа подходит стартапам и крупным компаниям, уже работающим над цифровыми продуктами для внешнего рынка и планирующим интеграцию ИИ.

Среди первых участников — проект R77.ai, ускоряющий проверку документов для банков, страховых и девелоперов до нескольких минут; Noumy.ai, внедряющий анализ кандидатов и их поведения на интервью с помощью моделей машинного обучения; и GO2AI, создающий ИИ-агентов для стратегического планирования, что в пилоте позволило сократить цикл принятия решений с нескольких дней до часа.

Участники программы также могут получить софинансирование маркетинговых активностей и разместить свои решения на маркетплейсе внешних продуктов Yandex Cloud. Ранее в рамках Cloud Boost стартапы уже получили 625 млн рублей на облачную инфраструктуру.
Please open Telegram to view this post
VIEW IN TELEGRAM
😁38🗿1814🔥6👍4
OpenAI закончила претрейн своей следующей модели, а еще в стартапе появился отдел AGI Deployment

The Information получили доступ к нескольким внутренним запискам стартапа и выяснили, что там сейчас происходят довольно большие изменения.

Альтман якобы говорит сотрудникам, что в течение нескольких недель у компании будет очень сильная модель, которая "действительно может повлиять на экономику". Речь идет о модели под кодовым названием Spud (картошка), и судя по всему, ее претрейн уже окончен.

Вокруг этой модели меняется структура стартапа. Во-первых, Альтман перестает лично курировать часть своих прямых подчиненных (в частности, safety & security команды) и с головой уходит в привлечение капитала, выстраивание цепочек поставок и строительство дата‑центров.

Во-вторых, продуктовая организация под руководством Fidji Simo переименовывается в «AGI Deployment». Эта команда будет отвечать за то, как следующая модель будет работать в продуктах. Известно также, что они планируют построить на ее основе «супер‑приложение», в котором объединят ChatGPT, Codex и браузер Atlas.

Почему в названии фигурирует именно AGI (а не AI, по старинке), непонятно. Может, это прогрев перед официальным объявлением достижения AGI?

Говорят, кстати, что отказ от SORA App – тоже часть перестройки и перераспределения компьюта для Spud.
🤔9331👍1796🤓4👏2😁22🤯1
MWS Cloud запустила MWS GPT Model Hub - сервис по работе с большими языковыми моделями.

Его суть в том, что LLM можно за несколько минут подключить к продуктам компании и системам без управления инфраструктурой моделей. Благодаря этому время вывода продуктов с AI-функциями на рынок может сократиться в 2 раза.

Сервис запущен в публичном облаке MWS Cloud Platform. Компании из России могут внедрять ведущие мировые модели. Сейчас, к примеру, доступны LLM от DeepSeek, Google, Alibaba и другие, а до конца 2025 года появятся еще 10 моделей, в том числе преобразующих текст в речь и обратно.

Инструмент позволяет разработчикам интегрировать ИИ-функции – от чат-ботов до систем аналитики – без необходимости самостоятельно разворачивать и обслуживать ИТ-инфраструктуру.

Настоящий подарок для backend-разработчиков, AI-инженеров, DevOps и platform-команд, разработчиков SaaS-продуктов и стартап-команд.
🗿5014🔥8😁6👍3❤‍🔥211
⚡️ Вышел ARC-AGI-3 – новая версия бенчмарка Шолле и первый интерактивный тест для эвала агентов

В первых двух версиях задачки были статичные. А тут фишка как раз в динамике: бенчмарк полностью состоит из игровых сред.

Каждая из игр устроена так, что ее правила, цели и механики неизвестны участнику заранее. Человек справляется с такими задачками легко, с абсолютным скором 100% (требуются только базовые знания). А вот агенты с треском проваливаются и в основном выбивают меньше 1 процента.

Вот здесь примеры, как тест проходит Gemini 3.1: с некоторыми задачками она справляется нормально, с некоторыми – очень плохо.

Самостоятельно поиграть можно здесь.

Ключевые проверяемые способности – самостоятельное исследование, быстрое обучение, адаптация к новым ситуациям, умение планировать и гибко перестраиваться.

В общем, команда продолжает выискивать именно то, что делает интеллект человека по-настоящему сильным, и что пока недоступно моделям.

Ну и стартовало традиционное соревнование по обновленной версии. Призовой фонд на этот раз – 2 миллиона долларов.

Хотя больше интересно, когда опубликуют лидерборд фронтиров
Please open Telegram to view this post
VIEW IN TELEGRAM
1🔥10422👍16😁3😎211❤‍🔥1
Data Secrets
Хотя больше интересно, когда опубликуют лидерборд фронтиров
Нашелся лидерборд: https://arcprize.org/leaderboard

Кратко:
– Gemini 3.1 Pro: 0.2% за 2.2к$
– Opus 4.6: 0.2% за 8.9к$ (!)
– GPT-5.4: 0.3% за 5.2к$
– Grok 4.20: 0.0% за 3.8к$ (хаха)
😁214🔥2011🤯4🗿1
Отрывок из новой статьи Теренса Тао ⬆️

А вот отрывок из сопутствующего блога:

Один из аргументов для теоремы 1.4 был предложен мне ChatGPT, так как я ранее не знал о теореме двух констант Неванлинны. <> Затем ChatGPT доказал первое из двух утверждений, лежащих в основе теоремы. Также для нахождения доказательства теоремы 1.4 через лемму 1.1 использовались AlphaEvolve и ChatGPT Pro.


Такая вот новая реальность: ChatGPT доказывает утверждения для лучшего математика в мире. Фактически, это чуть не соавторство.
Please open Telegram to view this post
VIEW IN TELEGRAM
😎117👍4429😁7🤯5🔥4
This media is not supported in your browser
VIEW IN TELEGRAM
Вайбкодить теперь можно даже виртуальную реальность

Google выкатили Vibe Coding XR – платформу для генерации AR/VR интерфейсов из промпта.

Под капотом, конечно, Gemini, но генерирует моделька уже не просто код, а пространство + объекты + физику + интерактивность.

На самом деле, операции тут происходят даже не с кодом, а со смысловыми блоками XR Blocks. Так что в строгом смысле слова это не вайбкодинг, а вайб-билдинг.

Пока что выпустили в виде исследовательского прототипа (те потрогать нельзя), но это уже сильный шаг. Google, видимо, все еще надеются продвинуть Android XR и повоевать за рынок с Apple Vision Pro. А как мы знаем, если Google захотят – Google сделают.

research.google/blog/vibe-coding-xr-accelerating-ai-xr-prototyping-with-xr-blocks-and-gemini/
🔥81👏13🤯10👍5😁4322
Ускорьте работу с ИИ и генеративными моделями с новыми видеокартами в облаке Selectel — H100, H200, RTX 6000 Pro, L4.

Почасовая аренда, быстрый запуск и гибкая настройка под задачи любой сложности.

Посмотреть цены и арендовать сервер 👉 https://slc.tl/wabpm

Реклама. АО "Селектел". erid:2W5zFJKK4zV
😁23🗿15👍11🤓3
Meta* представили TRIBE v2 – открытый симулятор человеческого мозга

Это модель, которая предсказывает, как будет активироваться мозг человека, когда он что-то видит, слышит или читает. То есть TRIBE v2 – это искусственный макет того, как человек воспринимает мир. Типа API к биологическому мозгу ☕️

Самое удивительное: TRIBE v2 работает точнее МРТ(fMRI). То есть если измерить мозговую активность одного человека, она в большинстве случаев будет менее точно отображать типичную (усредненную по группе) реакцию мозга на раздражитель, чем моделька. Все дело в том, что индивидуальный МРТ довольно шумный, а TRIBE v2 предсказывает более стабильный сигнал для самых разных ситуаций.

Под капотом при этом нет ничего особенного: просто мультимодальная сборка из трех разных энкодеров для звука, видео и текста (для видео кстати используют V-JEPA 2) + трансформер, который учится отображать эмбеддинги в нейронную активность ~20к точек на коре мозга.

Есть еще интересный момент со Scaling Laws. Где трансформер – там и масштабирование, и тут тоже оказалось, что качество предсказания мозга растет с размером модели и данных.

А это значит, что у подхода большое будущее. Сейчас модель объясняет ~54% вариации сигнала, в отдельных областях – до 80%. Это уже довольно много, и даже близко к верхнему пределу fMRI как измерения. Но получается, что благодаря scaling laws следующие модели могут не просто упираться в этот предел, а фактически выйти за него в смысле восстановления более чистого сигнала, чем дает сам fMRI.

Демо, статья, код и сама модель здесь: aidemos.atmeta.com/tribev2/
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
1🤯133🔥5431👍5😁4🍓33🤨1🫡11
Google выпустили Gemini 3.1 Flash Live

Это аудио‑first модель, которая ориентирована на лайв диалоги и голосовые интерфейсы.

Обещают максимально естественную речь и минимальную задержку. Модель может отличать нюансы диалога по тону и темпу голоса (например, может поменять стиль ответа, если вы выказываете раздражение).

Контекст у новой модели держится примерно в два раза дольше, чем у прошлой версии Gemini Live, то есть она довольна хороша в длинных диалогах.

По другим бенчмаркам (устойчивость к шуму, многошаговый tool call из аудио ввода, следование инструкциям, логика диалога) Gemini 3.1 Flash Live также сильно скакнула относительно предыдущей модели и выбилась в уверенные лидеры.

Для потребителей эта моделька будет лежать в основе Search Live и Gemini Live.

Сейчас поболтать с ней уже можно в Gemini app или через Live API (цена относительно Gemini 2.5 Flash Live не изменилась)
74👍31🔥192
Anthropic скоро выпустят новую модель под кодовым названием Claude Mythos (или Capybara)

Fortune опубликовали эксклюзивный материал: они откопали утекшие внутренние документы стартапа, которые случайно оказались в публичном кэше данных компании.

В указанных документах говорится, что компания готовится к выпуску новой модели и хочет действовать с особой осторожностью, потому что модель «представляет беспрецедентные риски для кибербезопасности».

Как вы помните, в сети уже несколько раз всплывали новости о том, что Claude так или иначе используется для кибератак. Если верить сливу, и Claude Mythos – это действительно очередной скачок в способностях, то рисков станет еще больше.

Сообщается даже, что компания собирается изначально выпускать модель в ограниченном доступе для security‑команд, чтобы они могли использовать ее для усиления защиты кодовых баз и подготовки к атакам, которые в последствие Mythos сам может провоцировать.
1🔥148😁4937187👍4🤔4
Хорошая это новость или грустная, судите сами: ARC Invest посчитали, что к концу 2020-х суммарный объем текста, сгенерированного ИИ, превзойдет объем текста, который человечество накопило за последние 500 лет

Другими словами, ИИ понадобиться всего 5-10 лет, чтобы нагнать и перегнать человечество в плане количества написанного текста.

Оказалось, кстати, что 2025 стал первым годом, когда ИИ сгенерировал больше текста, чем люди. Подсчеты, конечно, очень приблизительные, – но все же.
161😁573711🤔6👍2🔥2🫡2💘1
Media is too big
VIEW IN TELEGRAM
OpenAI построена Альтманом на манипуляциях

Вчера вышел крайне занятный подкаст Стивена Бартлетта с журналисткой Карен Хао. Хао несколько лет занимается расследованием происходящего в OpenAI. Она даже написала об этом книгу «Empire of AI».

Она утверждает, что в рамках расследования провела более 300 интервью (в том числе 90+ с нынешними и бывшими сотрудниками OpenAI). Вот какие интересные детали ей удалось выяснить:

В 2015 году риторика стартапа была полностью переделана под Маска, чтобы получить его инвестиции и влияние. До 2015 года Альтман вообще не говорил об угрозе ИИ для человечества, а затем резко начал использовать язык, очень похожий на язык Маска про экзистенциальный риск ИИ. Маск и сам считает, что Сэм просто зеркалил его взгляды, чтобы завоевать доверие.

Тот же прием Альтман использует по сей день. Хао утверждает, что OpenAI абсолютно по-разному определяют термин AGI в зависимости от аудитории, которой его продают. Конгрессу – как систему, способную решать глобальные проблемы, потребителям – как самого лучшего персонального помощника, Microsoft – как систему, которая приносит много денег.

С Маском история тоже якобы кончилась именно с руки Альтмана. Оказывается, что много лет назад при первом обсуждении перехода к for-profit почти все фаундеры склонялись к тому, чтобы CEO новой структуры стал Маск. Но Альтман лично переубедил Брокмана, а затем и Суцкевера, что Илон слишком «непредсказуем» для этой роли. После этого Маск ушел.

Ну и, кроме того, еще несколько уже известных нам подробностей: про угрозы критикующим журналистам, обязательное подписание сотрудниками отказов от доли в компании и про уходы ключевых сотрудников из-за абьюза со стороны руководства.

Конечно, не забываем, что все это – журналистская интерпретация, подтвержденная только анонимными источниками. Но дыма без огня не бывает, верно?

И кстати, Маск прокомментировал подкаст так: «Scam Altman is super good at scamming»
Please open Telegram to view this post
VIEW IN TELEGRAM
1128😁6123👍1512🤔5🔥1