Запущен первый российский продуктовый бенчмарк RAG-решений: сейчас принимают заявки от разработчиков
RRNCB (Russian RAG Normative-Corporate Benchmark) создан специально для комплексной оценки RAG-продуктов на реальных бизнес-задачах и работает со всевозможными юридическими кодексами, технической документацией, ГОСТами, отчетами и пр. Сейчас полно тестов для проверки способностей отдельно LLM, но вот для оценки пайплайна ИИ-продукта целиком их просто нет, этот первый.
Прием заявок от разработчиков RAG-продуктов открыт до 21 ноября, результаты будут опубликованы в декабре.
Все будет организовано как небольшой хакатон: на открытом этапе компании получают открытую часть датасета и могут улучшать свои решения в течение двух недель. Затем проводится закрытое тестирование на данных, которые участники не видели. Для оценки используются гибридные метрики и зарубежные LLM, методология более чем прозрачная.
По итогам бенчмарка будет опубликован открытый лидерборд российских RAG-решений. Ожидаются заявки от Сбера (GigaChat), Яндекса (Нейроэксперт), МТС (Cotype), Softline, Авито, Точка Банка, Just AI и других ключевых игроков рынка.
Подать заявку и подробнее почитать о самом бенче можно вот здесь
RRNCB (Russian RAG Normative-Corporate Benchmark) создан специально для комплексной оценки RAG-продуктов на реальных бизнес-задачах и работает со всевозможными юридическими кодексами, технической документацией, ГОСТами, отчетами и пр. Сейчас полно тестов для проверки способностей отдельно LLM, но вот для оценки пайплайна ИИ-продукта целиком их просто нет, этот первый.
Прием заявок от разработчиков RAG-продуктов открыт до 21 ноября, результаты будут опубликованы в декабре.
Все будет организовано как небольшой хакатон: на открытом этапе компании получают открытую часть датасета и могут улучшать свои решения в течение двух недель. Затем проводится закрытое тестирование на данных, которые участники не видели. Для оценки используются гибридные метрики и зарубежные LLM, методология более чем прозрачная.
По итогам бенчмарка будет опубликован открытый лидерборд российских RAG-решений. Ожидаются заявки от Сбера (GigaChat), Яндекса (Нейроэксперт), МТС (Cotype), Softline, Авито, Точка Банка, Just AI и других ключевых игроков рынка.
Подать заявку и подробнее почитать о самом бенче можно вот здесь
😁36🔥15👍9❤4🤨1🎄1
The New York Times требует от OpenAI доступ к 20 миллионам чатов пользователей
На официальном сайте OpenAI сегодня появилось меланхоличное письмо под заголовком «The New York Times’ invasion of user privacy». В нем директор стартапа по информационной безопасности жалуется на то, что The New York Times покушается на безопасность пользовательских данных.
Дело в том, что некоторое время назад The New York Times предъявила OpenAI иск: якобы компания без разрешения использует журналистские материалы для обучения моделей. Классика.
Стартап, конечно, все отрицает. И поэтому теперь в рамках разбирательства издание, чтобы доказать свою правоту, требует доступ к «примерно 20 миллионам» случайно выбранных чатов юзеров за период декабрь 2022 – ноябрь 2024. Ранее, если верить OpenAI, они просили предоставить им 1.4 миллиарда разговоров, но в тот раз требование удалось отразить.
OpenAI считает запрос чрезмерным и нарушающим базовые принципы приватности. В статье заявляется, что в последнее время OpenAI вообще стала "одной из самых преследуемых организаций в мире" (в том числе из-за данных), но они намерены "до конца" сопротивляться через суд.
openai.com/index/fighting-nyt-user-privacy-invasion/
На официальном сайте OpenAI сегодня появилось меланхоличное письмо под заголовком «The New York Times’ invasion of user privacy». В нем директор стартапа по информационной безопасности жалуется на то, что The New York Times покушается на безопасность пользовательских данных.
Дело в том, что некоторое время назад The New York Times предъявила OpenAI иск: якобы компания без разрешения использует журналистские материалы для обучения моделей. Классика.
Стартап, конечно, все отрицает. И поэтому теперь в рамках разбирательства издание, чтобы доказать свою правоту, требует доступ к «примерно 20 миллионам» случайно выбранных чатов юзеров за период декабрь 2022 – ноябрь 2024. Ранее, если верить OpenAI, они просили предоставить им 1.4 миллиарда разговоров, но в тот раз требование удалось отразить.
OpenAI считает запрос чрезмерным и нарушающим базовые принципы приватности. В статье заявляется, что в последнее время OpenAI вообще стала "одной из самых преследуемых организаций в мире" (в том числе из-за данных), но они намерены "до конца" сопротивляться через суд.
openai.com/index/fighting-nyt-user-privacy-invasion/
😁104👍25🤯19❤13🐳4👏2🤔2
OpenAI выпустили GPT-5.1
В обновленную линейку вошли две модели: GPT-5.1 Instant и GPT-5.1 Thinking.
Instant – это версия для любителей теплых разговоров. После выхода пятерки огромная масса людей жаловалась на то, что модель стала холодной и «бездушной» и ностальгировали по GPT-4o. Вот OpenAI и добавили в GPT-5 щепотку ванильности. Теперь система лучше шутит, проще воспринимается, но может отвечать и более сдержанно, если это нужно пользователю.
Thinking – это прокачанный ризонинг. Говорят, модель стала заметно лучше справляться с инструкциями и адаптироваться под сложность вопроса: быстро отвечает на простые и думает еще дольше над сложными (см график).
Старые модели еще три месяца будут доступны в разделе легаси. Новые раскатывают, как обычно, сначала на всех платных юзеров, потом на остальных.
openai.com/index/gpt-5-1/
В обновленную линейку вошли две модели: GPT-5.1 Instant и GPT-5.1 Thinking.
Instant – это версия для любителей теплых разговоров. После выхода пятерки огромная масса людей жаловалась на то, что модель стала холодной и «бездушной» и ностальгировали по GPT-4o. Вот OpenAI и добавили в GPT-5 щепотку ванильности. Теперь система лучше шутит, проще воспринимается, но может отвечать и более сдержанно, если это нужно пользователю.
Thinking – это прокачанный ризонинг. Говорят, модель стала заметно лучше справляться с инструкциями и адаптироваться под сложность вопроса: быстро отвечает на простые и думает еще дольше над сложными (см график).
Старые модели еще три месяца будут доступны в разделе легаси. Новые раскатывают, как обычно, сначала на всех платных юзеров, потом на остальных.
openai.com/index/gpt-5-1/
1👍112🔥33🤯12😁9❤8🤔1
Ваша утренняя газета, сэр ☕️
P.S. Автор оригинального твита утверждает, что это реальная пакистанская газета Dawn
P.S. Автор оригинального твита утверждает, что это реальная пакистанская газета Dawn
Please open Telegram to view this post
VIEW IN TELEGRAM
1😁414🔥35❤10👏6🕊2🎄2🤗1
Новая статья от DeepMind: учим модели видеть, как люди
Помните класическую детсткую игру "Найди лишнее"? Из нескольких картинок нужно вычеркнуть ту, которая выбивается из общего ряда, по английски называется odd-one-out. Так вот: авторы протестировали на этой игре несколько vision моделей и выяснили, что они далеко не всегда рассуждают, как люди.
Это связано с тем, что модели, даже самые мощные, все еще видят мир иначе, нежели мы. Люди группируют объекты по смыслу, а модели – чаще по визуальным/текстурным признакам. Например, в задаче <морская звезда, кот, лиса> люди выбирают морскую звезду, потому что она живет в воде, а модели – кота, потому что картинка выделяется из цветовой палитры.
Недостаток важный, потому что если модель не структурирует свой внутренний образ мира, как человек, ее решения могут быть алогичными и ненадежными.
Что сделали в DeepMind:
– Взяли большую visual модель, заморозили ее и искусственно пристроили небольшой адаптер, обученный только на датасете с человеческими ответами по odd-one-out.
– Нагенерировали с помощью этой модели гигантский датасет с миллионами решений odd-one-out.
– На основе этого большого датасета дообучали другие модели так, чтобы их внутренние представления стали ближе к человеческой логике группировки.
То есть, вроде как, модельки просто натаскали на какую-то одну детскую игру, ничего удивительного. Но оказалось, что это качественно изменило их скрытое пространство. См. третий скрин: слева модель до элаймента, справа после. Видно, как появляются четкие кластеры, соответствующие человеческой логике (например, животные, еда и тд). Красота же?
А еще такая модель оказалось более устойчивой с точки зрения изменения распределения. Например, если на картинках поменять фон, освещение или другие условия, ее ответы все еще остаются подвластными логике. В целом можно ожидать, что такая модель и генерализоваться будет быстрее обычной.
deepmind.google/blog/teaching-ai-to-see-the-world-more-like-we-do/
Помните класическую детсткую игру "Найди лишнее"? Из нескольких картинок нужно вычеркнуть ту, которая выбивается из общего ряда, по английски называется odd-one-out. Так вот: авторы протестировали на этой игре несколько vision моделей и выяснили, что они далеко не всегда рассуждают, как люди.
Это связано с тем, что модели, даже самые мощные, все еще видят мир иначе, нежели мы. Люди группируют объекты по смыслу, а модели – чаще по визуальным/текстурным признакам. Например, в задаче <морская звезда, кот, лиса> люди выбирают морскую звезду, потому что она живет в воде, а модели – кота, потому что картинка выделяется из цветовой палитры.
Недостаток важный, потому что если модель не структурирует свой внутренний образ мира, как человек, ее решения могут быть алогичными и ненадежными.
Что сделали в DeepMind:
– Взяли большую visual модель, заморозили ее и искусственно пристроили небольшой адаптер, обученный только на датасете с человеческими ответами по odd-one-out.
– Нагенерировали с помощью этой модели гигантский датасет с миллионами решений odd-one-out.
– На основе этого большого датасета дообучали другие модели так, чтобы их внутренние представления стали ближе к человеческой логике группировки.
То есть, вроде как, модельки просто натаскали на какую-то одну детскую игру, ничего удивительного. Но оказалось, что это качественно изменило их скрытое пространство. См. третий скрин: слева модель до элаймента, справа после. Видно, как появляются четкие кластеры, соответствующие человеческой логике (например, животные, еда и тд). Красота же?
А еще такая модель оказалось более устойчивой с точки зрения изменения распределения. Например, если на картинках поменять фон, освещение или другие условия, ее ответы все еще остаются подвластными логике. В целом можно ожидать, что такая модель и генерализоваться будет быстрее обычной.
deepmind.google/blog/teaching-ai-to-see-the-world-more-like-we-do/
2❤128👍57🤯20🔥15👀3😁2🤔2 2
Data Secrets
Понравилось новое эссе знаменитой Фей-Фей Ли о пространственном интеллекте Пространственный интеллект – это как раз то, чего, по мнению ученой, так не хватает современным LLM. Да, они хорошо работают с текстом, но spatial intelligence – это следующий шаг.…
Media is too big
VIEW IN TELEGRAM
Стартап Фей-Фей Ли выпустил свой первый коммерческий продукт – модель пространственного интеллекта Marble
Ее релизнули сразу же после выхода эссе Фей-Фей о том, что пространственный интеллект – будущее ИИ (наш пост с пересказом).
Внешне моделька очень напоминает Genie: по сути, 3D генератор миров, по которому можно передвигаться.
Только у Marble фокус больше на персистентности. То есть если Genie генерирует динамическое видео, то здесь это генерация именно полноценного 3D-мира, в котором есть геометрия, объекты, ландшафт и прочее. Потом вы можете по нему передвигаться, но меняться или достраиваться он при этом не будет.
Хотя можно поменять что-нибудь по промпту, расширить какую-то часть генерации или даже объединить два мира. И кстати, на вход принимаются почти любые модальности: текст, картинки, видео и 3D-драфты.
Генерировать можно поэтапно: сначала создать 3D-скелет, и только потом добавлять стили и текстуры, подобно тому, как это делается в геймдеве.
Ну и киллер-фича, на наш взгляд: созданные миры можно экспортировать как меши, Gaussian splats или как видео.
Попробовать можно тут, дают сколько-то фри кредитов. Дальше тарифы начинаются от 20 долларов в месяц.
Ее релизнули сразу же после выхода эссе Фей-Фей о том, что пространственный интеллект – будущее ИИ (наш пост с пересказом).
Внешне моделька очень напоминает Genie: по сути, 3D генератор миров, по которому можно передвигаться.
Только у Marble фокус больше на персистентности. То есть если Genie генерирует динамическое видео, то здесь это генерация именно полноценного 3D-мира, в котором есть геометрия, объекты, ландшафт и прочее. Потом вы можете по нему передвигаться, но меняться или достраиваться он при этом не будет.
Хотя можно поменять что-нибудь по промпту, расширить какую-то часть генерации или даже объединить два мира. И кстати, на вход принимаются почти любые модальности: текст, картинки, видео и 3D-драфты.
Генерировать можно поэтапно: сначала создать 3D-скелет, и только потом добавлять стили и текстуры, подобно тому, как это делается в геймдеве.
Ну и киллер-фича, на наш взгляд: созданные миры можно экспортировать как меши, Gaussian splats или как видео.
Попробовать можно тут, дают сколько-то фри кредитов. Дальше тарифы начинаются от 20 долларов в месяц.
🔥145❤33👍29😁1🤔1
ИИ в Google Colab теперь будет доступен бесплатным пользователям 🕺
К моделям уже можно обратиться двумя способами:
1. Через библиотеку google.colab.ai, которую сделали открытой для всех пользователей. Прямо в ячейке прописываете
Из моделей и там и там бесплатным пользователям будут доступны gemini-2.5-flash и gemini-2.5-flash-lite.
🍯
К моделям уже можно обратиться двумя способами:
1. Через библиотеку google.colab.ai, которую сделали открытой для всех пользователей. Прямо в ячейке прописываете
from google.colab import ai, и затем можете: – Просмотреть все доступные вам модели:ai.list_models()Сгенерировать что-нибудь:
–response = ai.generate_text("2+2?", model_name = 'google/gemini-2.0-flash-lite')
print(response)
– Или стримить ответ:stream = ai.generate_text("Tell me a short story.", stream=True)
for text in stream:
print(text, end='')
2. Через новую кнопку «Add AI prompt cell», которая теперь расположена рядом с кнопкой +Code. Тут уже никакой код писать не надо, система сама предложит вам готовую ячейку с интерфейсом для написания промпта. Из моделей и там и там бесплатным пользователям будут доступны gemini-2.5-flash и gemini-2.5-flash-lite.
🍯
Please open Telegram to view this post
VIEW IN TELEGRAM
👍126❤29🔥17 6😁1
Anthropic зафиксировали первый официальный случай крупной кибератаки, выполненной с помощью ИИ. Стартап утверждает, что за операцией стоит китайская государственная группировка.
По данным Anthropic, это был даже не единичный случай, а целая кибершпионская кампания, целью которой были около тридцати организаций по всему миру. Среди них бигтех, финансовые институты, хим.производства и государственные агентства.
Преступники использовали Claude Code и "агента на основе Claude". Модельку джейлбрейкнули, попросив ее выполнять мелкие задачи без раскрытия истинной цели и убедив, что она работает для легальной фирмы кибербезопасности.
Ну а дальше все как по маслу. Модель провела разведку инфраструктуры целевой организации, написала эксплойты, получила нужные доступы, создала бэкдоры, украла данные и даже услужливо написала по всему этому подробную документацию😍
По оценке Anthropic, вмешательство человека во всем этом требовалось 4-6 раз: преступники автоматизировали всю деятельность на 90%. Отловить атаку удалось благодаря тому, что аналитики заметики подозрительную активность и тут же запустили расследование.
Большиство запланированных атак, по словам стартапа, удалось предотвратить, и все же преступники «успешно компрометировали небольшое число случаев».
Вот вам и весь хваленый элаймент🤠
По данным Anthropic, это был даже не единичный случай, а целая кибершпионская кампания, целью которой были около тридцати организаций по всему миру. Среди них бигтех, финансовые институты, хим.производства и государственные агентства.
Преступники использовали Claude Code и "агента на основе Claude". Модельку джейлбрейкнули, попросив ее выполнять мелкие задачи без раскрытия истинной цели и убедив, что она работает для легальной фирмы кибербезопасности.
Ну а дальше все как по маслу. Модель провела разведку инфраструктуры целевой организации, написала эксплойты, получила нужные доступы, создала бэкдоры, украла данные и даже услужливо написала по всему этому подробную документацию
По оценке Anthropic, вмешательство человека во всем этом требовалось 4-6 раз: преступники автоматизировали всю деятельность на 90%. Отловить атаку удалось благодаря тому, что аналитики заметики подозрительную активность и тут же запустили расследование.
Большиство запланированных атак, по словам стартапа, удалось предотвратить, и все же преступники «успешно компрометировали небольшое число случаев».
Вот вам и весь хваленый элаймент
Please open Telegram to view this post
VIEW IN TELEGRAM
😁202❤🔥34🤯30❤20👍15🔥8 2
Data Secrets
The New York Times требует от OpenAI доступ к 20 миллионам чатов пользователей На официальном сайте OpenAI сегодня появилось меланхоличное письмо под заголовком «The New York Times’ invasion of user privacy». В нем директор стартапа по информационной безопасности…
А тем временем суд все-таки обязал OpenAI предоставить The New York Times 20 миллионов чатов пользователей
Первая часть этой истории здесь. Кратко: NYT сейчас судятся с OpenAI из-за того, что ChatGPT якобы воспроизводит защищенные материалы издания. В рамках расследования они потребовали от стартапа отдать им на рассмотрение 20 миллионов случайных обезличенных пользовательских диалогов.
Стартап пытался противостоять запросу, но «будем биться за приватность пользователей до последнего» продлилось довольно недолго.
По оценке OpenAI, 99.99% логов вообще не будут относиться к делу. Они предлагали альтернативное решение с выборочной выдачей чатов, но судья посчитала, что обезличивания диалогов и охранного судебного ордера будет и так достаточно для защиты данных юзеров🙂
OpenAI подал ходатайство о пересмотре решения, но суд пока требует выполнить приказ и передать данные в ближайшее время.
Первая часть этой истории здесь. Кратко: NYT сейчас судятся с OpenAI из-за того, что ChatGPT якобы воспроизводит защищенные материалы издания. В рамках расследования они потребовали от стартапа отдать им на рассмотрение 20 миллионов случайных обезличенных пользовательских диалогов.
Стартап пытался противостоять запросу, но «будем биться за приватность пользователей до последнего» продлилось довольно недолго.
По оценке OpenAI, 99.99% логов вообще не будут относиться к делу. Они предлагали альтернативное решение с выборочной выдачей чатов, но судья посчитала, что обезличивания диалогов и охранного судебного ордера будет и так достаточно для защиты данных юзеров
OpenAI подал ходатайство о пересмотре решения, но суд пока требует выполнить приказ и передать данные в ближайшее время.
Please open Telegram to view this post
VIEW IN TELEGRAM
🤯144😁27❤10🫡9👏6🤨6🗿6👍4🐳1🤓1
OpenAI выпустили довольно интересную статью про интерпретируемость моделей
Сейчас модельки уже во всю помогают принимать решения в медицине, в науке, образовании и тд. Но интерпретировать их ответы мы так и не научились, к сожалению. Многие уповают на интерпретацию через CoT, но это дело очень хрупкое и ненадежное.
OpenAI утверждают: проблема в том, что мы пытаемся распутывать внутренности модели постфактум, когда это уже почти невозможно. Во время обучения модели подбирают миллиарды весов, из которых в итоге получается очень плотная сеть. В итоге поведение модели размазано по массе параметров, и структурировать эту паутину, мягко говоря, сложно.
Вместо этого они предлагают сразу обучать структурно более простую разреженную сетку.
На практике исследователи берут архитектуру, похожую на GPT-2 и ограничивают веса так, чтобы подавляющее большинство было равно нулю. То есть если в обычной плотной сети каждый нейрон связан со всеми из следующего слоя, то здесь остаются связи только с несколькими. Сеть становится более чистой и читаемой.
Это первый шаг. Такая структура сети позволяет для конкретной задачи брать и находить маленькую часть модели, отвечающую за ее решение. В статье это называется circuit. Формально, – минимальный поднабор весов, обладающий необходимостью и достаточностью: то есть если выкинуть все, кроме него, задача все еще будет решаться; а если выкинуть только его, а остальную сеть оставить – нет.
Ну а затем в этом маленьком наборе весов уже можно копаться и непосредственно анализировать поведение сети.
В статье приведен пример с простенькой задачей закрытия кавычки. Модели надо запомнить тип открывающейся кавычки и в конце последовательности поставить такую же. И вот оказывается, что делает она это по определенному логическому алгоритму, заложенному в 5 residual-каналах, двух MLP-слоях и 1 канале аттеншена. На картинке можете посмотреть, как это работает.
Представьте: если за маленькой задачкой скрывается что-то такое, то что можно найти, если посмотреть, как модель решает сложную математику или пишет код?
Короче, подход интересный. И есть даже занятный практический результат, в который нужно вдуматься: чем больше модель и чем более она разреженная, тем проще становятся схемы, реализующие одни те же способности. Makes sense.
Тем не менее, не факт, что если это работает для таких игрушечных моделек, заработает и для больших. К тому же обучать разреженные модельки только ради интерпретируемости никто не будет: слишком дорого и неэффективно.
Но вот если в OpenAI научатся извлекать что-то подобное из уже обученных dense-моделей, будет совсем другой разговор.
openai.com/index/understanding-neural-networks-through-sparse-circuits/
Сейчас модельки уже во всю помогают принимать решения в медицине, в науке, образовании и тд. Но интерпретировать их ответы мы так и не научились, к сожалению. Многие уповают на интерпретацию через CoT, но это дело очень хрупкое и ненадежное.
OpenAI утверждают: проблема в том, что мы пытаемся распутывать внутренности модели постфактум, когда это уже почти невозможно. Во время обучения модели подбирают миллиарды весов, из которых в итоге получается очень плотная сеть. В итоге поведение модели размазано по массе параметров, и структурировать эту паутину, мягко говоря, сложно.
Вместо этого они предлагают сразу обучать структурно более простую разреженную сетку.
На практике исследователи берут архитектуру, похожую на GPT-2 и ограничивают веса так, чтобы подавляющее большинство было равно нулю. То есть если в обычной плотной сети каждый нейрон связан со всеми из следующего слоя, то здесь остаются связи только с несколькими. Сеть становится более чистой и читаемой.
Это первый шаг. Такая структура сети позволяет для конкретной задачи брать и находить маленькую часть модели, отвечающую за ее решение. В статье это называется circuit. Формально, – минимальный поднабор весов, обладающий необходимостью и достаточностью: то есть если выкинуть все, кроме него, задача все еще будет решаться; а если выкинуть только его, а остальную сеть оставить – нет.
Ну а затем в этом маленьком наборе весов уже можно копаться и непосредственно анализировать поведение сети.
В статье приведен пример с простенькой задачей закрытия кавычки. Модели надо запомнить тип открывающейся кавычки и в конце последовательности поставить такую же. И вот оказывается, что делает она это по определенному логическому алгоритму, заложенному в 5 residual-каналах, двух MLP-слоях и 1 канале аттеншена. На картинке можете посмотреть, как это работает.
Представьте: если за маленькой задачкой скрывается что-то такое, то что можно найти, если посмотреть, как модель решает сложную математику или пишет код?
Короче, подход интересный. И есть даже занятный практический результат, в который нужно вдуматься: чем больше модель и чем более она разреженная, тем проще становятся схемы, реализующие одни те же способности. Makes sense.
Тем не менее, не факт, что если это работает для таких игрушечных моделек, заработает и для больших. К тому же обучать разреженные модельки только ради интерпретируемости никто не будет: слишком дорого и неэффективно.
Но вот если в OpenAI научатся извлекать что-то подобное из уже обученных dense-моделей, будет совсем другой разговор.
openai.com/index/understanding-neural-networks-through-sparse-circuits/
❤68👍31🔥12🤔8❤🔥2😁2🫡2
Дмитрий Ветров получил Yandex ML Prize 2025
Это ежегодная премия Яндекса за вклад в развитие машинного обучения. С этого года ей награждают преподавателей — тех, кто растит новое поколение AI-специалистов и двигает науку вперёд. Лауреатами стали 10 представителей ведущих вузов страны, еще трое ученых и преподавателей получили специальную награду.
Поздравляем Дмитрия Ветрова — профессора-исследователя ФКН НИУ ВШЭ, который вошёл в «Зал славы» Yandex ML Prize 2025. Респектуем за одну из самых сильных исследовательских команд по машинному обучению в России и продвижение байесовских методов.
Это ежегодная премия Яндекса за вклад в развитие машинного обучения. С этого года ей награждают преподавателей — тех, кто растит новое поколение AI-специалистов и двигает науку вперёд. Лауреатами стали 10 представителей ведущих вузов страны, еще трое ученых и преподавателей получили специальную награду.
Поздравляем Дмитрия Ветрова — профессора-исследователя ФКН НИУ ВШЭ, который вошёл в «Зал славы» Yandex ML Prize 2025. Респектуем за одну из самых сильных исследовательских команд по машинному обучению в России и продвижение байесовских методов.
❤94🗿55👍43🔥19🎉11🤨5😁4🫡3⚡2🦄2🍾1
Cursor привлек 2.3 миллиарда долларов
Для стартапа это уже раунд D, в этот раз в них вложились Nvidia, Google, Andreessen Horowitz и несколько других крупняков.
Оценка компании на данный момент – $29.3 миллиарда. Напоминаем, что при этом она основана только в конце 2022. На данный момент Cursor – самый быстрорастущий SaaS-стартап в истории.
Для стартапа это уже раунд D, в этот раз в них вложились Nvidia, Google, Andreessen Horowitz и несколько других крупняков.
Мы также рады сообщить, что годовой доход Cursor превысил 1 млрд долларов, и теперь он производит больше кода, чем любой другой агент в мире.
Оценка компании на данный момент – $29.3 миллиарда. Напоминаем, что при этом она основана только в конце 2022. На данный момент Cursor – самый быстрорастущий SaaS-стартап в истории.
❤101🔥42👍23😁8🤯3
This media is not supported in your browser
VIEW IN TELEGRAM
Google продолжают экспериментировать с ИИ-продуктами и на этот раз выкатили Code Wiki – агента, который сделает по любому репозиторию красочную понятную документацию
Открываете codewiki.google/, вставляете ссылку на репозиторий и все: перед вами подробная документация с оглавлением и схемами, по которой вы можете перемещаться в интерактивном режиме.
Тут же встроен чат с ассистеном, которому можно задавать вопросы по проекту и доке: он будет отвечать сразу с гиперссылками на файлы и куски кода, очень удобно.
И еще интересная фича: документация будет автоматически обновляться каждый раз, когда в репозитории происходят изменения.
Скоро обещают выкатить еще и CLI расширение, а пока Code Wiki можно попробовать абсолютно бесплатно здесь
Открываете codewiki.google/, вставляете ссылку на репозиторий и все: перед вами подробная документация с оглавлением и схемами, по которой вы можете перемещаться в интерактивном режиме.
Тут же встроен чат с ассистеном, которому можно задавать вопросы по проекту и доке: он будет отвечать сразу с гиперссылками на файлы и куски кода, очень удобно.
И еще интересная фича: документация будет автоматически обновляться каждый раз, когда в репозитории происходят изменения.
Скоро обещают выкатить еще и CLI расширение, а пока Code Wiki можно попробовать абсолютно бесплатно здесь
1🔥224👍49❤27🤯7😁2🤝1
LeJEPA: новая статья от Яна Лекуна
(Да-да, с каждым разом названия этой линейки моделей все лучше и лучше😂 )
Небольшое предисловие о том, что вообще такое эта ваша JEPA. Если кратко, это попытка Лекуна сделать шаг навстречу тем самым world models, о которых он так много говорит. Расшифровывается JEPA как Joint Embedding Predictive Architecture –Self-Supervised архитектура, предназначенная для понимания внешнего физического мира.
Вот, допустим, есть у вас видео, и вы хотите, чтобы модель не просто могла дорисовать пиксели для следующего кадра, а действительно понимала, что в сцене происходит: где объект, куда он движется, что неизменно, что может меняться и под действием каких сил и тд.
JEPA как раз отличается от большинства моделей тем, что работает не с предсказанием следующего токена/генерацией пикселей, а пытается предсказывать смысл наблюдаемого фрагмента на основе контекста (по факту, эмбеддинги).
Лекун считает, что это идеалогическая альтернатива привычному ИИ, потому что предсказание пикселей или токенов – это лишь имитация понимания структуры мира, а тут модель действительно учится понимать физику и логические связи. И, кстати, за счет того, что предсказание происходит на уровне скрытого пространства, JEPA еще и намного эффективнее той же авторегрессии.
Ну так вот. Впервые JEPA была предложена в 2022. С тех пор уже вышла I‑JEPA для изображений, V‑JEPA для видео и V‑JEPA 2 (ну и куча сторонних надстроек, это не считаем). Сейчас вот вышло следующее большое обновление архитектуры – LeJEPA.
Оно построено на важном теоретическом результате: исследователи впервые доказали, что существует оптимальная форма латентного распределения для foundation-моделей, и это изотропный гаусс. Оптимальная – значит такая, которая минимизирует среднюю ошибку на любых задачах. Раньше были только какие-то эмпирические наблюдения, а сейчас впервые появился четкий рецепт.
И, собственно, практическое обновление состоит только в том, что они добавили новый лосс, который заставляет эмбеддинги становиться гауссовыми, – SIGReg (Sketched Isotropic Gaussian Regularization). Но в итоге этот лосс:
1. Помог избавиться вообще от всех предыдущих костылей. Он заменил stop-grad, teacher-student, EMA, всякие трюки с нормализацией и пр.
2. Прокачал стабильность.
3. Дал SOTA качество на 10+ датасетах. Теперь по уровню это примерно DINOv2, но гораздо проще и с нормальной сходимостью.
В общем, приколько. Теперь JEPA уже несколько больше, чем исследовательская идея, и уже похожа на полноценный практический метод. Если любите математику, обязательно почитайте статью полностью, там красиво.
https://arxiv.org/abs/2511.08544
(Да-да, с каждым разом названия этой линейки моделей все лучше и лучше
Небольшое предисловие о том, что вообще такое эта ваша JEPA. Если кратко, это попытка Лекуна сделать шаг навстречу тем самым world models, о которых он так много говорит. Расшифровывается JEPA как Joint Embedding Predictive Architecture –Self-Supervised архитектура, предназначенная для понимания внешнего физического мира.
Вот, допустим, есть у вас видео, и вы хотите, чтобы модель не просто могла дорисовать пиксели для следующего кадра, а действительно понимала, что в сцене происходит: где объект, куда он движется, что неизменно, что может меняться и под действием каких сил и тд.
JEPA как раз отличается от большинства моделей тем, что работает не с предсказанием следующего токена/генерацией пикселей, а пытается предсказывать смысл наблюдаемого фрагмента на основе контекста (по факту, эмбеддинги).
Лекун считает, что это идеалогическая альтернатива привычному ИИ, потому что предсказание пикселей или токенов – это лишь имитация понимания структуры мира, а тут модель действительно учится понимать физику и логические связи. И, кстати, за счет того, что предсказание происходит на уровне скрытого пространства, JEPA еще и намного эффективнее той же авторегрессии.
Ну так вот. Впервые JEPA была предложена в 2022. С тех пор уже вышла I‑JEPA для изображений, V‑JEPA для видео и V‑JEPA 2 (ну и куча сторонних надстроек, это не считаем). Сейчас вот вышло следующее большое обновление архитектуры – LeJEPA.
Оно построено на важном теоретическом результате: исследователи впервые доказали, что существует оптимальная форма латентного распределения для foundation-моделей, и это изотропный гаусс. Оптимальная – значит такая, которая минимизирует среднюю ошибку на любых задачах. Раньше были только какие-то эмпирические наблюдения, а сейчас впервые появился четкий рецепт.
И, собственно, практическое обновление состоит только в том, что они добавили новый лосс, который заставляет эмбеддинги становиться гауссовыми, – SIGReg (Sketched Isotropic Gaussian Regularization). Но в итоге этот лосс:
1. Помог избавиться вообще от всех предыдущих костылей. Он заменил stop-grad, teacher-student, EMA, всякие трюки с нормализацией и пр.
2. Прокачал стабильность.
3. Дал SOTA качество на 10+ датасетах. Теперь по уровню это примерно DINOv2, но гораздо проще и с нормальной сходимостью.
В общем, приколько. Теперь JEPA уже несколько больше, чем исследовательская идея, и уже похожа на полноценный практический метод. Если любите математику, обязательно почитайте статью полностью, там красиво.
https://arxiv.org/abs/2511.08544
Please open Telegram to view this post
VIEW IN TELEGRAM
2😁158❤109👍64🔥26👏3🎄3 2🗿1
В эфире рубрика "Да что может пойти не так?". В Южной Корее хотят запустить датацентр, который будет полностью проектироваться и управляться ИИ.
Стоимость проекта под названием Project Concord оценивается примерно в 35 млрд долларов.
ИИ планируют применять почти на всех этапах: выбор площадки, проектирование инженерных систем, управление и оптимизация систем энергопотребления и охлаждения, а также непосредственный мониторинг и устранение неисправностей уже на этапе эксплуатации центра.
По мощности запланировано около 3 гигаватт, это довольно масштабно. Завершить строительство рассчитывают в 2028.
Стоимость проекта под названием Project Concord оценивается примерно в 35 млрд долларов.
ИИ планируют применять почти на всех этапах: выбор площадки, проектирование инженерных систем, управление и оптимизация систем энергопотребления и охлаждения, а также непосредственный мониторинг и устранение неисправностей уже на этапе эксплуатации центра.
По мощности запланировано около 3 гигаватт, это довольно масштабно. Завершить строительство рассчитывают в 2028.
😁184 83👍27❤8🗿8🤔5🐳4🤓4🦄3✍2☃1