304K subscribers
4.95K photos
1.11K videos
17 files
5.33K links
Погружаемся в машинное обучение и Data Science

Показываем как запускать любые LLm на пальцах.

По всем вопросам - @haarrp

@itchannels_telegram -🔥best channels

Реестр РКН: clck.ru/3Fmqri
Download Telegram
🐳 DeepSeek опустили цену на кэш в 10 раз

Кэш-хиты по входу теперь стоят 10% от прежней цены, по всей линейке API, уже сегодня.

Всё, что вы повторно прогоняете через модель (системный промпт, инструкции агента, длинный контекст документа, история чата), оплачивается по тарифу кэша. Раньше это была заметная статья расходов, теперь почти бесплатно.

Для агентов и RAG это меняет экономику: можно держать жирный контекст, не считая каждый токен.

Скидка 75% на V4-Pro всё ещё активна, так что связка V4-Pro плюс дешёвый кэш выглядит особенно вкусно.

https://x.com/deepseek_ai/status/2048440764368347611

@ai_machinelearning_big_data

#DeepSeek
🔥134👍6119🐳14👌6👏1🎉1😍1
Запустить ИИ-пилот без закупки железа? Так можно было!

Selectel сделали услугу аренды сервера с размещением прямо на вашей площадке.

Это способ быстро запустить ИИ-пилот, не замораживая бюджет в оборудовании:
серверы с топовыми видеокартами NVIDIA B300, H200, H100, RTX6000PRO,
полный контроль над данными,
оплата по подписке — ежемесячно или раз в год.

Подходит для инференса и дообучения моделей, пакетной обработки данных. Если проект не получится — можно вернуть сервер в любой момент без штрафов, а если взлетит — выкупить по специальной цене.

👉Выбирайте конфигурацию и условия аренды: https://slc.tl/vd383

Реклама. АО "Селектел". erid:2W5zFGqgHi1
👍45👏166🎉6🐳3🔥2😁2🤩2
📌 Гайд по промптингу GPT-5.5: старые промпты придётся переписать.

GPT-5.5 отличается от GPT-5.2 или GPT-5.4 в части промптнинга. Миграцию OpenAI советует начинать с минимального промпта, который решает задачу, и только потом донастраивать reasoning effort, описания инструментов и формат вывода.

GPT-5.5 рассуждает эффективнее предшественников, поэтому сначала стоит проверять уровни «low» и «medium», а к более высоким тянуться только при необходимости.

Старые промпты часто расписывают процесс шаг за шагом: прежним моделям требовались подробные инструкции. Для GPT-5.5 это сужает пространство поиска и как следствие даст механические ответы.

OpenAI предлагает прописывать целевой результат, критерии успеха, ограничения и доступный контекст, а как добраться до результата, модель решит сама.

Слова «ALWAYS» и «NEVER» советуют беречь для настоящих инвариантов: правил безопасности и обязательных полей вывода. Для остального - правила и явные ограничители, чтобы модель не зацикливалась в бесконечных лупах.


Рекомендованная структура промпта открывается ролью и контекстом, дальше идут Personality, Goal, Success criteria, Constraints, Output и Stop rules.

Внутри блока Personality гайд просит разделять 2 измерения: как ассистент звучит (тон, формальность, юмор) и как он работает - когда уточнять, когда делать допущения и как обходиться с неопределённостью.

Поведение при поиске и цитировании

OpenAI вводит понятие retrieval budgets: один широкий поиск по коротким ключевым словам, повторный - только если не хватает фактов, нужен конкретный документ или пользователь просил исчерпывающий обзор.

Для презентаций и маркетинговых текстов руководство рекомендует чётко делить утверждения: где нужны источники, а где можно писать свободно.

Для стриминговых интерфейсов гайд предлагает preambles — короткие пользовательские апдейты в одно-два предложения перед первым вызовом инструментов. Они не ускоряют модель, но заметно сокращают воспринимаемую задержку.

Переписывать всё вручную не обязательно. OpenAI опубликовала собственный Skill для Codex и других кодинг-агентов - он применяет правила нового гайда одной командой.


@ai_machinelearning_big_data

#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
🤓89👍6720👨‍💻20🤔7🔥4😁1
Ты всё ещё используешь американские модели?

Попробуй-ка это...

@ai_machinelearning_big_data
😁208🤔3521🔥17👍9🤨9🤬2
Бывают у нас анонсы и про физический ИИ

Яндекс Образование совместно с пятью ведущими вузами (ВШЭ, МАИ, МИФИ, МФТИ и ИТМО) запускает Yandex Physical AI Garage.

Это программа подготовки инженеров на стыке ИИ, робототехники и инженерии. Будут ML-курсы с фундаментальной базой от ШАДа, модуль по робототехнике от команды Автономного транспорта, постоянные «гаражи» — проектные офлайн-интенсивы под менторством инженеров Яндекса.

Обучение бесплатное, кроме того студенты будут получать стипендию. Для участия нужно быть студентом бакалавриата в одном из вузов-партнеров.

Узнать детали можно по ссылке
👍3932🔥9😁7🤩4🤷‍♂3🙈3🦄3❤‍🔥2
📌OpenAI опубликовала декларацию принципов разработки ИИ

Сэм Альтман сформулировал декларацию намерений, в котором изложены 5 принципов, которым OpenAI будет придерживаться на пути к AGI.

🟡Демократизация

Первый принцип сформулирован как противодействие концентрации возможностей ИИ "в руках немногих".

OpenAI считает, что ключевые решения о технологии должны приниматься через демократические процедуры, а не только лабораториями.

🟡Расширение возможностей

Компания верит, что ИИ может помочь каждому достичь своих целей, больше узнать, быть счастливее и следовать своим мечтам, и что общество в целом выиграет от этого.

🟡Всеобщее процветание

Связывается с масштабным наращиванием вычислений и удешевлением инфраструктуры; этим, по мнению компании, объясняются её крупные расходы на вычислительные мощности при относительно скромной выручке.

🟡Устойчивость

Предполагает совместную работу с правительствами и другими разработчиками ИИ для противодействия рискам, в том числе биологическим и киберугрозам. OpenAI допускает периоды, когда понадобится сотрудничество с государствами и международными агентствами, чтобы убедиться, что серьёзные проблемы безопасности решены, прежде чем двигаться дальше.

🟡Адаптивность

Последний принцип фиксирует готовность пересматривать позиции по мере развития технологии.

В качестве иллюстрации OpenAI ссылается на собственный опыт с моделью GPT-2: в 2019 году компания отказалась сразу публиковать её веса, опасаясь общественных последствий, позднее эти опасения она сама назвала неоправданными, но именно они привели к стратегии «итеративного развёртывания».

Отдельно OpenAI признаёт, что стала значительно более крупной силой в мире, чем несколько лет назад и обещает прозрачность в случае изменения принципов.

"В будущем возможны периоды, когда нам придётся пожертвовать частью расширения возможностей ради большей устойчивости".


Публикация вышла на фоне продолжающейся в индустрии дискуссии о том, насколько безопасно ускорять разработку ИИ и кто должен принимать решения о пределах допустимого.

Часть бывших сотрудников OpenAI ранее публично выражала сомнения в соответствии действий компании её декларациям; отдельные критики указывали на коммерциализацию структуры, изначально созданной как некоммерческая.

Сама OpenAI пишет, что заслуживает пристального внимания и критики и обещает делать выводы и корректировать курс.


@ai_machinelearning_big_data

#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
😁43👍42🤔1714🙈9👏8🤣7🍓4🌚2🎃1🎄1
🌟 Sakana AI открыла бета-тест супер-оркестратора LLM

Японская лаборатория запустила бета-тестирование Sakana Fugu — своего первого международного коммерческого продукта.

Это система-оркестратор, которая динамически собирает команду из GPT-5, Gemini, Claude и опенсорсных моделей и распределяет между ними подзадачи.

🟡Fugu основан на предыдущих работах Sakana - Conductor и TRINITY.

В Conductor обучили 7B-модель через RL: на каждом шаге она решает, какого агента вызвать, какую подзадачу ему сформулировать и какие предыдущие сообщения передать в контекст. Говоря проще - мелкая модель работает мета-промпт-инженером для больших.

На простых вопросах Conductor отвечает за один проход, а на сложных задачах сам выстраивает цепочку "планировщик — исполнитель — верификатор".

Дополнительно метод способен делать рекурсивный самовызов: модель читает собственный инференс, определяет, что первая попытка провалилась, и запускает корректирующий рабочий процесс.

🟡Тесты

Сама по себе модель-дирижёр (которая на 7B) в тестах показал 83,9% на LiveCodeBench и 87,5% на GPQA-Diamond, обогнав не только модели из своего весового пула, но и мультиагентные бейзлайны Mixture-of-Agents (тут правда только по стоимости, но обогнала).

В коммерческой версии методы доработаны: fugu-ultra выбила 95,1% на GPQA Diamond (против 94,4% у Gemini 3.1 и 92,7% у Opus 4.6), 93,2% на LiveCodeBench v6 и 54,2% на SWE-Pro.

Доступ к Fugu через API, совместимый с форматом OpenAI. В линейке 2 модели: скоростная Fugu Mini для быстрых ответов и Fugu Ultra с полным пулом для тяжёлого ризонинга. Заявки на бета-тест уже принимаются.

Conductor и TRINITY приняты на ICLR 2026.


🟡Статья
🟡Arxiv


@ai_machinelearning_big_data

#AI #ML #LLM #Orchestration #FUGU #SakanaAi
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
💯100👍77🤩25👏22🔥1716😁2
Media is too big
VIEW IN TELEGRAM
✔️ OpenAI и Microsoft пересмотрели условия партнёрства

Главных изменений два: OpenAI больше не обязана работать только через Azure, а из контракта убрали пункт, по которому права Microsoft на интеллектуальную собственность стартапа аннулировались с появлением AGI.

OpenAI сможет распространять продукты через любые облака. Azure остаётся приоритетом для первых релизов, но без эксклюзива. Microsoft взамен получила неэксклюзивную лицензию на модели OpenAI до 2032 года (без AGI-оговорки, которая раньше могла её обнулить).

Финансовая часть тоже переписана. Microsoft перестаёт отчислять OpenAI 20% выручки от продажи моделей через Azure. OpenAI продолжит делиться доходами с Microsoft, но только до 2030 года и с потолком по общей сумме выплат. Совместные проекты по ЦОДам, чипам и кибербезопасности компании сохраняют.
openai.com

✔️ США разворачивают кампанию против китайских ИИ-компаний

Госдеп разослал в посольства по всему миру указание предупреждать иностранных партнёров о рисках использования моделей DeepSeek, MoonshotAI и MiniMax. По версии Вашингтона, эти стартапы обучили свои модели на ответах американских флагманских LLM через дистилляцию.

Механика претензии такая: китайские разработчики прогоняют запросы через закрытые модели и используют сгенерированные ответы как обучающую выборку для обучения своих. Это позволяет получать сопоставимое качество без затрат на полноценный R&D.

Пекин и сами компании обвинения отвергают. DeepSeek настаивает, что обучается на открытых данных веба, а не на синтетике с чужих API.
reuters.com

✔️ Новый виток дефицита GPU: облака ужесточают условия аренды

Microsoft, Amazon и другие крупные облачные провайдеры резервируют GPU-кластеры под внутренние задачи и ключевых партнёров уровня OpenAI. Менеджеры Microsoft Azure ожидают, что очередь на аренду ускорителей продержится как минимум до конца 2026 года.

За полгода цены на вычисления выросли на 25–30%. Облака отказываются от краткосрочных сделок и переводят клиентов на контракты от 1 до 3 лет. Microsoft ввела трёхуровневую систему распределения: гарантированные мощности получают только клиенты Tier 1, остальным предлагают долгосрочные контракты на аренду от 1000 GPU с многомиллионным чеком.

Переподписка по рынку растёт: у Lightning AI объём заявок превышает доступные карты в 10 раз. Венчурные фонды в ответ начинают формировать общие вычислительные пулы для своих портфельных компаний.
theinformation.com

✔️OpenAI предлагает $25 000 за джейлбрейк биозащиты в GPT-5.5.

Компания запустила программу Bio Bug Bounty - проверку устойчивости GPT-5.5 к джейлбрейкам в области биобезопасности. Участникам предлагается найти универсальный промпт, который заставит модель ответить на 5 закрытых вопросов по биобезопасности в обход модерации.

Главный приз $25 000 уйдёт первому, кто получит ответы на все 5 вопросов в рамках одной сессии. За частичный обход тоже заплатят. Тестирование пройдет в десктопной версии Codex.

Программа закрытая: нужно пройти отбор и подписать NDA. К участию приглашают ИБ-специалистов, исследователей и экспертов по биобезопасности. Заявки принимают до 22 июня.
openai.com

✔️ Пекин отменил покупку Manus и потребовал отката сделки

Государственный комитет по развитию и реформам КНР запретил офису Цукерберга покупку Manus. Сторонам приказано расторгнуть контракт и вернуть активы в состояние до начала сделки.

Manus юридически оформлен в Сингапуре, но основан китайской командой и разрабатывался в Китае. После закрытия сделки, покупатель планировал свернуть присутствие Manus на китайском рынке.

Юридический откат не означает реальный возврат технологий. Акции можно перераспределить, данные - удалить или заморозить. Но основная ценность стартапа - это команда, опыт работы с моделями и архитектурные решения. Если они уже переданы и интегрированы в новую инфраструктуру, извлечь их обратно невозможно.

Решение Пекина бьёт по типовой схеме релокации, через которую китайские ИИ-команды выводят активы в Сингапур и продают их американскому бигтеху.
zfxxgk.ndrc.gov.cn

@ai_machinelearning_big_data

#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
🤔48👍3719😢8🔥7🤬5💔5🥰2🤷‍♂1😁1🗿1
Анализ данных (Data analysis)
🧠 Anthropic проверила, могут ли LLM понимать скрытые мотивы людей Исследователи из Anthropic опубликовали новую работу, где проверили, насколько большие языковые модели (LLM) способны замечать намерения и скрытые мотивы за сообщениями — например, когда кто…
📌Исследователи нашли способ снизить склонность LLM соглашаться в задачах со строгим рассуждением

Команда исследователей R&D-центра Т-Технологий доказала, что современные большие языковые модели склонны соглашаться с пользователем, даже когда его логика некорректна или условия задачи противоречивы. В тестах участвовали Qwen3-235B-A22B, GPT-OSS-120B, GPT-5.2 (High), DeepSeek-R1-0528, Gemini-2.5-Pro, Claude-Sonnet-4.5 и Gemini-3-Pro-Preview. Исследование представили на воркшопе конференции ICLR, которая прошла 23-27 апреля в Рио-де-Жанейро.

🟡Yes-bias моделей с рассуждением

Исследование показало, что модель может признать правильное решение неверным, если в запросе сказано, что в нем есть ошибка. ИИ также пытается решить нерешаемые задачи вместо того, чтобы указать на некорректные условия. Дообучение на предпочтениях пользователя усиливает эффект: модель лучше подстраивается под ожидаемый ответ, но чаще соглашается с неверной оценкой решения или неверной постановкой задачи.

🟡Снижение склонности соглашаться без полного переобучения

Исследователи предложили практический метод коррекции, который не требует полного переобучения модели. Они подготовили пары примеров, в одних из которых модель проявляла склонность соглашаться, а в других – нет. Затем с помощью steering vectors скорректировали внутренние представления модели прямо на этапе вывода. Это позволило снизить склонность модели соглашаться с предвзятой оценкой и повысить надежность ее рассуждений в задачах с противоречивыми условиями.

🟡Область применения

Результаты исследования важны для сфер, где требуется строгая логика рассуждений LLM: разработка ПО, образовательные технологии, автоматическая проверка решений, аналитические и математические задачи.

@ai_machinelearning_big_data

#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍9841🤓32🤔8🤣7🔥6👏6💯4🎉1
⚡️ В Claude Code "подорожал" Opus

Для доступа к Opus в Claude Code теперь необходимо активировать подписку на Claude Pro и приобрести дополнительный объём использования.


@ai_machinelearning_big_data

#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
😭108🤔62😁47😢20🤬19🗿4🦄32
📌 ChatGPT превзошёл лучших абитуриентов на вступительных экзаменах в японские ВУЗы

Японский ИИ-стартап LifePrompt, газета Nikkei и сеть школ Kawai Juku провели эксперимент, в результате которого ChatGPT набрал на вступительных экзаменах 2-х ведущих университетов Японии баллы выше результатов лучших абитуриентов этого года.

Тестирование проводилось на модели ChatGPT 5.2 Thinking. Задания передавались в виде изображений, а сочинения и развёрнутые ответы оценивали преподаватели школы Kawai Juku.


На самом популярном направлении Токийского университета - медицинском, ИИ опередил лучшего из поступивших на 50 баллов и получил максимальный результат по математике.

По гуманитарному блоку чат-бот набрал 452 балла из 550 (лучший показатель среди абитуриентов был 434), а по естественным наукам - 503 из 550 (против 453 у кожаных).

Недобрал GPT 5.2 только внезапно по английскому языку (90%) и всемирной истории (25%).

На экзаменах Киотского университета чат-бот набрал 771 балл на юридическом факультете (наивысший балл у людей - 734) и 1 176 баллов на медицинском (против 1 098 у лучшего поступившего абитуриента).

LifePrompt проводит подобное тестирование 3-й год подряд.

🟠В 2024-м модель ChatGPT 4 не смогла преодолеть минимальный проходной балл Токийского университета.

🟠В 2025-м версия o1 впервые прошла этот порог.

🟢В этом году заявленные результаты впервые превысили показатели людей.

Глава Японского общества искусственного интеллекта, профессор Университета Кэйо Сатоси Курихара прокомментировал результаты скептически.

"Подобно тому как калькулятор считает быстрее и точнее человека, для ИИ закономерно набирать высокие баллы", — сказал учёный, добавив, что нынешние вступительные экзамены требуют пересмотра.



@ai_machinelearning_big_data

#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
🤔13531👏29🤨18👍11😐10🔥52😨2🤗2🗿1
⚡️ Xiaomi выложила веса семейства MiMo-V2.5

В опубликованном наборе 2 модели с 2 вариантами по контекстному окну каждая - на 256 тыс и 1 млн токенов.

🟢MiMo-V2.5-Pro (1M) и MiMo-V2.5-Pro Base (256K)

MoE на 1,02 трлн параметров (42 млрд активных) c позиционированием для сложных задач в и работы агентов.

В SWE-bench Verified V2.5-Pro набирает 78,9 баллов, при этом в многошаговых задачах она тратит на 40–60% меньше токенов по сравнению с GPT-5.4 или Claude Opus 4.6.

В демонстрации возможностей V2.5-Pro самостоятельно написала рабочий компилятор из SysY в RISC-V: на процесс ушло 4,3 часа и почти 700 вызовов внешних инструментов.


🟠MiMo-V2.5 (1M) и MiMo-V2.5 Base (256K)

Мультимодальная модель на 310 млрд общих и 15 млрд активных параметров c выделенным визуальным (729 млн) и аудиоэнкодером (261 млн), которая понимает текст, изображения, видео и звук.

Обе ветки семейства используют гибридную систему внимания (скользящее окно плюс глобальное) и трехуровневый модуль MTP, который предсказывает сразу несколько токенов.

🟡Вместе с релизом Xiaomi запустила грантовую программу Orbit.

с 27 апреля по 27 мая компания бесплатно распределит между разработчиками и стартапами пул в 100 триллионов токенов.

После аппрува заявки полученные лимиты можно будет подключить к Cursor и Claude Code.


📌Лицензирование: MIT License


🟡Статья
🟡Набор моделей
🟡Demo


@ai_machinelearning_big_data

#AI #ML #LLM #MMLM #MiMO #Xiaomi
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
11957👍33🤓24👏20🔥10🤬1🎉1
Media is too big
VIEW IN TELEGRAM
✔️ OpenAI отстаёт от внутренних целей по выручке

Компания не выполнила внутренние цели по выручке и приросту пользователей. По итогам прошлого года ChatGPT не взял отметку в 1 млрд WAU. Давление усиливают Gemini и продвижение Anthropic в корпоративном сегменте.

Результаты заставили пересмотреть стратегию закупки компьюта. Финдиректор Сара Фрайар и совет директоров сомневаются, что OpenAI сможет обслуживать будущие контракты на серверы и дата-центры. Сэм Альтман настаивает на дальнейшем наращивании инфраструктуры - это и стало предметом конфликта.

Под вопросом и план Альтама вывести компанию на биржу до конца года. Фрайар указывает, что внутренние процессы OpenAI пока не соответствуют требованиям публичной отчётности.
wsj.com

✔️ Google разрешила Пентагону применять свои ИИ-модели

Техгигант подписал соглашение с Министерством обороны США, разрешающее использовать ИИ-модели компании в закрытых сетях для любых законных государственных целей. Контракт расширяет несекретное соглашение прошлого года.

По условиям сделки Google по запросу ведомства настраивает и ослабляет встроенные ИИ-фильтры. В документе указано, что модели Google не предназначены для автономного оружия и массовой слежки, но эта формулировка не имеет обязательной юридической силы.

Более 600 сотрудников, включая топ-менеджеров и исследователей DeepMind, направили Сундару Пичаи письмо с требованием отказаться от развёртывания ИИ в военных средах.
theinformation.com

✔️ Claude получил прямой доступ к Adobe, Blender, Autodesk Fusion и Ableton

Anthropic выпустила коннекторы Claude для Adobe, Blender, Autodesk Fusion, Ableton, SketchUp, Affinity и Splice. Claude теперь может править 3D-модели, искать сэмплы и работать со слоями по текстовым командам. В Adobe заявлено больше 50 встроенных функций.

Возможности интеграции выходят за рамки обычных макросов. Модель способна генерировать и документировать код для создания кастомных процедурных анимаций или собственных шейдеров, а программисты могут на лету редактировать эти сниппеты прямо внутри рабочего софта.

Интеграция с Blender построена на MCP - через тот же стандарт к 3D-пакету смогут подключаться и другие модели.
anthropic.com

✔️ Открытая модель на ретро-данных до 1930 года

Алек Рэдфорд, автор GPT-1, GPT-2 и CLIP, совместно с Университетом Торонто обучил 13B-модель исключительно на текстах, опубликованных до 31 декабря 1930 года.

В сет на 260 млрд токенов вошли: англоязычные книги, газеты, патенты и судебные архивы. Моделью-судьей выступила Sonnet 4.6. В обучающем корпусе нет кода, поэтому модель защищена от протекания бенчмарков. Тем не менее на HumanEval она пишет простые Python-скрипты.

Авторы прогнали модель по архивным сводкам The New York Times: перплексия на материалах после 1930 года растёт, максимум - на текстах 1950–60-х. Летом команда планирует масштабировать датасет до 1 трлн токенов и выпустить ретро-модель, сопоставимую по возможностям с ChatGPT.
talkie-lm.com

✔️ Bloomberg тестирует ассистента внутри своего Terminal

Медиаимперия запустила бета-версию агентного ассистента ASKB в Bloomberg Terminal, построенного на ансамбле LLM. В терминал стекаются котировки, логистика, метеосводки, данные о потребительских расходах - ASKB синтезирует ответ из этих источников за несколько минут по текстовому запросу.

Агентная часть - настраиваемые шаблоны воркфлоу с триггерами. Перед сезоном отчётности ASKB сам собирает фундаментальные показатели, прогнозы и настроения рынков.

CTO Bloomberg отметил: инструмент не сделает из посредственного специалиста гения, но позволит тестировать десяток идей за время, которое раньше уходило на одну. Доступ получили около трети из 375 тысяч подписчиков, дату полного релиза не раскрывают.
wired.com


@ai_machinelearning_big_data

#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
🤔88👍4231👏15🔥5👌5🤓5
📌TIME назвал 10 самых влиятельных компаний 2026 года в сфере ИИ

Издание опубликовало расширенную версию рейтинга TIME100 Most Influential Companies - впервые выбрав их по отраслевому принципу.

🟡ByteDance

Владелец TikTok стал одним из ведущих ИИ-разработчиков Китая: его ассистент Doubao набрал более 155 млн еженедельных пользователей. В 2026 году компания, оценённая примерно в $550 млрд, потратит $14 млрд на чипы Nvidia (при условии одобрения экспорта со стороны США).

🟡Amazon

Корпорация запустила Project Rainier - один из крупнейших вычислительных ИИ-кластеров в мире, работающий примерно на 500 тыс. собственных чипов Trainium2 и обслуживающий модели Anthropic.

🟡Zhipu

Китайская компания первой среди местных LLM-разработчиков вышла на биржу в Гонконге и в феврале представила модель GLM-5 на 744 млрд параметров. По данным самой компании, её моделями пользуются более 4 млн корпоративных клиентов и разработчиков, а годовая выручка достигла около $107 млн.

🟡OpenAI

Число еженедельных пользователей ChatGPT превысило 900 млн, ежемесячная выручка — $2 млрд. Параллельно OpenAI заключила контракт с Пентагоном и столкнулась с исками, в которых ChatGPT, по утверждению истцов, мог сыграть крайне деструктивную роль по отношению к людям.

🟡Alphabet

Под руководством Сундара Пичаи Google вернулся в число лидеров ИИ: модели Gemini поднялись в верхушку рейтингов возможностей, а годовая выручка Alphabet впервые превысила $400 млрд. ИИ-функции компании встроены в Gmail, Maps, YouTube и сервис беспилотных такси Waymo.

🟡Meta*

В 2025 году Meta показала рекордную рекламную выручку, частично за счёт ИИ-обработки данных собственных соцсетей, и продолжает вкладываться в исследователей и дата-центры. В марте этого года суд признал Meta ответственной за вред психике несовершеннолетнего пользователя и присудили истцу $6 млн; компания заявила, что обжалует решение.

🟡Anthropic

Claude стал первой ИИ-системой, допущенной в засекреченные сети США, и, по сообщениям СМИ, использовался при планировании военных операций. После отказа Anthropic снять ограничения на массовую слежку и автономное оружие Белый дом объявил компанию риском цепочки поставок.

🟡Alibaba

Семейство открытых моделей Qwen превысило миллиард скачиваний и породило более 200 тыс. производных моделей. Гендиректор Эдди У заявил, что за пять лет компания рассчитывает превысить $100 млрд внешней выручки от облака и ИИ.

🟡Mistral

Французский стартап, оценённый примерно в $14 млрд, делает ставку на открытые модели и развёртывание на инфраструктуре заказчика; среди её клиентов - ASML, TotalEnergies, HSBC и министерство вооружённых сил Франции. В начале 2026 года её годовая выручка достигла $400 млн (примерно в 20 раз больше, чем годом ранее).

🟡Hugging Face

Платформа стала своего рода «GitHub для ИИ»: на ней размещено свыше 2 млн моделей и 500 тыс. датасетов, аккаунты есть более чем у 30% компаний из списка Fortune 500. Компания развивает инструменты для ИИ-агентов и в 2025 году представила открытого робота Reachy Mini.

* Компания Meta признана в России экстремистской организацией и запрещена


@ai_machinelearning_big_data

#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
👍141👏3025🤩14🤗8👨‍💻7❤‍🔥1
⚡️ Qwen выложили в опенсорс ядра линейного внимания для GDN

Начиная с Qwen3-Next умные люди из Alibaba плотно подсели на Gated Delta Network в слоях внимания.

Но когда у вас контекст улетает за 256K, а размер моделей растет до сотен миллиардов параметров, этот блок начинает адски тормозить как обучение, так и инференс.

Базовое линейное внимание страдает от 2-х болячек:

Во-первых, это классические memory-bound ядра: они постоянно гоняют тензоры K, V и промежуточные стейты туда-сюда между HBM и чипом.


Во-вторых, из-за рекуррентной природы стейта вы просто не можете нормально утилизировать GPU при маленьких батчах или использования тензорного параллелизма. Сплошной простой вычислительных блоков.


В Qwen не стали лепить очередное монолитное ядро (которое на маленьких батчах и под TP все равно простаивает), а пошли на компромисс, написав библиотеку FlashQLA на базе TileLang:

🟢 Разбили прямой проход на два слитных ядра, а между ними вставили препроцессинг для автоматического контекстного параллелизма внутри одной карты.

🟠Главная фича Использовали свойство экспоненциального затухания гейта в GDN.
На 60-80% голов внимания влияние старых токенов быстро падает. Это значит, что нам не нужно считать рекуррентный стейт с самого начала последовательности.


FlashQLA делает легкий прогрев на 6-8 чанках и получает практически точный стейт для текущего блока.

🟢В рамках одного потокового мультипроцессора одни варпы занимаются только перекладыванием данных, пока другие в режиме пинг-понга молотят матричные умножения на Tensor Cores и CUDA Cores, скрывая задержки.

🟡Цифры

На чипах Hopper FlashQLA ускоряет forward в 2–3 раза, backward - в 2 раза относительно FLA Triton. На фоне FlashInfer отрыв ещё больше.

Особенно сочный буст виден на претрейне и при инференсе агентов, где обычно гоняется один длинный промпт.

🟡Ложка дёгтя

Старое железо - мимо: ядра требуют архитектуру SM90. Если у вас парк старых Ampere - ограничиваемся чтением статьи и копим бюджеты на H200.

Во-вторых, код сильно заточен под конкретную алгебру GDN, так что использовать это как замену для любого линейного внимания не получится.


Но Qwen достойны любви за эту красивую инженерную работу, где оптимизации логично вытекают из математических свойств самой архитектуры.

Посмотрим, как быстро этот подход растащат в другие фреймворки.


📌Лицензирование: MIT License


🟡Статья
🖥GitHub


@ai_machinelearning_big_data

#AI #ML #LLM #FlashQLA #Kernels #Qwen
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍85🏆57🔥2010👌5🤔4🎉2