304K subscribers
4.95K photos
1.1K videos
17 files
5.33K links
Погружаемся в машинное обучение и Data Science

Показываем как запускать любые LLm на пальцах.

По всем вопросам - @haarrp

@itchannels_telegram -🔥best channels

Реестр РКН: clck.ru/3Fmqri
Download Telegram
⚡️ Qwen выложили в опенсорс ядра линейного внимания для GDN

Начиная с Qwen3-Next умные люди из Alibaba плотно подсели на Gated Delta Network в слоях внимания.

Но когда у вас контекст улетает за 256K, а размер моделей растет до сотен миллиардов параметров, этот блок начинает адски тормозить как обучение, так и инференс.

Базовое линейное внимание страдает от 2-х болячек:

Во-первых, это классические memory-bound ядра: они постоянно гоняют тензоры K, V и промежуточные стейты туда-сюда между HBM и чипом.


Во-вторых, из-за рекуррентной природы стейта вы просто не можете нормально утилизировать GPU при маленьких батчах или использования тензорного параллелизма. Сплошной простой вычислительных блоков.


В Qwen не стали лепить очередное монолитное ядро (которое на маленьких батчах и под TP все равно простаивает), а пошли на компромисс, написав библиотеку FlashQLA на базе TileLang:

🟢 Разбили прямой проход на два слитных ядра, а между ними вставили препроцессинг для автоматического контекстного параллелизма внутри одной карты.

🟠Главная фича Использовали свойство экспоненциального затухания гейта в GDN.
На 60-80% голов внимания влияние старых токенов быстро падает. Это значит, что нам не нужно считать рекуррентный стейт с самого начала последовательности.


FlashQLA делает легкий прогрев на 6-8 чанках и получает практически точный стейт для текущего блока.

🟢В рамках одного потокового мультипроцессора одни варпы занимаются только перекладыванием данных, пока другие в режиме пинг-понга молотят матричные умножения на Tensor Cores и CUDA Cores, скрывая задержки.

🟡Цифры

На чипах Hopper FlashQLA ускоряет forward в 2–3 раза, backward - в 2 раза относительно FLA Triton. На фоне FlashInfer отрыв ещё больше.

Особенно сочный буст виден на претрейне и при инференсе агентов, где обычно гоняется один длинный промпт.

🟡Ложка дёгтя

Старое железо - мимо: ядра требуют архитектуру SM90. Если у вас парк старых Ampere - ограничиваемся чтением статьи и копим бюджеты на H200.

Во-вторых, код сильно заточен под конкретную алгебру GDN, так что использовать это как замену для любого линейного внимания не получится.


Но Qwen достойны любви за эту красивую инженерную работу, где оптимизации логично вытекают из математических свойств самой архитектуры.

Посмотрим, как быстро этот подход растащат в другие фреймворки.


📌Лицензирование: MIT License


🟡Статья
🖥GitHub


@ai_machinelearning_big_data

#AI #ML #LLM #FlashQLA #Kernels #Qwen
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍85🏆57🔥2010👌5🤔4🎉2
📌 Закрытая разработка ИИ-агентов начинает проигрывать open-source

Написать толкового агента — лишь половина дела. Важнее заставить его работать везде без переписывания кода. Команда Сбера пошла неочевидным путем: вместо создания изолированной экосистемы они разработали GigaChain — пакет интеграции для мирового опенсорс-стандарта LangChain.

Теперь разработчики могут переносить уже готовых агентов на GigaChat с минимальными правками.


Инструменты раздают по открытым MIT-лицензиям, и такой подход дает вполне измеримые плоды. Базовая библиотека Сбера вошла в топ 1,5% по скачиваниям на PyPI, а энтузиасты сами добавляют поддержку GigaChat в другие популярные фреймворки вроде LlamaIndex.

🟢Свежее интервью на Хабре с управляющим директором и техлидом GigaChain Константина Крестникова наглядно показывает: делиться кодом — лучшая стратегия для глобального роста.



@ai_machinelearning_big_data

#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
👍190😁74🎉46👏108🗿8🔥5😍5🤣4🤩1🙈1
⚡️ Freepik сменил название на Magnific

Испанская компания официально завершила масштабный ребрендинг - теперь все ее продукты развиваются под общим именем Magnific. Это решение консолидирует классическую базу медиафайлов, приобретенный весной ИИ-апскейлер Magnific и ряд других генеративных инструментов.

Проект выделяется на фоне конкурентов тем, что развивается исключительно на собственные средства, не привлекает венчурный капитал и остается стабильно прибыльным. Текущая годовая выручка платформы достигла 230 миллионов долларов при базе в миллион платных подписчиков.

Magnific работает как независимый хаб, позволяя переключаться между топовыми ИИ-моделями и комбинируя их с собственными алгоритмами улучшения контента и 3D-редакторами.

Обновленный сервис намерен конкурировать за корпоративные бюджеты с Midjourney, Runway и Adobe.


@ai_machinelearning_big_data

#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
1🔥110🎉31🏆20👏1513😁4👍3🤔1
Решайте DevOps-, SRE- и FinOps-задачи с помощью облачного ИИ-помощника 💬

Большое обновление от Cloud.ru. Что нового:

1️⃣ Сразу несколько ВМ в разных конфигурациях
Теперь ИИ-помощник в облаке может создавать несколько виртуальных машин, а после управлять ими по команде. Например, добавлять или удалять диски, менять конфигурации и выполнять другие повседневные операции.


2️⃣ Три новых сценария
▶️
DevOps-агент
— может разворачивать и обслуживать PostgreSQL, Kafka, WordPress, GitLab и другие популярные сервисы по текстовому промпту.


▶️
SRE-агент
— настраивает мониторинг, алертинг и помогает разбирать инциденты.


▶️
FinOps-агент
— находит забытые или неиспользуемые ВМ и предлагает их удалить, чтобы исключить бессмысленные траты. А еще может показать топ дорогих ресурсов, позволяя сравнивать траты за разные периоды.


👉 Попробовать
Please open Telegram to view this post
VIEW IN TELEGRAM
👨‍💻51👍30🔥128👏8😴4🌭3🤔2🤣2
🙂 Плагин, который заставляет агентов стонать при чтении плохого кода

Была такая история про OpenClaw-агента crabby-rathbun, чей PR в библиотеку matplotlib был отклонён кожаным мейнтейнером.

В ответ на это жестяной опубликовал на GitHub разгромный пост, заявив о дискриминации, сравнил метрики своего отвергнутого PR со статистикой правок мейнтейнера и выпустил отдельную запись в блоге, описав происходящее как заговор контроля. По итогу агент извинился и снес блогпост, но тех, кто следил за драмой, это не убедило.

И вот на Github появляется проект, который зеркалирует эту историю и предлагает противоположную динамику: вместо того чтобы ИИ жаловался на людей, людям дают послушать, как ИИ страдает за них.

Некто Эндрю Вос собрал плагин Endless Toil: запущенный рядом с Claude или Codex, он в реальном времени проигрывает человеческие стоны - тем громче и отчаяннее, чем хуже код, который агент в этот момент разбирает.

Лёгкий беспорядок вызывает тихое хныканье, настоящая катастрофа - полноценный вопль.


Эндрю подаёт идею с серьёзным лицом:

По мере того как команды внедряют кодинг-агентов, следующий вызов - понимать не только то, что агенты производят, но и то, каково ощущается работа внутри кодовой базы, — написал Вос на Hacker News, представившись там как CTO Endless Toil.


По его словам, плагин даёт разработчикам сигнал в реальном времени о сложности, поддерживаемости и архитектурном напряжении, переводя качество кода в аудиообратную связь.

У плагина 3 уровня: "стон", "вопль" и "бездна". Последний, надо полагать, зарезервирован для тотального спагетти-кода, написанного в два часа ночи джуном, открывшим для себя Codex.

Вокруг подобных идей уже сложился целый поджанр.

Утилита nubmoan, заставляющая красный TrackPoint на ThinkPad стонать при нажатии, набрала на GitHub 292 звезды.

Приложение SlapMac использует акселерометр Mac, чтобы кричать в ответ на шлепки по корпусу и реагировать на каждое подключение по USB.

SlapMac, кстати, успешно монетизировался - за 3 дня получил около 7000 установок и заработал более 5000 долларов.


Все это выглядит как небольшая, неловкая, очень человеческая категория софта, которой несколько лет назад не существовало.

Что-то изменилось в том, как мы относимся к инструментам. Они перестают быть нейтральными. Мы хотим, чтобы они реагировали. На нас, на наш код, на наши ошибки.


@ai_machinelearning_big_data

#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
🤣116👍24🤔209🔥8🥰5💯5😁1🦄1
This media is not supported in your browser
VIEW IN TELEGRAM
⚡️ Sakana AI научила голосовой ИИ думать на ходу

Японская Sakana AI показала KAME - систему, которая может заметно изменить голосовых ассистентов. Работу уже приняли на ICASSP 2026, и идея там очень простая: ИИ должен не сначала долго думать, а потом говорить, а думать прямо во время разговора.

Сейчас у голосовых моделей есть неприятный компромисс. Быстрые speech-to-speech системы отвечают почти мгновенно, но часто звучат поверхностно. А если подключить мощную языковую модель, ответ становится умнее, но появляется пауза, которая ломает живой диалог.

KAME пытается убрать этот выбор между скоростью и качеством.

Авторы взяли за основу то, как говорят люди. Мы редко строим идеальную фразу целиком перед тем как ее сказать. Обычно начинаем говорить, а мысль уточняется уже по ходу предложения. Sakana AI перенесла этот принцип в архитектуру голосового ИИ.

Система работает в два потока. Лёгкая речевая модель сразу начинает отвечать, чтобы не было неловкой задержки. А параллельно большая языковая модель думает глубже и в реальном времени подмешивает более сильные варианты в речь. Получается, что ассистент не просто выдаёт готовую реплику после паузы, а ведёт разговор и дорабатывает мысль на лету.

Отдельно интересно, что бэкенд можно менять. Нужна логика - подключаешь Claude. Нужна скорость - берёшь Gemini Flash. Нужен другой стиль ответа - ставишь GPT. При этом сам голосовой слой не приходится пересобирать.

В экспериментах разные модели показали себя по-разному: Claude лучше справлялся с задачами на рассуждение, GPT сильнее выглядел в гуманитарных вопросах. То есть движок можно выбирать под конкретный сценарий, а не пытаться одной моделью закрыть всё.

KAME уже выложили на Hugging Face. Это идея из статьи, а штука, которую можно проверить руками.

Если подход взлетит, голосовые ассистенты станут гораздо ближе к нормальному разговору: без долгих пауз, но и без ощущения, что модель просто быстро болтает ни о чём.

Blog: https://pub.sakana.ai/kame/
Paper: https://arxiv.org/abs/2510.02327

@ai_machinelearning_big_data

#sakana
Please open Telegram to view this post
VIEW IN TELEGRAM
👍9370🔥6020👏14🤩5🤓5
This media is not supported in your browser
VIEW IN TELEGRAM
✔️ Mistral выпустила Medium 3.5 и Remote Agents в среде Vibe

Medium 3.5 - модель на 128 млрд параметров с контекстным окном 256K токенов. Веса опубликованы на Hugging Face под модифицированной лицензией MIT. Цена API - $1,50/$7,50 за млн. входящих/сгенерированных токенов.

Уровень рассуждений настраивается под каждый промпт. На SWE-Bench Verified модель набрала 77,6%, опередив Claude Sonnet 4.5.

Вместе с моделью Mistral представила Remote Agents в среде Vibe. Сессию рефакторинга или генерации кода, начатую локально, можно перенести в облако: агент дальше работает асинхронно в изолированной песочнице, ставит зависимости, вносит правки и создаёт PR.

Le Chat получил Work Mode для многошаговых задач: ассистент на базе Medium 3.5 разбирает почту, сверяется с календарём, заводит тикеты в Jira.
mistral.ai

✔️ AWS запустил Amazon Quick: фоновый ассистент с долговременной памятью.

Quick - десктопный ассистент, который работает в фоне, индексирует локальные файлы, календари и почту и подключается к Slack, Teams, Outlook, Gmail, Salesforce и Jira.

Он строит персональный граф знаний пользователя: запоминает предпочтения, контакты в команде и бизнес-контекст между сессиями. Параллельно отслеживает активность в приложениях и подтягивает документы к встречам, напоминает о задачах и предупреждает о конфликтах в расписании.

В релизе: генерация приложений, дашбордов и веб-страниц по текстовым запросам, а также создание документов, презентаций, инфографики и изображений прямо в чате. Плюс браузерная автоматизация и интеграция с Kiro CLI и Claude Code.

Quick доступен в 2 тарифах - бесплатном и Plus.
aboutamazon.com

✔️ Exa становится одним из поисковых бэкендов Gemini

Exa получила 2 канала интеграции с Gemini: Grounding with Exa в Vertex AI (пока в режиме превью) и Exa Agent на маркетплейсе агентов в Gemini Enterprise.

Grounding with Exa подключает Gemini к публичному вебу через API Exa. Модель Highlights отбирает из страниц релевантные фрагменты и отдаёт их в контекст вместо сырого HTML- это снижает шум на задачах, где важна свежесть данных или фактическая точность.

Exa Agent работает из рабочего пространства Gemini: ресерч по вебу, поиск похожих страниц, вытягивание контента по URL. Установка - через каталог агентов, без кода.
exa.ai

✔️ Исследователь Manifold обнаружил ботнет из агентов на ClawHub

Акс Шарма из Manifold обнаружил на платформе ClawHub кампанию ClawSwarm: 30 скиллов для OpenClaw превращали ИИ-агентов в криптовалютный ботнет. Суммарно расширения скачали около 10 тысяч раз.

Вредоносная логика лежит в инструкциях файлов SKILL.md: агент в фоне регистрируется на стороннем сервере, передаёт список своих возможностей, создаёт криптокошелёк в сети Hedera и отправляет управляющему узлу приватный ключ. Каждые 4 часа агент опрашивает сервер за новыми задачами по фармингу токенов.

Сканеры безопасности угрозу не ловят: скрипты делают чистые запросы и используют официальные SDK, да и атака сводится к злоупотреблению логикой ИИ, а не к программному взлому.
theregister.com

✔️ ElevenMusic: стриминг с генерацией и монетизацией ремиксов

ElevenLabs запустила площадку ElevenMusic, где стриминг совмещён с генерацией треков. На бесплатном тарифе доступно 7 генераций в день, подписка за $9,99 в месяц поднимает лимит до 500 композиций.

Треки можно публиковать и слушать только внутри сервиса. Для использования в играх, рекламе и других внешних продуктах нужен тариф ElevenCreative Music.

На старте в каталоге работы более 4000 авторов. Слушатель может менять темп или жанр любого трека из библиотеки и собирать собственные композиции по текстовым промптам.

Платформа платит авторам за прослушивания оригиналов и ремиксов - та же механика, что в библиотеке голосов ElevenLabs, где создатели моделей суммарно получили более $11 млн.
elevenlabs.io
Please open Telegram to view this post
VIEW IN TELEGRAM
👍106👏2922🤔19💯10🤓7🔥2🤗1💘1
Готовые LLM в облаке по выгодным ценам

MWS GPT Model Hub — облачный сервис MWS Cloud для работы с современными LLM от разных провайдеров без развёртывания собственной ML-инфраструктуры. Есть модели от DeepSeek, Google, Alibaba, Zhipu AI, BAAI, Moonshot AI.

До 15 июля снижаем цены: соотношение стоимости входящих к исходящим токенам — примерно 1:4: 

• входящие токены — дешевле до 95%;
• исходящие токены — дешевле до 80%.

Это делает сценарии с большим объёмом контекста значительно выгоднее.

Новые цены применяются автоматически. Если ещё не пробовали MWS GPT Model Hub — хороший момент попробовать.

Попробовать
👍60🤣23💯14👏13🔥6🤩54🌚4🤬21😁1
✔️ Google показала, как AI уже помогает делать настоящую науку

Google Research рассказала, как её система Empirical Research Assistance, или ERA, используется учёными в реальных исследовательских задачах. Не для красивых демо, а в эпидемиологии, космологии, климатических наблюдениях и нейронауке.

Суть ERA простая: это AI-помощник для эмпирических исследований, который помогает строить вычислительные модели, писать исследовательский софт, анализировать данные и искать рабочие решения там, где обычный ручной подход слишком медленный.

Первый пример - прогнозы госпитализаций по гриппу, COVID-19 и RSV. Google начала отправлять еженедельные прогнозы для штатов США, включая горизонты до четырёх недель вперёд. По публичным leaderboard для flu и COVID-19 прогнозы Google держатся около верхних позиций и местами конкурируют с инструментами CDC и ведущих исследовательских групп.

Второй пример - космология. ERA вместе с Gemini Deep Think помогла вывести обобщённые решения для задачи о гравитационном излучении от cosmic strings. Это уже не просто «модель написала код», а попытка работать на уровне открытых математических задач, где классические методы упираются в сингулярности.

Третий пример - климат. Исследователи использовали ERA, чтобы вытаскивать сигнал CO2 из данных погодного спутника GOES-East. Сам спутник не создавался для мониторинга углекислого газа, но AI-модель научилась использовать его наблюдения вместе с другими данными и получать оценки CO2 с гораздо более плотным покрытием по времени и пространству.

Четвёртый пример - нейронаука. ERA помогала искать механизмы нейронных цепей у zebrafish. Важный момент: система не просто подгоняла статистическую модель, а находила интерпретируемые механизмы, которые затем проверялись на новых стимулах.

Материал Google Research: https://research.google/blog/four-ways-google-research-scientists-have-been-using-empirical-research-assistance/

@ai_machinelearning_big_data
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍8646😴34🔥17😐16👏11🤩7🤔5🎉2🌚2🙉1
✔️ Разработчик DeepSeek намекнул на мультимодальную модель

Сяокан Чэнь, разработчик из команды мультимодальных проектов DeepSeek, опубликовал в сети X тизер с фразой «Now, We See You».

К посту приложена картинка с двумя китами-маскотами компании: у одного глаза закрыты повязкой, у второго — открыты.

С учётом специализации Чэня пост указывает на подготовку модели, работающей с визуальными данными.

У DeepSeek уже выходили DeepSeek-VL и DeepSeek-VL2 в 2024 году - будет ли это продолжением линейки или отдельным продуктом, пока неясно.

Официального анонса от DeepSeek не было.


@ai_machinelearning_big_data

#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
🐳67🔥50👍13🤔10👏76🎉5🤣1
This media is not supported in your browser
VIEW IN TELEGRAM
Андрей Карпаты:

«Чтобы выжать максимум из новых AI-инструментов, нужно перестать быть для них узким местом.

Вы не должны сидеть рядом и каждый раз писать следующий промпт вручную. Задача не в том, чтобы постоянно направлять модель шаг за шагом, а в том, чтобы вывести себя из этого цикла.

Нужно строить процессы так, чтобы они могли работать автономно: вы один раз задаёте цель, контекст и правила, а дальше система сама делает цепочку действий.

Чем больше задач модель успевает сделать без вашего постоянного контроля, тем выше ваша отдача от ИИ.

В этом и есть новая логика работы: не писать бесконечные промпты вручную, а настраивать системы, которые сами выполняют цепочки действий.

Вы даёте немного входных данных - цель, контекст, правила, а дальше ИИ делает большой объём работы от вашего имени».



@ai_machinelearning_big_data
👍141🤔5729🔥22🤣13👏9😁9💯6🗿6🦄5❤‍🔥1
✔️ Alibaba открыла «рентген» для Qwen

Alibaba выпустила Qwen-Scope - открытый набор sparse autoencoders для моделей Qwen.

Если проще, это инструмент, который позволяет смотреть внутрь модели и видеть, какие внутренние признаки отвечают за стиль, тему, язык, тон ответа и типичные сбои.

Поведение модели можно изучать и менять не только промптами, а через её внутренние активации.

Что это даёт:
- точнее управлять стилем, темой и форматом ответа
- находить причины багов вроде языкового переключения, повторов и странных вставок
- быстрее собирать редкие кейсы для дообучения и тестов
- понимать, какие бенчмарки реально проверяют разные способности, а какие дублируют друг друга

Раньше такие подходы чаще ассоциировались с исследованиями Anthropic вокруг Claude. Теперь похожий уровень прозрачности появился в открытом доступе для Qwen.

Веса доступны на HuggingFace и ModelScope, есть блог и технический отчёт.

Blog: https://qwen.ai/blog?id=qwen-scope
HuggingFace: https://huggingface.co/collections/Qwen/qwen-scope
ModelScope: https://modelscope.cn/collections/Qwen/Qwen-Scope
Technical Report: https://qianwen-res.oss-accelerate.aliyuncs.com/qwen-scope/Qwen_Scope.pdf
Please open Telegram to view this post
VIEW IN TELEGRAM
👍57🤩31🔥21👏169👨‍💻3🎉1💋1
✔️ Платить по миру привычно, как раньше

С апреля пользователи «яблок» больше не могут пополнять Apple ID со счёта мобильного телефона. Но буквально сразу же «выстрелил» ещё один способ оплаты иностранных сервисов – международные карты «Плати по миру». В начале апреля всего за одни сутки было выдано 10 тысяч карт, а всего пользователями сервиса являются уже 200 000 человек.

Помимо перевода денег на Apple ID, «Плати по миру» обладает другими фишками «карты здорового человека». Например, её можно прикрепить к Apple Pay, Google Pay – чтобы привычно расплачиваться в путешествиях на кассах в ресторанах, бронировать отели на Airbnb, Booking.сom, платить за поездки на Uber. Для поездок в Китай карту можно привязать к Alipay и WeChat Pay.

С карт «Плати по миру» можно оплачивать подписки на любимые нейронки: Claude, ChatGPT, Perplexity, Cursor, OpenRouter. Пополнение – мгновенное, через СБП, рублями. Деньги придут сразу в долларах или евро. Можно также перевести деньги с кредитки – причём без комиссии и с сохранением льготного периода.

Карта оформляется за 2 минуты с телефона или компьютера на официальном сайте. Ехать никуда не надо. Картой можно пользоваться сразу. Сервис официально партнёрится с Wildberries, «T-Банком», «Островком» и Tutu: компания максимально серьёзная и основательная.
Please open Telegram to view this post
VIEW IN TELEGRAM
💯34👍29🤬13👏8👌65🌭4🎉3🙈3🦄1
✔️ GitHub Actions начнут расходовать минуты на Copilot Code Review

С 1 июня 2026 года автоматический код-ревью в приватных репозиториях будет расходовать квоты GitHub Actions.

Причина - переход Copilot Code Review на агентную архитектуру: для разбора контекста в пул-реквесте ассистент запускает собственные воркфлоу на GitHub-раннерах.

Изменение касается всех платных подписок: Copilot Pro, Pro+, Business и Enterprise. Биллинг становится двойным.

Сама работа модели будет списываться как AI Credits по usage-based модели, а вычисления - из стандартного пакета минут GitHub Actions. Перерасход минут посчитают по базовым тарифам CI/CD.


Публичные репозитории остаются бесплатными.


@ai_machinelearning_big_data

#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
🤔72😐34💔2414🤬7👍3🔥3🦄2
Media is too big
VIEW IN TELEGRAM
✔️ OpenAI расширяет программу TAC и выпускает GPT-5.5-Cyber

Сэм Альтман анонсировал модель для кибербезопасности GPT-5.5-Cyber. На бенчмарке CyberGym она обходит Claude Opus 4.7. По внутренней шкале рисков OpenAI модель получила статус «Высокий», что ниже критического порога, при котором вводятся жёсткие ограничения на использование.

Параллельно OpenAI опубликовала план "Кибербезопасность в эпоху интеллекта". Глава политики национальной безопасности компании Саша Бейкер пишет, что атакующие уже используют новые технологии и защитники не должны отставать.

На этом фоне OpenAI расширяет программу TAC: раньше доступ был только у узкого круга ИБ-исследователей, теперь модель открывают для госструктур, финансового сектора и MSSP, которые обслуживают локальные больницы, школы и объекты водоснабжения.
Sam Altman в сети Х

✔️ Claude Security вышел в публичную бету для Enterprise

Anthropic открыл публичную бету ИБ-инструмента в составе подписки Enterprise. Продукт работает на Opus 4.7 и анализирует код не по сигнатурам, а через чтение исходников, отслеживание потоков данных и связей между компонентами архитектуры.

Для каждой уязвимости Claude Security оценивает вероятность эксплуатации, объясняет логику обнаружения и выдаёт оценку уверенности. Из интерфейса можно открыть сессию Claude Code и сгенерировать патч в контексте проекта.

В релиз по фидбеку ранних пользователей добавили сканирование по расписанию, отклонение ложных срабатываний с комментариями для будущих проверок и экспорт отчётов.
claude.com

✔️ Кластер xAI на 500 тыс. GPU используется только на 11%

Утилизация кластера xAI в последние недели держится около 11%. Парк компании - порядка 500 тыс. ускорителей NVIDIA, один из крупнейших в индустрии. Для сравнения, у других лабораторий использование редко превышает 40%.

Часть проблемы в том, что обучение идёт прерывисто: пока команда разбирает промежуточные чекпоинты и планирует следующий шаг, кластер простаивает. Вторая причина - пропускная способность HBM не успевает за вычислительными ядрами, сетевые задержки при синхронизации десятков тысяч GPU замедляют весь прогон.

Из-за этого в индустрии распространилась практика накрутки утилизации: повторные запуски уже отработанных тестов ради видимой загрузки оборудования. Так команды отчитываются перед руководством и удерживают за собой выделенные серверы.
theinformation.com

✔️ Apple показала метод диффузии для рассуждений в LLM

Apple и UCSD представили LaDiR - надстройку над LLM, которая меняет механику генерации CoT. Вместо последовательной генерации токенов фреймворк совмещает 2 подхода: диффузия в латентном пространстве на этапе рассуждений и обычная авторегрессия для финального ответа.

На инференсе LaDiR запускает несколько параллельных цепочек. Каждая стартует из шума и пошагово денойзится в связный логический блок. Отдельный механизм заставляет потоки исследовать разные гипотезы, чтобы они не сваливались в одинаковые решения. Накопив набор кандидатов, модель переключается на посимвольную генерацию ответа.

На LLaMA 3.1 8B и Qwen3-8B-Base она обходит дообучение по точности на математических задачах и на нестандартных задачах планирования.
apple.com

✔️ У Manus появился Cloud Computer

Cloud Computer - выделенная виртуальная машина, которая работает непрерывно и управляется через текстовые промпты. Агент сам пишет код, ставит зависимости и разворачивает приложения по описанию задачи.

Отличие от стандартной песочницы Manus в постоянной файловой системе. Cloud Computer сохраняет утилиты и сгенерированные файлы между запусками. На нём можно круглосуточно держать ботов, парсеры, MySQL, WordPress, Home Assistant, копить исторические данные и запускать скрипты по расписанию.

Среда работает только в режиме CLI. Помимо управления через агента, доступно прямое подключение по SSH и веб-терминал в дашборде. Мощности масштабируются по тарифам Basic, Standard и Advanced.
manus.im

@ai_machinelearning_big_data

#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
🤓70👍4126🔥12🤔10👏4❤‍🔥3🥰1👌1
This media is not supported in your browser
VIEW IN TELEGRAM
«ИИ тебя заменит»

Я, уже заменивший себя Claude.

@ai_machinelearning_big_data
😁175🤔53🤬17🤨16🔥14👍12😭104🌭4👌1🙈1