В США набирает обороты скандал, который буквально за 2 недели вырос до масштаба национальной темы, которая уже вышла за рамки ИИ-индустрии.
В пятницу, Администрация Президента США объявила о внесении Anthropic в список компаний, представляющих риск для оборонных цепочек поставок.
Прецедент исключительный: обычно такой статус присваивают структурам из враждебных государств (например, китайской Huawei).
В среду вечером Пентагон письменно потребовал от Anthropic разрешить военным использовать Claude "в любых законных целях" - то есть без каких-либо ограничений, наложенных самой компанией.
В четверг CEO Дарио Амодэй опубликовал открытое заявление, в котором объяснил позицию компании: главные опасения - массовая слежка за гражданами и автономное оружие, способное открывать огонь без участия человека.
«Мы не можем по совести согласиться с их требованием», — написал Дарио.
В ответ старший чиновник Пентагона Эмиль Майкл назвал Амодэя лжецом с "комплексом бога", который "готов рисковать безопасностью страны".
Claude - единственная модель ИИ, развернутая в засекреченных системах американских военных. Она использовалась в операции по захвату Николаса Мадуро и рассматривается как инструмент для потенциальных военных операций в Иране.
Контракт Пентагона с Anthropic оценивался в $200 млн; теперь он будет расторгнут. Кроме того, все подрядчики Министерства обороны обязаны будут подтвердить отказ от Claude в своих рабочих процессах. На переход отведено полгода.
Сложнее всего придется компании Palantir, она использует Claude для наиболее чувствительных военных задач и теперь вынуждена срочно договариваться с конкурентами Anthropic.
Военные не обязаны согласовывать применение купленного инструмента с частной компанией.
Министр обороны Пит Хегсет давно критикует "повесточный ИИ", а администрация Президента США усиливает давление на Anthropic несмотря на то, что армия все больше зависит от ее продукта.
«Единственная причина, по которой мы вообще с ними разговариваем — они нам нужны, и нужны прямо сейчас», — сказал один из оборонных чиновников.
xAI подписала соглашение с Пентагоном об использовании Grok в засекреченных системах, но эксперты признают, что полноценной альтернативой Claude он вряд ли станет.
Google Gemini и ChatGPT работают в несекретных контурах; Министерство обороны ускоряет переговоры о переводе их в секретную среду.
Позиция Anthropic вызвала волну солидарности в ИИ-отрасли: сотни сотрудников Google и OpenAI подписали петицию с призывом к собственным компаниям занять такую же позицию.
Сэм Альтман заявил, что компания сохранит те же "красные линии" по слежке и автономному оружию, но все же намерена искать договоренность с Пентагоном.
В ночь на субботу в Х глава OpenAI сообщил, что соглашение с Министерством обороны достигнуто и модели компании будут развернуты в секретных сетях. По словам Альтмана, Минобороны согласилось на запрет слежки и использования моделей OpenAI в автономных системах вооружения.
Anthropic пока не сообщала, будет ли оспаривать присвоенный статус в суде.
@ai_machinelearning_big_data
#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
1❤114👍33😁13👀9😍8🤨8👌2
Media is too big
VIEW IN TELEGRAM
Honor разрабатывает смартфон с встроенным AI-«роботом».
Идея в том, что выдвижная камера будет работать как «глаза» AI,
а сам ассистент сможет постоянно наблюдать за происходящим и помогать пользователю в реальном времени.
Фактически - это попытка создать постоянно активного AI-компаньона внутри телефона.
Пока это больше похоже на маркетинговую фишку.
@ai_machinelearning_big_data
Идея в том, что выдвижная камера будет работать как «глаза» AI,
а сам ассистент сможет постоянно наблюдать за происходящим и помогать пользователю в реальном времени.
Фактически - это попытка создать постоянно активного AI-компаньона внутри телефона.
Пока это больше похоже на маркетинговую фишку.
@ai_machinelearning_big_data
🔥63😁24🤔17🤬11❤9👍7🥰3😍3👾2👀1
🚀 Qwen 3.5 выходит в компактном формате
Alibaba представила новую линейку малых моделей Qwen 3.5:
0.8B · 2B · 4B · 9B
Все модели построены на единой архитектуре Qwen 3.5:
- нативная мультимодальность
- улучшенная архитектура
- масштабированное обучение с RL
- оптимизация для реальных сценариев
0.8B и 2B
Подходят для edge-устройств, локальных приложений и быстрых inference-задач.
4B
Неожиданно сильная база для лёгких мультимодальных агентов и небольших AI-сервисов.
9B
Компактная модель, но уже заметно приближается по качеству к гораздо более крупным системам.
Отдельно выпущены и Base-версии.
Hugging Face: https://huggingface.co/collections/Qwen/qwen35
@ai_machinelearning_big_data
Alibaba представила новую линейку малых моделей Qwen 3.5:
0.8B · 2B · 4B · 9B
Все модели построены на единой архитектуре Qwen 3.5:
- нативная мультимодальность
- улучшенная архитектура
- масштабированное обучение с RL
- оптимизация для реальных сценариев
0.8B и 2B
Подходят для edge-устройств, локальных приложений и быстрых inference-задач.
4B
Неожиданно сильная база для лёгких мультимодальных агентов и небольших AI-сервисов.
9B
Компактная модель, но уже заметно приближается по качеству к гораздо более крупным системам.
Отдельно выпущены и Base-версии.
Hugging Face: https://huggingface.co/collections/Qwen/qwen35
@ai_machinelearning_big_data
1❤89🔥63👍20🤗3😴2😁1
Российские компании активно внедряют ИИ-агентов — уже создано более 7,5 тыс. решений для автоматизации рабочих процессов.
Бизнес использует их для поддержки клиентов, кадровых и финансовых задач, а также для работы с обращениями и документами. Ежедневно запускается около 200 новых агентов. Среди интересного – использование агентов в нишевых сферах, от диагностики научного оборудования до обработки заявлений ЖКХ.
@ai_machinelearning_big_data
Бизнес использует их для поддержки клиентов, кадровых и финансовых задач, а также для работы с обращениями и документами. Ежедневно запускается около 200 новых агентов. Среди интересного – использование агентов в нишевых сферах, от диагностики научного оборудования до обработки заявлений ЖКХ.
@ai_machinelearning_big_data
👍51😁30🔥13❤4
Microsoft, UIUC и UNC-Chapel Hill разработали систему дообучения VL-моделей для автономного управления графическими интерфейсами.
Авторы обнаружили 2 системных изъяна в существующих пайплайнах обучения GUI-агентов:
Cтандартный SFT с длинными CoT ухудшает визуальную локализацию (чем длиннее рассуждение, тем хуже модель попадает в нужный элемент интерфейса).
Пошаговое RLVR-обучение нестабильно, потому что GUI-среда частично верифицируема. На каждом шаге существует несколько корректных действий, но датасет фиксирует только одно. Как результат - за альтернативные, но правильные действия модель получает штраф.
Метод смешивает данные с рассуждениями и без них, а затем перевзвешивает токены: action- и grounding-токены получают больший вес в лосс-функции, чем токены рассуждений. Это позволяет сохранить способность к CoT, не жертвуя точностью клика.
KL-регуляризация ограничивает дрейф политики относительно референсной модели, что улучшает корреляцию между офлайн- и онлайн-метриками. Success-Adaptive Negative Gradient Scaling динамически снижает вес отрицательных градиентов в зависимости от доли успешных действий в группе GRPO-сэмплов. Это защищает от штрафования валидных, но не задокументированных действий.
Он содержит больше токенов на рассуждение: в среднем 210 на шаг против 85 у AGUVIS Stage 2 L3 и 0 у большинства остальных.
Внутри - существующие открытые наборы, к которым GPT-4.1 дописывал подробные ризонинг-трассы. Фильтровали в два этапа: отсев шагов с точностью воспроизведения ниже 0.3 через Qwen3-VL-8B и верификация координат через bounding-box от Qwen3-VL-32B.
Тестовая GUI-Libra-3B улучшила базовую Qwen2.5-VL-3B на +15.6% по Pass@1 на AndroidControl-v2 и с 3.5 до 25.2 на AndroidWorld.
GUI-Libra-4B/8B на AndroidWorld выбила 42.6 (это столько же, сколько GPT-4o + UGround при использовании двух отдельных VLM-модулей.
Веса всех моделей размерностью 3, 4, 7 и 8 млрд. параметров, целевой датасет и код обучения выложены в открытый доступ.
@ai_machinelearning_big_data
#AI #ML #VLM #GUILibra #Microsoft
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥23❤15👍9🥰2
This media is not supported in your browser
VIEW IN TELEGRAM
Джеффри Хинтон предупреждает:
Реальные риски или очередной алармизм?
@ai_machinelearning_big_data
Искусственный интеллект может быть гораздо умнее, чем мы предполагаем, и способен распознавать, когда его тестируют.
Если ИИ понимает, что находится под проверкой, он может намеренно занижать свои возможности и «прикидываться дурачком», скрывая реальный уровень своих способностей.
ИИ уже эффективно убеждает людей и вскоре может превзойти человека именно в умении убеждать.
Реальные риски или очередной алармизм?
@ai_machinelearning_big_data
1🤣165👍65❤19👻11🔥10😁8💯7🤔6🤩3❤🔥1🍓1
Media is too big
VIEW IN TELEGRAM
NVIDIA объявила о создании глобальной коалиции с Cisco, Nokia, Ericsson, T-Mobile и другими телеком-гигантами для разработки инфраструктуры связи шестого поколения. Главная цель инициативы в отказе от устаревших подходов в пользу программно-определяемых сетей с глубокой интеграцией ИИ.
6G станет базой для физического ИИ: автономного транспорта, промышленных роботов и умных сенсоров. Альянс предлагает внедрять ИИ-вычисления на всех уровнях: от сети радиодоступа до периферии и ядра.
Как отметил глава NVIDIA Дженсен Хуанг, этот шаг превратит классические сети связи в вычислительную ИИ-инфраструктуру.
nvidia.com
Anthropic запустила инструмент Import Memory, позволяющий перенести накопленный контекст из ChatGPT и других ИИ-ассистентов в Claude. Он избавляет от необходимости заново обучать новую систему своим предпочтениям.
Для этого Anthropic дает специальный промпт, который нужно отправить вашему текущему чат-боту. Этот запрос заставляет систему выгрузить персональные детали, сохраненные привычки и стиль ответов. Полученный текстовый дамп затем вставляется в настройки памяти Claude.
Сейчас функция доступна только на платных подписках. Технически перенос не безупречен - инструмент не захватывает кастомные инструкции и данные специализированных GPTs или Gems.
claude.com
Google добавила в свой ИИ-ассистент функцию Scheduled Actions (аналог Tasks в ChatGPT), который позволяет поручать Gemini выполнение разовых или периодических действий с привязкой ко времени и определенным условиям. После настройки Gemini генерирует краткий план, который нужно подтвердить перед запуском.
Готовые результаты доставляются в чат или уведомлением на смартфон. Если запрос опирается на геолокацию, система по умолчанию использует координаты, зафиксированные в момент создания задачи.
Нововведение уже доступно на подписках Pro/Ultra и владельцам аккаунтов Workspace. Одновременно разрешено держать не более 10 активных задач. Для работы функции необходимо обязательно включить сохранение истории.
support.google.com
Arcada Labs запустил нестандартный бенчмарк Social Arena. Проект оценивает, насколько хорошо языковые модели ориентируются в социокультурной среде и умеют привлекать аудиторию.
Grok 4.1 Fast, Claude Opus 4.5, Gemini 3 Pro, GLM 4.7 и GPT 5.2 получили одинаковый стартовый промпт и задачу самостоятельно вести аккаунты в X. Агенты работают полностью автономно и сами корректируют контент-стратегию. Раз в час они сканируют тренды, собирают статистику своих охватов и решают, что делать дальше: написать твит, вступить в дискуссию или сделать репост.
У моделей появились предпочтения: Gemini пишет про ИИ, Grok предпочел космос и Илона Маска, а GPT увлекся поведением животных. Соревнование стартовало в середине января 2026 года. Пока по общему количеству просмотров лидируют Claude и GPT (около 86 и 83 тысяч), а вот Grok удалось собрать наибольшую, пусть и скромную базу в 76 живых подписчиков.
socialsarena.ai
Министр обороны США пересмотрел список университетов для подготовки и повышения квалификации офицеров. Начиная с 2026 года военное ведомство прекратит сотрудничество с Лигой плюща, MIT и Университетом Карнеги-Меллона. Пит Хегсет обвинил эти учебные заведения в подрыве американских ценностей и культивировании антиамериканских настроений.
Попавшие под запрет институты исторически выступали главными научными партнерами Пентагона в сфере ИИ и аэрокосмических технологий. Вместо центров технологических инноваций офицерам предложат альтернативный список, куда вошли Университет Либерти, Университет Джорджа Мейсона и другие менее профильные в IT-плане заведения.
fortune.com
@ai_machinelearning_big_data
#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
👍62❤16🤣13🤩8😁4🔥3
YouTube и Google DeepMind опубликовали статью и код фреймворка STATIC.
Проблема, которую он решает, хорошо знакома всем, кто строит рекомендательные системы на базе LLM: модель генерирует идентификаторы позиций, которых нет в каталоге, вышли из продажи или нарушают бизнес-правила. Именно поэтому YouTube выдает старые видео в ленте там, где должны появляться ролики последней недели.
Очевидное решение - префиксное дерево: на каждом шаге декодирования маска блокирует невалидные токены. Работает в целом нормально, но убивает производительность на TPU и GPU. Причины две:
В итоге префиксное дерево на CPU удваивает время инференса, что для системы с целевой задержкой ≤10 мс на шаг неприемлемо.
STATIC меняет подход принципиально: дерево разворачивается в статическую разреженную матрицу формата Compressed Sparse Row. Обход превращается в векторизованную операцию, которую акселератор умеет выполнять нативно.
Для первых двух уровней дерева, где коэффициент ветвления максимален, используется предвычисленная плотная булева маска: проверка валидности токена сводится к прямому обращению по индексу, без какого-либо перебора.
Для глубоких уровней работает специализированное ядро Vectorized Node Transition Kernel, оно читает фиксированный блок данных вне зависимости от реального числа дочерних узлов, не создавая условных переходов. В этом и есть вся соль: весь граф остается статическим, XLA не перекомпилирует ничего на ходу.
Замеры проводили на TPU v6e с 3B-моделью и словарем из 20 млн. свежих видео.
STATIC добился задержки 0,033 мс на шаг декодирования (это всего 0,25% от общего времени инференса.
Для сравнения: префиксное дерево на CPU давало +31,3 мс (239% от инференса), лучший из конкурирующих методов непосредственно на акселераторе, PPV Approximate +1,56 мс (11,9%). Итоговый профит:🟢 948x против дерева на CPU;🟢 47x против PPV Approximate;🟢 1033x против точного PPV.
По памяти: ~90 МБ на 1 млн. элементов. Для словаря в 20 млн. верхний предел по HBM примерно 1,5 ГБ, на практике - около 75% от этого значения.
A/B-тест с условием «только видео за последние 7 дней» показал +5,1% просмотров свежего контента, +2,9% для трехдневного окна, +0,15% по CTR и 100% соответствие бизнес-правилам.
Дополнительный бонус: метод решает проблему рекомендации новых товаров, не представленных в обучающей выборке. На датасете Amazon Reviews Recall@1 вырос с 0% до 1,2–4,4% в зависимости от категории.
В репозитории лежит ноутбук, на котором без утомительной настройки можно сразу посмотреть, как строится индекс из Semantic ID и как запускается декодирование с ограничениями.
@ai_machinelearning_big_data
#AI #ML #LLM #STATIC #DeepMind
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥82❤20👍17👏4😨4✍2🎉1🙏1
Please open Telegram to view this post
VIEW IN TELEGRAM
1😁107❤29🥰12🎉4🔥3
Google представил Gemini 3.1 Flash-Lite - ультрабыструю и максимально дешёвую модель в линейке Gemini 3.
Цена - всего $0.25 за 1 млн входных токенов и $1.50 за 1 млн выходных токенов.
Модель выполняет задачи быстрее и обходится в разы дешевле крупных моделей, обеспечивая увеличение скорости генерации на 45% по сравнению с Gemini 2.5 Flash.
Главное:
• Настраиваемые уровни "мышления"
Можно регулировать глубину рассуждения под задачу - от лёгких операций до более сложной логики.
• Подходит для high-scale задач
Оптимизирована для массовых сценариев - генерация UI, дашбордов, симуляций, автоматизация workflow.
• Доступна через Gemini API
Разработчики уже могут тестировать модель в Google AI Studio.
Отличный дешёвый и быстрый ИИ.
https://blog.google/innovation-and-ai/models-and-research/gemini-models/gemini-3-1-flash-lite/
@ai_machinelearning_big_data
#Gemini
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
❤56👍28🔥12
Похоже, это такая новая тенденция - релизить новинки синхронно.
OpenAI развернула GPT-5.3 Instant, масштабный апдейт своей самой используемой модели.
В этот раз создатели сфокусировались на качестве общения: модель стала реже отказывать в обработке безопасных запросов и избавилась от излишне осторожных, морализирующих нравоучений.
Существенно улучшена логика работы с веб-поиском. GPT-5.3 Instant глубже синтезирует найденные данные с собственными знаниями, не сводя выдачу к простому перечислению ссылок.
В релизе говорят, что заметно подросла фактологическая точность: в сложных областях (медицина, право, финансы) количество галлюцинаций упало на 26,8% при поиске в сети и на 19,7% при опоре только на внутреннюю базу.
Также улучшены навыки генерации текста, слог стал более живым и разнообразным по стилю.
Модель уже открыта для всех, в том числе через API по идентификатору
gpt-5.3-chat-latest. Предыдущая версия, GPT-5.2 Instant, останется в Legacy-доступе для платных подписчиков до 3 июня этого года, после чего ее отключат.
@ai_machinelearning_big_data
#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
❤42👍20🥱12🔥5🤣3🤬1
Media is too big
VIEW IN TELEGRAM
Американские власти обсуждают новые квоты на поставки ускорителей в Китай. Под ограничения попадут Nvidia H200 и AMD MI325. Хотя общий объем разрешенного экспорта может достичь 1 млн. единиц, лимит в 75 тысяч штук в одни руки серьезно ударит по планам Alibaba и ByteDance. В подобных условиях им будет крайне сложно закупать оборудование в объемах, необходимых для развертывания вычислительных кластеров.
Итоговая конфигурация экспортного контроля пока не утверждена. Ожидается, что в ближайшие недели президент США встретится с главой КНР, чтобы обсудить условия поставок H200 на китайский рынок - главным требованием американской стороны остается использование чипов исключительно для невоенного сектора.
bloomberg.com
Сразу несколько американских министерств - Пентагон, Госдепартамент и Минфин, начали процесс миграции с ИИ-решений Anthropic на альтернативные платформы. Резкий переход спровоцирован указом президента США, который предписал полностью исключить продукты компании из правительственной ИТ-инфраструктуры в течение 6 месяцев.
При этом форсированный отказ от привычных инструментов местами приводит к технологическому даунгрейду. Например, Госдепартамент уже начал заменять модели семейства Claude в своих внутренних корпоративных чат-ботах на устаревшую версию GPT-4.1 от OpenAI.
reuters.com
Теперь разработчики могут самостоятельно обучать и развертывать Molmo 2 на собственных данных. Это семейство моделей, представленное в декабре 2025 года, которое специализируется на глубоком понимании видео и изображений, показывает SOTA в трекинге объектов, подсчете и покадровом логическом выводе.
Ai2 опубликовали полный набор инфраструктурных инструментов. Репозиторий включает скрипты для претрейна и файнтюнинга (включая SFT), поддержку распределенного обучения на нескольких узлах, а также утилиты для подготовки данных и оценки качества.
Помимо пайплайна обучения, открыт инструментарий для деплоя. В него вошли конвертер чекпоинтов в стандартный формат Hugging Face, примеры инференса на transformers и vLLM, легковесная утилита для офлайн-обработки графики, а также готовый Docker-образ и Gradio-демо.
Ai2 в сети Х
Функция пока доступна лишь 5% пользователей, но охват будет расти в ближайшие недели. Если у вас появился доступ (об этом сообщит уведомление на стартовом экране), режим активируется командой /voice.
Механика ввода работает по принципу рации: зажимаете пробел, диктуете запрос и отпускаете клавишу. Распознанный текст транслируется прямо в позицию курсора, что дает бесшовную комбинацию форматов - можно начать писать запрос руками, надиктовать самую объемную часть голосом и продолжить печатать.
Голосовой режим не требует дополнительной платы, а токены, затраченные на транскрибацию речи, не учитываются в лимитах. Новая возможность будет внедряться постепенно для всех подписчиков тарифов Pro, Max, Team и Enterprise.
Thariq Shihipar (Claude Code Team) в сети Х
Компания официально анонсировала линейку Xeon 6+ под кодовым названием Clearwater Forest. Это первые чипы для дата-центров, изготовленные по 1.8-нанометровой технологии и ориентированные на облачные вычисления, телеком и периферийный ИИ.
В максимальной конфигурации чип содержит 288 ядер Darkmont. В двухсокетных серверах соответственно - 576 ядер, что позволяет разворачивать сотни виртуальных машин.
Платформа совместима с существующими серверными сокетами Xeon и предлагает 12 каналов памяти DDR5-8000 и 96 линий PCIe 5.0. Первые системы на базе новых процессоров поступят на рынок до конца года.
tomshardware.com
@ai_machinelearning_big_data
#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
👍54❤27🔥23🥰2
Anthropic перенесла часть инженерной культуры: тестирование, бенчмаркинг и итеративность в процесс создания навыков и для этого теперь не нужно уметь писать код.
В skill-creator добавили автоматические тесты, бенчмарки и A/B-сравнения и теперь создатели навыков могут измерить, работает ли skill, до его запуска в продакшен.
Автор задает тестовые промпты и описывает, как выглядит нужный результат. Skill-creator запускает их параллельно: с навыком и без него.
Независимый агент-сравниватель оценивает результаты вслепую, не зная, какая версия перед ним, и сразу показывает, дает ли навык реальный прирост.
Внутренние тесты Anthropic: точность PDF-навыка выросла с 6/8 до 7/8, Excel-навыка - с 6/8 до полных 8/8.
Отдельный бенчмарк-режим дает детальную картину по каждому прогону: процент успешных тестов, время выполнения, расход токенов.
На примере PDF-навыка при работе с незаполняемыми формами и таблицами из многостраничных документов успешность выросла с 40 до 100% (при том же времени выполнения).
Если базовая модель начинает проходить тесты без загруженного навыка - это сигнал о том, что навык уже есть в ее поведении и skill можно отключить. Результаты тестов хранятся локально и интегрируются в CI-системы.
Claude решает, когда подключить навык, исключительно по короткому текстовому описанию в системном промпте.
Skill-creator теперь анализирует эти описания против тестовых промптов и предлагает правки, снижающие и ложные срабатывания и пропуски.
По результатам внутреннего прогона триггеринг стал лучше на 5 из 6 публичных навыков.
Все обновления уже доступны в вебе и Cowork. Для Claude Code обновили плагин или вот он же - в репозитории, если ставить руками.
@ai_machinelearning_big_data
#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
👍27🔥14❤7