Устройтесь в Яндекс за выходные: 30–31 мая
Если вы ML- или DL-инженер с опытом в доменных областях NLP, CV, RecSys и Classic ML, участвуйте в Weekend Offer ML. Это один из наймовых ивентов Яндекса: вы проходите все секции онлайн в ускоренном режиме и сразу получаете обратную связь.
Как всё устроено:
🔴 до 20 мая — регистрация;
🔴 30 мая — две технические секции, вместо трёх в обычном найме;
🔴 31 мая — финальное интервью с командами и офер.
Если хотите работать в одной из команд Яндекса — R&D, Поиск с Алисой AI, Яндекс Карты, Алиса и Умные устройства, Рекламные технологии Яндекса — регистрируйтесь!
Подробности и полезные ссылки — на сайте: https://yandex.ru/project/events/wo-ml-0526. После регистрации с вами свяжется рекрутер и расскажет все детали.
Если вы ML- или DL-инженер с опытом в доменных областях NLP, CV, RecSys и Classic ML, участвуйте в Weekend Offer ML. Это один из наймовых ивентов Яндекса: вы проходите все секции онлайн в ускоренном режиме и сразу получаете обратную связь.
Как всё устроено:
🔴 до 20 мая — регистрация;
🔴 30 мая — две технические секции, вместо трёх в обычном найме;
🔴 31 мая — финальное интервью с командами и офер.
Если хотите работать в одной из команд Яндекса — R&D, Поиск с Алисой AI, Яндекс Карты, Алиса и Умные устройства, Рекламные технологии Яндекса — регистрируйтесь!
Подробности и полезные ссылки — на сайте: https://yandex.ru/project/events/wo-ml-0526. После регистрации с вами свяжется рекрутер и расскажет все детали.
👏43🤣18🎉17👍14🤬8💯3🙈2🗿2💔1
Sakana AI и NVIDIA представили TwELL - формат данных и набор CUDA-ядер под неструктурированную разреженность в LLM.
На H100 это даёт до 30% к инференсу, до 24% к скорости обучения и более чем 24% снижения пикового VRAM при трейне.
Работа заявлена на ICML 2026.
В FFN-блоках современных LLM для каждого токена реально работает малая доля скрытых активаций - остальное болтается около нуля и впустую тратит вычисления.
Если поверх ReLU добавить вспомогательный L1-лосс на скрытые активации прямо во время обучения, долю нулей можно загнать выше 95% без видимой просадки на downstream-задачах.
Проблема в том, что, что тензорные ядра H100 заточены под плотные матричные умножения и тайлинг. Если скормить им обычный ELLPACK, то теоретическая экономия убивается накладными расходами: построчная упаковка не ложится на тайловую структуру, появляются синхронизации между CTA и лишний трафик в HBM.
Колонки активаций гейта бьются на горизонтальные тайлы. Внутри каждого тайла лежат только ненулевые значения и их индексы в локальном ELL-формате.
Размер тайла подобран так, чтобы каждая CTA паковала свой кусок прямо в разделяемой памяти без синхронизаций между блоками и без лишних обращений к глобальной памяти.
Дальше - 2 разных ядра:
Up- и down-проекции выполняются в одном ядре. Плотная матрица скрытых активаций вообще не материализуется: ядро пробегается по упакованным нулям, подтягивает только нужные строки Wu и Wd и считает скалярное произведение.
Гибридное представление: каждая строка либо ужимается в один глобально выровненный разреженный блок, либо в редких случаях переполнения падает в плотный резерв. Результат - обратный проход без единого умножения двух плотных матриц.
Интересный момент: даже без учёта разреженности кастомные TwELL-ядра вышли чуть быстрее плотных матмулов из PyTorch и CuDNN, в основном за счёт переиспользования ядер, совмещения загрузки данных с вычислениями и оптимизированных шаблонов доступа к памяти.
Считали на моделях 0.5B–2B. При фиксированном L1 у 2B доля ненулевых активаций на 38% меньше, чем у 0.5B (крупнее модель, охотнее уходит в разреженность).
На 2B инференс быстрее на 20.5%, обучение - на 21.9%, и в память влезает вдвое больший микробатч.
Кастомные CUDA-ядра привязаны к NVIDIA: альтернативное железо и PyTorch - мимо.
Эксперименты упираются в 2B, как поведёт себя более крупная модель, никто не проверял.
@ai_machinelearning_big_data
#AI #ML #LLM #TwELL #SakanaAI #NVIDIA
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
1🤓48❤25🤔16👌10👍8👏7🔥4
IT-директор Telaid коротко описал свой новый счёт за Claude: «Офигеть».
За 30 дней расходы выросли втрое. И это всего на 30 пользователей.
Anthropic и так была одной из самых дорогих AI-лабораторий, а теперь корпоративных клиентов переводят с фиксированной оплаты на оплату по фактическому использованию. Плюс новый токенизатор, который тратит больше токенов на те же запросы.
Но клиенты не уходят от Anthropic.
ServiceNow сожгла годовой бюджет на Anthropic за несколько месяцев. Workato увидела, как один агент за день потратил лимит целого пользователя. NinjaOne переводит 700 инженеров с GitHub Copilot на Claude Code.
Claude становится дороже, счета растут, но компании всё равно платят.
https://www.theinformation.com/articles/anthropic-flexes-pricing-power-customers-willingly-eat-cost
Please open Telegram to view this post
VIEW IN TELEGRAM
3🤔164😁52🤬27😢21❤10👏9🌭4🔥3🥱3
С 15 июня все платные тарифы Claude получат отдельный месячный кредит на программное использование.
Кредит покрывает:
• Claude Agent SDK
claude -p (CLI)
• Claude Code GitHub Actions
• Сторонние приложения на базе Agent SDK
И главное - автоматизация и агенты на Claude не будут «съедать» обычный лимит подписки - для них выделен свой бюджет.
https://support.claude.com/en/articles/15036540-use-the-claude-agent-sdk-with-your-claude-plan
@ai_machinelearning_big_data
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍152🔥31🎉22🤣10😐9🥰7❤5👏4😭4🤔3🗿2
Media is too big
VIEW IN TELEGRAM
Компания представила пакет интеграций Claude через интерфейс Claude Cowork, который связывает языковую модель с QuickBooks, PayPal, HubSpot, Canva, Docusign, Google Workspace и Microsoft 365.
Пользователям доступны 15 готовых агентов для финансов, операционной деятельности, продаж, маркетинга и HR. Система умеет сводить бухгалтерский баланс, искать расхождения в транзакциях PayPal, составлять финансовые прогнозы, анализировать метрики HubSpot и генерировать промо-материалы в Canva.
В архитектуру заложен принцип human-in-the-loop. Модель берет на себя вычисления и рутинную нагрузку, но критические действия - проводка платежей, подписание контрактов и отправка писем требуют финального подтверждения пользователя.
anthropic.com
Бывший технический руководитель Qwen в Alibaba привлекает финансирование для своего стартапа. Целевая оценка около $2 млрд, в переговорах об инвестициях участвуют Gaorong Capital и Sequoia China.
Готового продукта у компании нет, оценка строится на репутации основателя. За 3 года в Alibaba он развил Qwen в одно из самых востребованных семейств open-source моделей. В марте техлид объявил об уходе из корпорации, после чего Alibaba перевела команду Qwen в прямое подчинение CEO и сместила фокус на закрытую коммерциализацию.
Американские проекты выходцев из OpenAI стартуют выше: SSI Ильи Суцкевера на старте оценивали в $5 млрд, стартап Миры Мурати - в $10 млрд. Инвесторы осторожничают с китайским рынком: здесь не работает поглощение IT-гигантами, а экспортные санкции США на чипы ограничивают лаборатории в доступе к вычислениям.
theinformation.com
Xiaomi Embodied Intelligence опубликовала код и веса 4B VLA-модели OneVL для беспилотных автомобилей и робототехники. По заявлению разработчиков, она принимает решения точнее, чем более крупные модели, и делает это почти мгновенно.
Архитектура построена на Latent CoT, под капотом Qwen3-VL. Модель сжимает логику принятия решений в 55 скрытых токенов (35 визуальных и 20 текстовых). Подход сохраняет глубину рассуждений при задержке инференса на бортовом оборудовании в 0,24 секунды.
На бенчмарках NAVSIM и ROADWork OneVL обходит аналоги вдвое крупнее. Xiaomi утверждает, что это первый случай, когда сеть с латентными рассуждениями превосходит текстовые CoT-модели по точности при сохранении скорости предиктивных систем.
xiaomi.github.io
По данным платежного индекса Ramp AI, решения Anthropic используют 34,4% корпоративных клиентов платформы, OpenAI - 32,3%. За год доля Anthropic выросла в 4 раза, база OpenAI увеличилась на 0,3%.
Статистика опирается на транзакции преимущественно американских компаний. Индекс учитывает факт оплаты услуг провайдера, а не реальные объемы API-запросов или токенов.
Динамика спроса связана с ростом цен на проприетарные решения. Из-за удорожания закрытых API бизнес переходит на платформы инференса для open-source моделей и дешевые специализированные инструменты.
ramp.com
Китайская компания Xynova представила роботизированную кисть Flex 2 для гуманоидных роботов и систем воплощённого ИИ. При собственной массе 400 граммов манипулятор удерживает объекты весом до 12 кг.
Кинематика устройства обеспечивает 23 степени свободы. Встроенные сенсоры проскальзывания и миллисекундный аппаратный отклик позволяют алгоритмам адаптивного захвата корректировать силу давления на предмет при контакте.
Xynova самостоятельно производит аппаратные и программные компоненты продукта: сборку электродвигателей, редукторов, роликовых винтов, сервоконтроллеров и драйверов, а также написание алгоритмов управления. Разработкой занимается R&D-центр компании из 40 специалистов, более 70% из которых имеют ученые степени.
xynova.com.cn
@ai_machinelearning_big_data
#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
👍54❤19👏10🤩5🔥3🥱2🤔1🎉1
Руководитель направления «AI для разработки» в 2ГИС
Ищем руководителя, который поможет встроить AI в работу 800+ инженеров.
Не с нуля: AI-инструменты уже используются в командах, теперь важно собрать сильное направление, масштабировать рабочие практики и сделать AI частью ежедневной разработки.
Что нужно:
— опыт управления командой или направлением в IT
— технический бэкграунд (разработка / инженерия)
— практический опыт работы с AI-инструментами (Cursor, Copilot, Claude и др.)
— понимание процессов разработки: CI/CD, code review, incidents
Что делать:
— собрать core-команду
— запускать AI-пилоты в командах
— развивать внутренние AI-инструменты
— измерять результат и улучшать процессы
Удалёнка или гибрид. Белая зарплата, ДМС, аккредитованная IT-компания.
Подробнее и отклик здесь
Другие инженерные инсайты от 2ГИС → в Telegram-канале RnD
#реклама
О рекламодателе
Ищем руководителя, который поможет встроить AI в работу 800+ инженеров.
Не с нуля: AI-инструменты уже используются в командах, теперь важно собрать сильное направление, масштабировать рабочие практики и сделать AI частью ежедневной разработки.
Что нужно:
— опыт управления командой или направлением в IT
— технический бэкграунд (разработка / инженерия)
— практический опыт работы с AI-инструментами (Cursor, Copilot, Claude и др.)
— понимание процессов разработки: CI/CD, code review, incidents
Что делать:
— собрать core-команду
— запускать AI-пилоты в командах
— развивать внутренние AI-инструменты
— измерять результат и улучшать процессы
Удалёнка или гибрид. Белая зарплата, ДМС, аккредитованная IT-компания.
Подробнее и отклик здесь
Другие инженерные инсайты от 2ГИС → в Telegram-канале RnD
#реклама
О рекламодателе
👍35😁9❤7🤔6👏2
Команда ProgramBench сообщила, что модель GPT 5.5 в режимах high и xhigh впервые в истории теста полностью прошла одно из заданий - задачу cmatrix.
До этого ни одна модель из публичного рейтинга не доводила задания до конца.
ProgramBench - набор реальных задач программирования, в которых агент должен с нуля переписать утилиту с открытым исходным кодом и пройти при этом скрытые поведенческие тесты.
Совокупно число почти решённых задач у GPT 5.5 достигло 26, это рекорд рейтинга.
Примечательно, что в режиме medium, который OpenAI выставляет по умолчанию, GPT 5.5 лишь незначительно опережает Claude Sonnet 4.6. При включении расширенного рассуждения её результат заметно улучшается.
Запуск GPT 5.5 (high) стоил $3,17 и потребовал 34 обращения к API, GPT 5.5 (xhigh) - $4,84 и 40 обращений.
Тот же запуск Claude Opus 4.7 (xhigh) обошёлся в $10,74 при 178 обращениях, однако решение содержало 19 ошибок в поведенческих тестах.
По разбору авторов, все провалы объясняются 2-мя багами в коде Claude: чувствительностью парсера цветов к регистру и неверным кодом возврата.
Интересно, что 2 версии GPT 5.5 выбрали разные языки для одной и той же задачи: high решала на C с ANSI escape-последовательностями, xhigh предпочла Python.
Claude Opus 4.7 (xhigh) использовала библиотеку ncurses и команда бенчмарка охарактеризовала этот подход как креативное системное решение, которое, впрочем, не дало преимущества в итоговом результате.
@ai_machinelearning_big_data
#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍99❤30👏23🤔10🔥9🥰1
Media is too big
VIEW IN TELEGRAM
Американский стартап выпустил флагманскую мультимодальную модель Mk1 (Mark One) для анализа видео и воплощенного ризонинга - способности ИИ оперировать пространственно-временной информацией о физическом мире.
Стартап основали в ноябре 2024 года Армен Агаджанян и Акшат Шривастава - бывшие научные сотрудники подразделения FAIR Марка Цукерберга, соавторы работ по мультимодальным архитектурам Chameleon и MoMa.
Perceptron AI позиционирует Mk1 как инструмент для видеонаблюдения, инспекции оборудования, инвентаризации складов, аналитики безопасности и автоматической разметки обучающих данных для роботов.
Модель обрабатывает видео с частотой до 2-х кадров в секунду и отслеживает объекты между кадрами, в том числе при их частичном перекрытии.
Mk1 работает в гибридном режиме: цепочку рассуждений можно включать или отключать на уровне отдельного запроса.
Для видео доступна разметка временных меток событий; для изображений - детекция объектов, подсчёт, распознавание текста, разбор сложных документов в HTML, JSON или Markdown, а также вывод геометрических примитивов (точек, рамок и полигонов), которые могут использоваться робототехническими системами.
По бенчмаркам, опубликованным самой Perceptron, модель в задачах работы с изображением, видео и пространственным рассуждением сопоставима с топовыми моделями Google, Anthropic, OpenAI и Qwen, а в ряде тестов опережает их.
В частности, на EmbSpatialBench модель набрала 85,1 балла против 78,4 у Google Robotics-ER 1.5.
Модель доступна через API и площадку OpenRouter. Попробовать Mk1 можно на сайте стартапа.
Заявленная цена: 15 центов за миллион входных токенов и 1,50 доллара за миллион выходных, контекстное окно - 32 тыс. токенов.
@ai_machinelearning_big_data
#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
👍68👏25❤9🤓9🔥4
Компания напрямую агитирует за ужесточение экспортного контроля и закрытие каналов, через которые китайские лаборатории догоняют фронтир.
Логика статьи строится на одном наблюдении.
По интеллекту моделей отставание китайских лабораторий от американских сократилось до нескольких месяцев.
По компьюту (вычислительные мощности) разрыв пока огромный: согласно дорожным картам, Huawei в 2026 году произведёт около 4% от совокупной вычислительной мощности Nvidia, в 2027-м - 2%.
Но именно компьют, по мнению Anthropic, пока удерживает китайские лаборатории от паритета. И компанию беспокоит то, насколько изобретательно этот барьер обходится.
Каналов обхода два:
- физический и инфраструктурный доступ к компьюту в обход санкций: контрабанда чипов и обучение моделей в датацентрах за пределами Китая
- distillation attacks: массовое создание поддельных аккаунтов для систематического сбора ответов фронтирных моделей и воспроизведения их возможностей у себя
Текущее экспортное право регулирует продажу железа, но не удалённый доступ к нему. По данным FT, Alibaba и ByteDance уже тренируют флагманские модели на подсанкционных американских чипах в датацентрах Юго-Восточной Азии.
Distillation attacks Anthropic квалифицирует как промышленный шпионаж, фактически субсидируемый американскими инвестициями.
Особое место в статье занимает Mythos Preview - модель, которую Anthropic в апреле передал ограниченному кругу партнёров в рамках Project Glasswing. Команда Firefox с её помощью за месяц закрыла больше уязвимостей, чем за весь 2025 год.
Один китайский аналитик по кибербезопасности отреагировал фразой, которую теперь цитируют в статье: «
мы всё ещё точим мечи, а у соперника внезапно появился полностью автоматический пулемёт Гатлинга».
Этот эпизод Anthropic подаёт как репетицию будущего. При таком темпе ускорения отставание даже в несколько месяцев превращается в качественно другой уровень возможностей.
Два сценария на 2028 год выстроены вокруг одной развилки - что сделает Вашингтон в ближайшие месяцы.
В сценарии лидерства США закрывают лазейки в экспортном контроле, давят дистилляцию, ускоряют экспорт американского ИИ-стека и получают отрыв в 12-24 месяца по фронтиру. Этот отрыв самоусиливается: лидерство притягивает таланты и капитал, расширяет коалицию союзников, даёт США рычаги для диалога с Пекином, включая темы безопасности.
В сценарии паритета Вашингтон оставляет всё как есть. Китайские лаборатории за счёт удалённого компьюта и продолжающейся дистилляции выходят на околофронтирный уровень. Huawei и Alibaba занимают рынки Глобального Юга дешёвыми и достаточно качественными моделями, а нормы применения ИИ начинают формироваться под влиянием авторитарных режимов.
Отдельный важный блок - безопасность китайских моделей.
Anthropic ссылается на оценку CAISI: DeepSeek R1-0528 под распространённым джейлбрейком выполняет 94% явно вредоносных запросов против 8% у американских референсных моделей. Независимая проверка Kimi K2.5 от Moonshot показала похожую картину на CBRN-тематике.
Открытые веса делают проблему острее. После публикации модели встроенные ограничения можно снять, и любой актор получает доступ к её возможностям.
На уровне политики Anthropic предлагает четыре шага:
- ужесточить экспортный контроль на чипы и оборудование для их производства
- закрыть лазейку с удалённым доступом к зарубежным мощностям
- законодательно квалифицировать distillation attacks как незаконную практику
- продолжать продвигать американский ИИ-стек на внешних рынках
По расчётам, на которые ссылается компания, при ужесточении ограничений у американского сектора будет примерно в 11 раз больше компьюта, чем у китайского.
Любопытна и сама форма высказывания. Anthropic окончательно вышел за рамки роли исследовательской лаборатории - это полноценный лоббистский документ, оформленный как ресёрч.
Оригинал: https://www.anthropic.com/research/2028-ai-leadership
@ai_machinelearning_big_data
#anthropic
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥57🤔53🤬23❤15👍9😁8👌5🤣4👏3🤨3🐳1
Media is too big
VIEW IN TELEGRAM
Разрешения получили около 10 компаний (Alibaba, Tencent, ByteDance и JD и дистрибьюторы Lenovo и Foxconn). Квота составляет до 75 тысяч чипов на клиента. Правительство КНР остановило сделки для перевода инфраструктуры на локальные аналоги.
Дополнительным барьером стала новая схема логистики от администрации США. Ведомство требует 25% выручки от продаж, для чего обязали физически провозить электронику через американскую территорию перед отправкой заказчикам. Китайские регуляторы видят в таком маршруте риск компрометации цепочек поставок и установки аппаратных закладок.
Для проведения переговоров по контрактам глава Nvidia присоединился к миссии США в Пекине.
reuters.com
До 13 июля пользователи платных тарифов Pro, Max, Team и Enterprise смогут обращаться к ИИ-ассистенту в полтора раза чаще. Новые еженедельные квоты и действуют во всех рабочих средах: CLI, расширениях для IDE, а также в десктопной и веб-версиях.
Это расширение станет отличным подспорьем для разработчиков, поскольку 50-процентная надбавка суммируется с обновлением прошлой недели, когда Anthropic в 2 раза увеличила лимиты на пятичасовые сессии. Никаких дополнительных действий для активации нового лимита не требуется.
ClaudeDevs в сети Х
OpenAI добавила функцию удаленного управления Codex в мобильное приложение ChatGPT. Мобильный клиент в реальном времени транслирует скриншоты среды, логи терминала, результаты тестов и diff-файлы. Пользователь может проверять промежуточные результаты, корректировать действия ИИ и подтверждать выполнение команд без физического доступа к ПК.
Соединение устройств идет через внутренний ретранслятор без прямого доступа к машине из публичного интернета. Исходный код, ключи и локальные настройки не покидают рабочую среду. Одновременно OpenAI выпустила функцию Remote SSH для запуска агента в корпоративных инфраструктурах.
Управление агентом со смартфона доступно на всех тарифах. Для подключения необходимо обновить мобильный ChatGPT и десктопный клиент для macOS. Поддержка Windows ожидается позже.
openai.com
О новых правилах объявил Томас Дитерих. Согласно политике, авторы несут полную ответственность за содержимое препринтов, включая плагиат, предвзятость и фактические ошибки языковых моделей.
Поводом для блокировки аккаунта станут явные следы ИИ-генерации: выдуманные источники в списке литературы, забытые ответы чат-ботов или просьбы заполнить таблицу реальными данными экспериментов.
Нарушители лишаются права публиковаться на один год. После истечения бана прямая загрузка препринтов для них останется недоступной, для размещения статьи потребуется предоставить доказательства ее принятия авторитетным рецензируемым изданием или конференцией.
Ведущий модератор раздела CS.LG сервиса arXiv
Британский институт безопасности ИИ протестировал модели GPT-5.5 и Claude Mythos на способность к автономному хакингу. По данным исследователей, нейросети прервали предыдущий тренд на удвоение сложности решаемых задач каждые 4,7 месяца, показав результаты за пределами измерительной шкалы института.
Модели проверяли на изолированных стендах с имитацией корпоративных сетей. Задачи включали поиск уязвимостей, веб-эксплуатацию и реверс-инжиниринг. Для тестов контекстное окно ограничивали 2,5 млн токенов. В этих условиях Claude Mythos первым прошел оба комплексных сценария: "The Last Ones" и инфраструктуру "Cooling Tower", требующих планирования многоэтапной атаки. GPT-5.5 также показала высокие результаты.
По оценкам AISI, при использовании агентной архитектуры и снятии лимита на токены доля успешных взломов приближается к 100%, из-за чего вычислить предел возможностей новых моделей пока не удается.
aisi.gov.uk
@ai_machinelearning_big_data
#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
🤔43❤21🔥14👏11😨5🗿5🤨4👍1🥰1😁1