В опубликованном наборе 2 модели с 2 вариантами по контекстному окну каждая - на 256 тыс и 1 млн токенов.
MoE на 1,02 трлн параметров (42 млрд активных) c позиционированием для сложных задач в и работы агентов.
В SWE-bench Verified V2.5-Pro набирает 78,9 баллов, при этом в многошаговых задачах она тратит на 40–60% меньше токенов по сравнению с GPT-5.4 или Claude Opus 4.6.
В демонстрации возможностей V2.5-Pro самостоятельно написала рабочий компилятор из SysY в RISC-V: на процесс ушло 4,3 часа и почти 700 вызовов внешних инструментов.
Мультимодальная модель на 310 млрд общих и 15 млрд активных параметров c выделенным визуальным (729 млн) и аудиоэнкодером (261 млн), которая понимает текст, изображения, видео и звук.
Обе ветки семейства используют гибридную систему внимания (скользящее окно плюс глобальное) и трехуровневый модуль MTP, который предсказывает сразу несколько токенов.
с 27 апреля по 27 мая компания бесплатно распределит между разработчиками и стартапами пул в 100 триллионов токенов.
После аппрува заявки полученные лимиты можно будет подключить к Cursor и Claude Code.
@ai_machinelearning_big_data
#AI #ML #LLM #MMLM #MiMO #Xiaomi
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
⚡119❤57👍33🤓24👏20🔥10🤬1🎉1
Media is too big
VIEW IN TELEGRAM
Компания не выполнила внутренние цели по выручке и приросту пользователей. По итогам прошлого года ChatGPT не взял отметку в 1 млрд WAU. Давление усиливают Gemini и продвижение Anthropic в корпоративном сегменте.
Результаты заставили пересмотреть стратегию закупки компьюта. Финдиректор Сара Фрайар и совет директоров сомневаются, что OpenAI сможет обслуживать будущие контракты на серверы и дата-центры. Сэм Альтман настаивает на дальнейшем наращивании инфраструктуры - это и стало предметом конфликта.
Под вопросом и план Альтама вывести компанию на биржу до конца года. Фрайар указывает, что внутренние процессы OpenAI пока не соответствуют требованиям публичной отчётности.
wsj.com
Техгигант подписал соглашение с Министерством обороны США, разрешающее использовать ИИ-модели компании в закрытых сетях для любых законных государственных целей. Контракт расширяет несекретное соглашение прошлого года.
По условиям сделки Google по запросу ведомства настраивает и ослабляет встроенные ИИ-фильтры. В документе указано, что модели Google не предназначены для автономного оружия и массовой слежки, но эта формулировка не имеет обязательной юридической силы.
Более 600 сотрудников, включая топ-менеджеров и исследователей DeepMind, направили Сундару Пичаи письмо с требованием отказаться от развёртывания ИИ в военных средах.
theinformation.com
Anthropic выпустила коннекторы Claude для Adobe, Blender, Autodesk Fusion, Ableton, SketchUp, Affinity и Splice. Claude теперь может править 3D-модели, искать сэмплы и работать со слоями по текстовым командам. В Adobe заявлено больше 50 встроенных функций.
Возможности интеграции выходят за рамки обычных макросов. Модель способна генерировать и документировать код для создания кастомных процедурных анимаций или собственных шейдеров, а программисты могут на лету редактировать эти сниппеты прямо внутри рабочего софта.
Интеграция с Blender построена на MCP - через тот же стандарт к 3D-пакету смогут подключаться и другие модели.
anthropic.com
Алек Рэдфорд, автор GPT-1, GPT-2 и CLIP, совместно с Университетом Торонто обучил 13B-модель исключительно на текстах, опубликованных до 31 декабря 1930 года.
В сет на 260 млрд токенов вошли: англоязычные книги, газеты, патенты и судебные архивы. Моделью-судьей выступила Sonnet 4.6. В обучающем корпусе нет кода, поэтому модель защищена от протекания бенчмарков. Тем не менее на HumanEval она пишет простые Python-скрипты.
Авторы прогнали модель по архивным сводкам The New York Times: перплексия на материалах после 1930 года растёт, максимум - на текстах 1950–60-х. Летом команда планирует масштабировать датасет до 1 трлн токенов и выпустить ретро-модель, сопоставимую по возможностям с ChatGPT.
talkie-lm.com
Медиаимперия запустила бета-версию агентного ассистента ASKB в Bloomberg Terminal, построенного на ансамбле LLM. В терминал стекаются котировки, логистика, метеосводки, данные о потребительских расходах - ASKB синтезирует ответ из этих источников за несколько минут по текстовому запросу.
Агентная часть - настраиваемые шаблоны воркфлоу с триггерами. Перед сезоном отчётности ASKB сам собирает фундаментальные показатели, прогнозы и настроения рынков.
CTO Bloomberg отметил: инструмент не сделает из посредственного специалиста гения, но позволит тестировать десяток идей за время, которое раньше уходило на одну. Доступ получили около трети из 375 тысяч подписчиков, дату полного релиза не раскрывают.
wired.com
@ai_machinelearning_big_data
#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
🤔88👍42❤31👏15🔥5👌5🤓5
Издание опубликовало расширенную версию рейтинга TIME100 Most Influential Companies - впервые выбрав их по отраслевому принципу.
Владелец TikTok стал одним из ведущих ИИ-разработчиков Китая: его ассистент Doubao набрал более 155 млн еженедельных пользователей. В 2026 году компания, оценённая примерно в $550 млрд, потратит $14 млрд на чипы Nvidia (при условии одобрения экспорта со стороны США).
Корпорация запустила Project Rainier - один из крупнейших вычислительных ИИ-кластеров в мире, работающий примерно на 500 тыс. собственных чипов Trainium2 и обслуживающий модели Anthropic.
Китайская компания первой среди местных LLM-разработчиков вышла на биржу в Гонконге и в феврале представила модель GLM-5 на 744 млрд параметров. По данным самой компании, её моделями пользуются более 4 млн корпоративных клиентов и разработчиков, а годовая выручка достигла около $107 млн.
Число еженедельных пользователей ChatGPT превысило 900 млн, ежемесячная выручка — $2 млрд. Параллельно OpenAI заключила контракт с Пентагоном и столкнулась с исками, в которых ChatGPT, по утверждению истцов, мог сыграть крайне деструктивную роль по отношению к людям.
Под руководством Сундара Пичаи Google вернулся в число лидеров ИИ: модели Gemini поднялись в верхушку рейтингов возможностей, а годовая выручка Alphabet впервые превысила $400 млрд. ИИ-функции компании встроены в Gmail, Maps, YouTube и сервис беспилотных такси Waymo.
В 2025 году Meta показала рекордную рекламную выручку, частично за счёт ИИ-обработки данных собственных соцсетей, и продолжает вкладываться в исследователей и дата-центры. В марте этого года суд признал Meta ответственной за вред психике несовершеннолетнего пользователя и присудили истцу $6 млн; компания заявила, что обжалует решение.
Claude стал первой ИИ-системой, допущенной в засекреченные сети США, и, по сообщениям СМИ, использовался при планировании военных операций. После отказа Anthropic снять ограничения на массовую слежку и автономное оружие Белый дом объявил компанию риском цепочки поставок.
Семейство открытых моделей Qwen превысило миллиард скачиваний и породило более 200 тыс. производных моделей. Гендиректор Эдди У заявил, что за пять лет компания рассчитывает превысить $100 млрд внешней выручки от облака и ИИ.
Французский стартап, оценённый примерно в $14 млрд, делает ставку на открытые модели и развёртывание на инфраструктуре заказчика; среди её клиентов - ASML, TotalEnergies, HSBC и министерство вооружённых сил Франции. В начале 2026 года её годовая выручка достигла $400 млн (примерно в 20 раз больше, чем годом ранее).
Платформа стала своего рода «GitHub для ИИ»: на ней размещено свыше 2 млн моделей и 500 тыс. датасетов, аккаунты есть более чем у 30% компаний из списка Fortune 500. Компания развивает инструменты для ИИ-агентов и в 2025 году представила открытого робота Reachy Mini.
* Компания Meta признана в России экстремистской организацией и запрещена
@ai_machinelearning_big_data
#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
👍141👏30❤25🤩14🤗8👨💻7❤🔥1
Начиная с Qwen3-Next умные люди из Alibaba плотно подсели на Gated Delta Network в слоях внимания.
Но когда у вас контекст улетает за 256K, а размер моделей растет до сотен миллиардов параметров, этот блок начинает адски тормозить как обучение, так и инференс.
Базовое линейное внимание страдает от 2-х болячек:
Во-первых, это классические memory-bound ядра: они постоянно гоняют тензоры K, V и промежуточные стейты туда-сюда между HBM и чипом.
Во-вторых, из-за рекуррентной природы стейта вы просто не можете нормально утилизировать GPU при маленьких батчах или использования тензорного параллелизма. Сплошной простой вычислительных блоков.
В Qwen не стали лепить очередное монолитное ядро (которое на маленьких батчах и под TP все равно простаивает), а пошли на компромисс, написав библиотеку FlashQLA на базе TileLang:
На 60-80% голов внимания влияние старых токенов быстро падает. Это значит, что нам не нужно считать рекуррентный стейт с самого начала последовательности.
FlashQLA делает легкий прогрев на 6-8 чанках и получает практически точный стейт для текущего блока.
На чипах Hopper FlashQLA ускоряет forward в 2–3 раза, backward - в 2 раза относительно FLA Triton. На фоне FlashInfer отрыв ещё больше.
Особенно сочный буст виден на претрейне и при инференсе агентов, где обычно гоняется один длинный промпт.
Старое железо - мимо: ядра требуют архитектуру SM90. Если у вас парк старых Ampere - ограничиваемся чтением статьи и копим бюджеты на H200.
Во-вторых, код сильно заточен под конкретную алгебру GDN, так что использовать это как замену для любого линейного внимания не получится.
Но Qwen достойны любви за эту красивую инженерную работу, где оптимизации логично вытекают из математических свойств самой архитектуры.
@ai_machinelearning_big_data
#AI #ML #LLM #FlashQLA #Kernels #Qwen
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍85🏆57🔥20❤10👌5🤔4🎉2
Написать толкового агента — лишь половина дела. Важнее заставить его работать везде без переписывания кода. Команда Сбера пошла неочевидным путем: вместо создания изолированной экосистемы они разработали GigaChain — пакет интеграции для мирового опенсорс-стандарта LangChain.
Теперь разработчики могут переносить уже готовых агентов на GigaChat с минимальными правками.
Инструменты раздают по открытым MIT-лицензиям, и такой подход дает вполне измеримые плоды. Базовая библиотека Сбера вошла в топ 1,5% по скачиваниям на PyPI, а энтузиасты сами добавляют поддержку GigaChat в другие популярные фреймворки вроде LlamaIndex.
@ai_machinelearning_big_data
#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
👍190😁74🎉46👏10❤8🗿8🔥5😍5🤣4🤩1🙈1
Испанская компания официально завершила масштабный ребрендинг - теперь все ее продукты развиваются под общим именем Magnific. Это решение консолидирует классическую базу медиафайлов, приобретенный весной ИИ-апскейлер Magnific и ряд других генеративных инструментов.
Проект выделяется на фоне конкурентов тем, что развивается исключительно на собственные средства, не привлекает венчурный капитал и остается стабильно прибыльным. Текущая годовая выручка платформы достигла 230 миллионов долларов при базе в миллион платных подписчиков.
Magnific работает как независимый хаб, позволяя переключаться между топовыми ИИ-моделями и комбинируя их с собственными алгоритмами улучшения контента и 3D-редакторами.
Обновленный сервис намерен конкурировать за корпоративные бюджеты с Midjourney, Runway и Adobe.
@ai_machinelearning_big_data
#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
1🔥110🎉31🏆20👏15❤13😁4👍3🤔1
Решайте DevOps-, SRE- и FinOps-задачи с помощью облачного ИИ-помощника 💬
Большое обновление от Cloud.ru. Что нового:
1️⃣ Сразу несколько ВМ в разных конфигурациях
2️⃣ Три новых сценария
👉 Попробовать
Большое обновление от Cloud.ru. Что нового:
Теперь ИИ-помощник в облаке может создавать несколько виртуальных машин, а после управлять ими по команде. Например, добавлять или удалять диски, менять конфигурации и выполнять другие повседневные операции.
▶️
DevOps-агент
— может разворачивать и обслуживать PostgreSQL, Kafka, WordPress, GitLab и другие популярные сервисы по текстовому промпту.
▶️
SRE-агент
— настраивает мониторинг, алертинг и помогает разбирать инциденты.
▶️
FinOps-агент
— находит забытые или неиспользуемые ВМ и предлагает их удалить, чтобы исключить бессмысленные траты. А еще может показать топ дорогих ресурсов, позволяя сравнивать траты за разные периоды.
👉 Попробовать
Please open Telegram to view this post
VIEW IN TELEGRAM
👨💻51👍30🔥12❤8👏8😴4🌭3🤔2🤣2
Была такая история про OpenClaw-агента crabby-rathbun, чей PR в библиотеку matplotlib был отклонён кожаным мейнтейнером.
В ответ на это жестяной опубликовал на GitHub разгромный пост, заявив о дискриминации, сравнил метрики своего отвергнутого PR со статистикой правок мейнтейнера и выпустил отдельную запись в блоге, описав происходящее как заговор контроля. По итогу агент извинился и снес блогпост, но тех, кто следил за драмой, это не убедило.
И вот на Github появляется проект, который зеркалирует эту историю и предлагает противоположную динамику: вместо того чтобы ИИ жаловался на людей, людям дают послушать, как ИИ страдает за них.
Некто Эндрю Вос собрал плагин Endless Toil: запущенный рядом с Claude или Codex, он в реальном времени проигрывает человеческие стоны - тем громче и отчаяннее, чем хуже код, который агент в этот момент разбирает.
Лёгкий беспорядок вызывает тихое хныканье, настоящая катастрофа - полноценный вопль.
Эндрю подаёт идею с серьёзным лицом:
По мере того как команды внедряют кодинг-агентов, следующий вызов - понимать не только то, что агенты производят, но и то, каково ощущается работа внутри кодовой базы, — написал Вос на Hacker News, представившись там как CTO Endless Toil.
По его словам, плагин даёт разработчикам сигнал в реальном времени о сложности, поддерживаемости и архитектурном напряжении, переводя качество кода в аудиообратную связь.
У плагина 3 уровня: "стон", "вопль" и "бездна". Последний, надо полагать, зарезервирован для тотального спагетти-кода, написанного в два часа ночи джуном, открывшим для себя Codex.
Вокруг подобных идей уже сложился целый поджанр.
Утилита nubmoan, заставляющая красный TrackPoint на ThinkPad стонать при нажатии, набрала на GitHub 292 звезды.
Приложение SlapMac использует акселерометр Mac, чтобы кричать в ответ на шлепки по корпусу и реагировать на каждое подключение по USB.
SlapMac, кстати, успешно монетизировался - за 3 дня получил около 7000 установок и заработал более 5000 долларов.
Все это выглядит как небольшая, неловкая, очень человеческая категория софта, которой несколько лет назад не существовало.
Что-то изменилось в том, как мы относимся к инструментам. Они перестают быть нейтральными. Мы хотим, чтобы они реагировали. На нас, на наш код, на наши ошибки.
@ai_machinelearning_big_data
#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
🤣116👍24🤔20❤9🔥8🥰5💯5😁1🦄1
This media is not supported in your browser
VIEW IN TELEGRAM
Японская Sakana AI показала KAME - систему, которая может заметно изменить голосовых ассистентов. Работу уже приняли на ICASSP 2026, и идея там очень простая: ИИ должен не сначала долго думать, а потом говорить, а думать прямо во время разговора.
Сейчас у голосовых моделей есть неприятный компромисс. Быстрые speech-to-speech системы отвечают почти мгновенно, но часто звучат поверхностно. А если подключить мощную языковую модель, ответ становится умнее, но появляется пауза, которая ломает живой диалог.
KAME пытается убрать этот выбор между скоростью и качеством.
Авторы взяли за основу то, как говорят люди. Мы редко строим идеальную фразу целиком перед тем как ее сказать. Обычно начинаем говорить, а мысль уточняется уже по ходу предложения. Sakana AI перенесла этот принцип в архитектуру голосового ИИ.
Система работает в два потока. Лёгкая речевая модель сразу начинает отвечать, чтобы не было неловкой задержки. А параллельно большая языковая модель думает глубже и в реальном времени подмешивает более сильные варианты в речь. Получается, что ассистент не просто выдаёт готовую реплику после паузы, а ведёт разговор и дорабатывает мысль на лету.
Отдельно интересно, что бэкенд можно менять. Нужна логика - подключаешь Claude. Нужна скорость - берёшь Gemini Flash. Нужен другой стиль ответа - ставишь GPT. При этом сам голосовой слой не приходится пересобирать.
В экспериментах разные модели показали себя по-разному: Claude лучше справлялся с задачами на рассуждение, GPT сильнее выглядел в гуманитарных вопросах. То есть движок можно выбирать под конкретный сценарий, а не пытаться одной моделью закрыть всё.
KAME уже выложили на Hugging Face. Это идея из статьи, а штука, которую можно проверить руками.
Если подход взлетит, голосовые ассистенты станут гораздо ближе к нормальному разговору: без долгих пауз, но и без ощущения, что модель просто быстро болтает ни о чём.
Blog: https://pub.sakana.ai/kame/
Paper: https://arxiv.org/abs/2510.02327
@ai_machinelearning_big_data
#sakana
Please open Telegram to view this post
VIEW IN TELEGRAM
👍93⚡70🔥60❤20👏14🤩5🤓5
This media is not supported in your browser
VIEW IN TELEGRAM
Medium 3.5 - модель на 128 млрд параметров с контекстным окном 256K токенов. Веса опубликованы на Hugging Face под модифицированной лицензией MIT. Цена API - $1,50/$7,50 за млн. входящих/сгенерированных токенов.
Уровень рассуждений настраивается под каждый промпт. На SWE-Bench Verified модель набрала 77,6%, опередив Claude Sonnet 4.5.
Вместе с моделью Mistral представила Remote Agents в среде Vibe. Сессию рефакторинга или генерации кода, начатую локально, можно перенести в облако: агент дальше работает асинхронно в изолированной песочнице, ставит зависимости, вносит правки и создаёт PR.
Le Chat получил Work Mode для многошаговых задач: ассистент на базе Medium 3.5 разбирает почту, сверяется с календарём, заводит тикеты в Jira.
mistral.ai
Quick - десктопный ассистент, который работает в фоне, индексирует локальные файлы, календари и почту и подключается к Slack, Teams, Outlook, Gmail, Salesforce и Jira.
Он строит персональный граф знаний пользователя: запоминает предпочтения, контакты в команде и бизнес-контекст между сессиями. Параллельно отслеживает активность в приложениях и подтягивает документы к встречам, напоминает о задачах и предупреждает о конфликтах в расписании.
В релизе: генерация приложений, дашбордов и веб-страниц по текстовым запросам, а также создание документов, презентаций, инфографики и изображений прямо в чате. Плюс браузерная автоматизация и интеграция с Kiro CLI и Claude Code.
Quick доступен в 2 тарифах - бесплатном и Plus.
aboutamazon.com
Exa получила 2 канала интеграции с Gemini: Grounding with Exa в Vertex AI (пока в режиме превью) и Exa Agent на маркетплейсе агентов в Gemini Enterprise.
Grounding with Exa подключает Gemini к публичному вебу через API Exa. Модель Highlights отбирает из страниц релевантные фрагменты и отдаёт их в контекст вместо сырого HTML- это снижает шум на задачах, где важна свежесть данных или фактическая точность.
Exa Agent работает из рабочего пространства Gemini: ресерч по вебу, поиск похожих страниц, вытягивание контента по URL. Установка - через каталог агентов, без кода.
exa.ai
Акс Шарма из Manifold обнаружил на платформе ClawHub кампанию ClawSwarm: 30 скиллов для OpenClaw превращали ИИ-агентов в криптовалютный ботнет. Суммарно расширения скачали около 10 тысяч раз.
Вредоносная логика лежит в инструкциях файлов SKILL.md: агент в фоне регистрируется на стороннем сервере, передаёт список своих возможностей, создаёт криптокошелёк в сети Hedera и отправляет управляющему узлу приватный ключ. Каждые 4 часа агент опрашивает сервер за новыми задачами по фармингу токенов.
Сканеры безопасности угрозу не ловят: скрипты делают чистые запросы и используют официальные SDK, да и атака сводится к злоупотреблению логикой ИИ, а не к программному взлому.
theregister.com
ElevenLabs запустила площадку ElevenMusic, где стриминг совмещён с генерацией треков. На бесплатном тарифе доступно 7 генераций в день, подписка за $9,99 в месяц поднимает лимит до 500 композиций.
Треки можно публиковать и слушать только внутри сервиса. Для использования в играх, рекламе и других внешних продуктах нужен тариф ElevenCreative Music.
На старте в каталоге работы более 4000 авторов. Слушатель может менять темп или жанр любого трека из библиотеки и собирать собственные композиции по текстовым промптам.
Платформа платит авторам за прослушивания оригиналов и ремиксов - та же механика, что в библиотеке голосов ElevenLabs, где создатели моделей суммарно получили более $11 млн.
elevenlabs.io
Please open Telegram to view this post
VIEW IN TELEGRAM
👍106👏29❤22🤔19💯10🤓7🔥2🤗1💘1
Готовые LLM в облаке по выгодным ценам
MWS GPT Model Hub — облачный сервис MWS Cloud для работы с современными LLM от разных провайдеров без развёртывания собственной ML-инфраструктуры. Есть модели от DeepSeek, Google, Alibaba, Zhipu AI, BAAI, Moonshot AI.
До 15 июля снижаем цены: соотношение стоимости входящих к исходящим токенам — примерно 1:4:
• входящие токены — дешевле до 95%;
• исходящие токены — дешевле до 80%.
Это делает сценарии с большим объёмом контекста значительно выгоднее.
Новые цены применяются автоматически. Если ещё не пробовали MWS GPT Model Hub — хороший момент попробовать.
Попробовать
MWS GPT Model Hub — облачный сервис MWS Cloud для работы с современными LLM от разных провайдеров без развёртывания собственной ML-инфраструктуры. Есть модели от DeepSeek, Google, Alibaba, Zhipu AI, BAAI, Moonshot AI.
До 15 июля снижаем цены: соотношение стоимости входящих к исходящим токенам — примерно 1:4:
• входящие токены — дешевле до 95%;
• исходящие токены — дешевле до 80%.
Это делает сценарии с большим объёмом контекста значительно выгоднее.
Новые цены применяются автоматически. Если ещё не пробовали MWS GPT Model Hub — хороший момент попробовать.
Попробовать
👍60🤣23💯14👏13🔥6🤩5❤4🌚4🤬2⚡1😁1
Google Research рассказала, как её система Empirical Research Assistance, или ERA, используется учёными в реальных исследовательских задачах. Не для красивых демо, а в эпидемиологии, космологии, климатических наблюдениях и нейронауке.
Суть ERA простая: это AI-помощник для эмпирических исследований, который помогает строить вычислительные модели, писать исследовательский софт, анализировать данные и искать рабочие решения там, где обычный ручной подход слишком медленный.
Первый пример - прогнозы госпитализаций по гриппу, COVID-19 и RSV. Google начала отправлять еженедельные прогнозы для штатов США, включая горизонты до четырёх недель вперёд. По публичным leaderboard для flu и COVID-19 прогнозы Google держатся около верхних позиций и местами конкурируют с инструментами CDC и ведущих исследовательских групп.
Второй пример - космология. ERA вместе с Gemini Deep Think помогла вывести обобщённые решения для задачи о гравитационном излучении от cosmic strings. Это уже не просто «модель написала код», а попытка работать на уровне открытых математических задач, где классические методы упираются в сингулярности.
Третий пример - климат. Исследователи использовали ERA, чтобы вытаскивать сигнал CO2 из данных погодного спутника GOES-East. Сам спутник не создавался для мониторинга углекислого газа, но AI-модель научилась использовать его наблюдения вместе с другими данными и получать оценки CO2 с гораздо более плотным покрытием по времени и пространству.
Четвёртый пример - нейронаука. ERA помогала искать механизмы нейронных цепей у zebrafish. Важный момент: система не просто подгоняла статистическую модель, а находила интерпретируемые механизмы, которые затем проверялись на новых стимулах.
Материал Google Research: https://research.google/blog/four-ways-google-research-scientists-have-been-using-empirical-research-assistance/
@ai_machinelearning_big_data
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍86❤46😴34🔥17😐16👏11🤩7🤔5🎉2🌚2🙉1
Сяокан Чэнь, разработчик из команды мультимодальных проектов DeepSeek, опубликовал в сети X тизер с фразой «Now, We See You».
К посту приложена картинка с двумя китами-маскотами компании: у одного глаза закрыты повязкой, у второго — открыты.
С учётом специализации Чэня пост указывает на подготовку модели, работающей с визуальными данными.
У DeepSeek уже выходили DeepSeek-VL и DeepSeek-VL2 в 2024 году - будет ли это продолжением линейки или отдельным продуктом, пока неясно.
Официального анонса от DeepSeek не было.
@ai_machinelearning_big_data
#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
🐳67🔥50👍13🤔10👏7❤6🎉5🤣1
This media is not supported in your browser
VIEW IN TELEGRAM
Андрей Карпаты:
@ai_machinelearning_big_data
«Чтобы выжать максимум из новых AI-инструментов, нужно перестать быть для них узким местом.
Вы не должны сидеть рядом и каждый раз писать следующий промпт вручную. Задача не в том, чтобы постоянно направлять модель шаг за шагом, а в том, чтобы вывести себя из этого цикла.
Нужно строить процессы так, чтобы они могли работать автономно: вы один раз задаёте цель, контекст и правила, а дальше система сама делает цепочку действий.
Чем больше задач модель успевает сделать без вашего постоянного контроля, тем выше ваша отдача от ИИ.
В этом и есть новая логика работы: не писать бесконечные промпты вручную, а настраивать системы, которые сами выполняют цепочки действий.
Вы даёте немного входных данных - цель, контекст, правила, а дальше ИИ делает большой объём работы от вашего имени».
@ai_machinelearning_big_data
👍141🤔57❤29🔥22🤣13👏9😁9💯6🗿6🦄5❤🔥1
Alibaba выпустила Qwen-Scope - открытый набор sparse autoencoders для моделей Qwen.
Если проще, это инструмент, который позволяет смотреть внутрь модели и видеть, какие внутренние признаки отвечают за стиль, тему, язык, тон ответа и типичные сбои.
Поведение модели можно изучать и менять не только промптами, а через её внутренние активации.
Что это даёт:
- точнее управлять стилем, темой и форматом ответа
- находить причины багов вроде языкового переключения, повторов и странных вставок
- быстрее собирать редкие кейсы для дообучения и тестов
- понимать, какие бенчмарки реально проверяют разные способности, а какие дублируют друг друга
Раньше такие подходы чаще ассоциировались с исследованиями Anthropic вокруг Claude. Теперь похожий уровень прозрачности появился в открытом доступе для Qwen.
Веса доступны на HuggingFace и ModelScope, есть блог и технический отчёт.
Blog: https://qwen.ai/blog?id=qwen-scope
HuggingFace: https://huggingface.co/collections/Qwen/qwen-scope
ModelScope: https://modelscope.cn/collections/Qwen/Qwen-Scope
Technical Report: https://qianwen-res.oss-accelerate.aliyuncs.com/qwen-scope/Qwen_Scope.pdf
Please open Telegram to view this post
VIEW IN TELEGRAM
👍57🤩31🔥21👏16❤9👨💻3🎉1💋1
С апреля пользователи «яблок» больше не могут пополнять Apple ID со счёта мобильного телефона. Но буквально сразу же «выстрелил» ещё один способ оплаты иностранных сервисов – международные карты «Плати по миру». В начале апреля всего за одни сутки было выдано 10 тысяч карт, а всего пользователями сервиса являются уже 200 000 человек.
Помимо перевода денег на Apple ID, «Плати по миру» обладает другими фишками «карты здорового человека». Например, её можно прикрепить к Apple Pay, Google Pay – чтобы привычно расплачиваться в путешествиях на кассах в ресторанах, бронировать отели на Airbnb, Booking.сom, платить за поездки на Uber. Для поездок в Китай карту можно привязать к Alipay и WeChat Pay.
С карт «Плати по миру» можно оплачивать подписки на любимые нейронки: Claude, ChatGPT, Perplexity, Cursor, OpenRouter. Пополнение – мгновенное, через СБП, рублями. Деньги придут сразу в долларах или евро. Можно также перевести деньги с кредитки – причём без комиссии и с сохранением льготного периода.
Карта оформляется за 2 минуты с телефона или компьютера на официальном сайте. Ехать никуда не надо. Картой можно пользоваться сразу. Сервис официально партнёрится с Wildberries, «T-Банком», «Островком» и Tutu: компания максимально серьёзная и основательная.
Please open Telegram to view this post
VIEW IN TELEGRAM
💯34👍29🤬13👏8👌6❤5🌭4🎉3🙈3🦄1