NVIDIA выложила в открытый доступ проект Kimodo - генеративную модель на основе диффузии, которая создает реалистичные трехмерные движения для человеческих и робототехнических скелетов.
Kimodo принимает на вход текстовые промпты и ключевые позы всего тела, позиции и вращения конечностей, двухмерные пути и контрольные точки. Это позволяет точно управлять генерацией: от общего описания наподобие "персонаж идет и садится на стул" до детального контроля положения рук и ног в кадрах.
Всего доступно 5 вариантов модели для 3 типов скелетов: SOMA, SMPL-X и Unitree G1. Первые два ориентированы на анимацию аватаров, третий - на робота Unitree G1.
Модели, обученные на полном датасете Bones Rigplay 1 (700 часов), NVIDIA рекомендует как основные рабочие.
Варианты на сете BONES-SEED (288 часов) предназначены для бенчмаркинга и сравнения с собственными разработками.
Для работы с Kimodo предусмотрены 3 интерфейса:
Под инференс потребуется около 17 ГБ видеопамяти, модели запускали на RTX 3090, RTX 4090 и NVIDIA A100.
ProtoMotions позволяет брать сгенерированные движения и обучать на них физически корректные политики управления в GPU-ускоренной симуляции — как для аватаров, так и для Unitree G1.
Через General Motion Retargeting движения, созданные на скелете SMPL-X, можно перенести на произвольных роботов.
Код проекта под Apache 2.0, большинство моделей под NVIDIA Open Model License.
Вариант SMPL-X имеет более ограниченную NVIDIA R&D Model License, она допускает только исследовательское применение.
@ai_machinelearning_big_data
#AI #ML #Robotics #Kimodo #NVIDIA
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍120🤩28🤔20❤13👏12🔥5💯4
GigaChat Ultra и GigaChat-3.1-Lightning уже под MIT-лицензией. Текущее обновление дало заметный прирост по качеству ответов, устойчивости генерации и прикладным сценариям использования. Модели можно разворачивать в закрытом контуре, адаптировать под корпоративные данные и использовать как базу для чат-ботов, внутренних ассистентов и отраслевых AI-сервисов.
В статье на Хабр команда описывает переход от Dense к MoE, переработку этапа постобучения и отдельную работу над устойчивостью генерации. Один из ключевых результатов — модели значительно реже уходят в циклы, то есть стабильнее ведут себя в длинных ответах и диалогах. В релизных материалах это вынесено как отдельное качественное улучшение.
DPO-этап переведён в нативный FP8. Практический смысл этого изменения — более эффективное использование памяти на этапе дообучения без потери качества относительно предыдущих версий. Дополнительно в ходе работы был выявлен критичный баг в SGLang, который влиял на качество и корректность замеров.
Ultra в этом обновлении заметно усилилась в математике, задачах на рассуждение.
Lightning — компактная модель с 1,8 млрд активных параметров, ориентированная на быстрые сценарии. При этом в релизе отдельно отмечен рост качества общения, следования инструкциям и общих знаний.
ГигаЧат получил две новые функции: научился искать в интернете прямо во время диалога и научился в запоминать важные факты для пользователя — это называется долгосрочная память.
@ai_machinelearning_big_data
#news #ai #ml #llm #opensource
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥75🤣43👍28❤22⚡18🙈6👏4🌭3🤔1🤬1😇1
🚨 Обнаружено, что релиз LiteLLM на PyPI версии 1.82.8 содержит вредоносный код.
Стандартная команда `
SSH-ключей, учётных данных AWS/GCP/Azure, Kubernetes-конфигов, git-доступов, всех API-ключей из переменных окружения, истории команд, SSL-ключей, CI/CD-секретов и паролей к базам данных.
И это не нишевая библиотека, у LiteLLM около 97 млн скачиваний в месяц.
Даже без прямой установки
Скомпрометированную версию пакета обнаружили случайно: при установке пакета у разработчика произошёл сбой из-за утечки памяти.
Без этого сбоя атака могла оставаться незамеченной долгое время .
Supply chain атаки становятся одним из самых серьёзных рисков в современной разработке.
Подход «использовать как можно больше готовых библиотек» требует некоторого переосмысления.
Andrej Karpathy: https://x.com/karpathy/status/2036488892443140551
1. Первичный разбор (issue на GitHub): https://github.com/BerriAI/litellm/issues/24512
- подробное техническое описание вредоносного кода: что именно крадёт и как работает
2. Официальный issue от BerriAI: https://github.com/BerriAI/litellm/issues/24518
— реакция команды и обновления по ситуации
3. Блог FutureSearch (обнаружили атаку): https://futuresearch.ai/blog/litellm-pypi-supply-chain-attack/
• как баг с fork bomb в вредоносном коде уронил машину и помог выявить атаку
4. Полный таймлайн TeamPCP от ramimac: https://ramimac.me/teampcp/
— вся цепочка атаки: Trivy → Checkmarx → litellm, с точными временными метками и IOC
5. Тред на Hacker News (основной): https://news.ycombinator.com/item?id=47501729
- обсуждение в реальном времени, включая ответы от Krrish (maintainer litellm)
6. Разбор от GitGuardian:
https://blog.gitguardian.com/trivys-march-supply-chain-attack-shows-where-secret-exposure-hurts-most/
- анализ того, как утечка CI/CD-секретов запустила всю цепочку атаки
@ai_machinelearning_big_data
#llm #ml #cybersecurity
Стандартная команда `
pip install litellm` могла привести к утечке:SSH-ключей, учётных данных AWS/GCP/Azure, Kubernetes-конфигов, git-доступов, всех API-ключей из переменных окружения, истории команд, SSL-ключей, CI/CD-секретов и паролей к базам данных.
И это не нишевая библиотека, у LiteLLM около 97 млн скачиваний в месяц.
Даже без прямой установки
litellm вредоносный код мог попасть к пользователям через другие пакеты (например, `dspy`).Скомпрометированную версию пакета обнаружили случайно: при установке пакета у разработчика произошёл сбой из-за утечки памяти.
Без этого сбоя атака могла оставаться незамеченной долгое время .
Supply chain атаки становятся одним из самых серьёзных рисков в современной разработке.
Подход «использовать как можно больше готовых библиотек» требует некоторого переосмысления.
Andrej Karpathy: https://x.com/karpathy/status/2036488892443140551
1. Первичный разбор (issue на GitHub): https://github.com/BerriAI/litellm/issues/24512
- подробное техническое описание вредоносного кода: что именно крадёт и как работает
2. Официальный issue от BerriAI: https://github.com/BerriAI/litellm/issues/24518
— реакция команды и обновления по ситуации
3. Блог FutureSearch (обнаружили атаку): https://futuresearch.ai/blog/litellm-pypi-supply-chain-attack/
• как баг с fork bomb в вредоносном коде уронил машину и помог выявить атаку
4. Полный таймлайн TeamPCP от ramimac: https://ramimac.me/teampcp/
— вся цепочка атаки: Trivy → Checkmarx → litellm, с точными временными метками и IOC
5. Тред на Hacker News (основной): https://news.ycombinator.com/item?id=47501729
- обсуждение в реальном времени, включая ответы от Krrish (maintainer litellm)
6. Разбор от GitGuardian:
https://blog.gitguardian.com/trivys-march-supply-chain-attack-shows-where-secret-exposure-hurts-most/
- анализ того, как утечка CI/CD-секретов запустила всю цепочку атаки
@ai_machinelearning_big_data
#llm #ml #cybersecurity
2🤔112🤬31👀17🔥16❤13😨8👍7😢7💔2🗿1
Хотя Anthropic изначально делала ставку на корпоративный сегмент, им удалось уверенно выйти и на массовый рынок.
Обновления выходят почти каждый день.
Anthropic смогли стереть границу между «бизнес-инструментом» и «продуктом для всех».
А последние релизы показывают: они не просто догоняют тренды, а начинают их задавать.
Пользуетесь ли вы Claude?
Какое из последних обновлений зашло больше всего? 👇
@ai_machinelearning_big_data
#Claude
Please open Telegram to view this post
VIEW IN TELEGRAM
1❤186🤔95👍49🔥22🎉16💯11🥰7😐3👀1🙊1
Подразделение Research анонсировало TurboQuant, алгоритм векторного квантования, объединяющий 2 других метода - QJL и PolarQuant, который решает проблему увеличения KV-кэша при работе с длинным контекстом.
TurboQuant будет представлен на ICLR 2026, PolarQuant - на AISTATS 2026.
KV-кэш хранит промежуточные представления токенов, чтобы модель не пересчитывала их на каждом шаге генерации. С ростом контекста он превращается в узкое место по памяти.
Обычное векторное квантование сжимает эти данные, но вносит накладные расходы: для каждого блока нужно хранить константы квантования в полной точности, а это плюс 1–2 бита на элемент, что частично обесценивает само сжатие.
Сначала PolarQuant: случайный поворот выравнивает геометрию векторов, после чего они переводятся из декартовых координат в полярные (радиус и угол). Распределение углов оказывается предсказуемым и сконцентрированным, поэтому нормализация и хранение дополнительных констант становятся больше не нужны.
На втором этапе подключается QJL, метод на основе преобразования Джонсона-Линденштраусса, который кодирует остаточную ошибку первого этапа всего одним знаковым битом и через встроенную оценочную функцию сочетает высокоточный запрос с низкоточными сжатыми данными, корректно вычисляя attention score.
Ни один из методов не требует обучения или дообучения и работает в режиме "без предварительного анализа набора данных".
Алгоритмы тестили на бенчмарках для длинного контекста: LongBench, Needle In A Haystack, ZeroSCROLLS, RULER и L-Eval с моделями Gemma и Mistral.
При квантовании KV-кэша до 3 бит TurboQuant показал нулевую деградацию точности на всех задачах: поиск «иголки в стоге сена», QA, генерация кода, суммаризация.
Объем KV-кэша при этом сократился в 6 раз. На H100 четырехбитный TurboQuant ускорил вычисление attention-логитов до 8 раз по сравнению с 32-битными ключами.
Область применения не ограничивается KV-кэшем. В экспериментах с высокоразмерным векторным поиском TurboQuant стабильно превзошел по recall методы PQ и RaBitQ несмотря на то, что те использовали крупные код-буки и подстройку под конкретный датасет.
@ai_machinelearning_big_data
🎯Полезные Мл-ресурсы 🚀 Max
#AI #ML #LLM #TurboQuant #Google
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
❤125🔥47🎉39👨💻12👍9👏8🤩7🥰2
Media is too big
VIEW IN TELEGRAM
Спустя всего 6 месяцев после релиза, OpenAI приняла решение закрыть сервис, который стал вирусным почти сразу: после запуска в конце сентября он набрал миллион скачиваний менее чем за 5 дней.
Несмотря на популярность, поддержка проекта оказалась слишком дорогой. Сейчас компания активно урезает издержки, чтобы подготовить финансовую базу для выхода на биржу.
В ближайшее время компания обещает опубликовать точные сроки отключения приложения и API, а также выпустить инструкции, которые помогут безопасно выгрузить и сохранить созданный контент.
SoraOfficialApp в сети Х
В Claude Cowork и Claude Code появилась функция прямого контроля десктопа. Теперь Claude может перехватывать управление: перемещать курсор, кликать по интерфейсу, набирать текст и запускать инструменты разработчика напрямую.
Новая возможность раскрывается в связке с свежей функцией Dispatch. Например, можно отправить задачу со смартфона, находясь в пути, а запущенный десктопный клиент Claude на компьютере самостоятельно протестирует код, внесет изменения в IDE и подготовит PR.
Новая функция в стадии Research Preview и доступна подписчикам тарифов Pro и Max. На данный момент поддерживается исключительно macOS.
claude.com
На конференции RSA 2026 Google выкатила обновление инструментов кибербезопасности. В платформу Security Operations добавили агентов на базе Gemini: они умеют сами копаться в инцидентах, собирать цифровые улики и выносить вердикт с подробным разбором полетов.
Этих же агентов прикрутили к системе Google Threat Intelligence - теперь они мониторят даркнет. Корпорация заявляет, что алгоритм переваривает миллионы событий ежедневно с точностью 98% и подсвечивает только те риски, которые касаются конкретной компании.
Параллельно Google подтвердила покупку компании Wiz. Ее технологии будут применятся для создания единой системы защиты мультиоблачных инфраструктур.
cloud.google.com
Инструмент построен на базе моделей Molmo 2 с 4В и 8В параметров. Он смотрит на веб глазами пользователя: анализирует скриншот страницы и сам решает, куда кликнуть, что написать, где проскроллить или открыть новую вкладку.
Создатели не стали приукрашивать реальность: агент может тупить при чтении текста, ломается после случайного клика не туда и теряется от нечетких инструкций. Заодно ради безопасности его специально отрезали от работы с паролями и деньгами.
MolmoWeb установил новый SOTA среди открытых решений в 4 бенчмарках для веб-агентов, обошел визуальных агентов на базе GPT-4o и превзошел OpenAI CUA в 3 тестах из 4.
Проект полностью открыт: веса, код и датасет MolmoWebMix доступны по лицензии Apache 2.0.
allenai.org
Бретт Адкок официально представил свой новый проект - ИИ-лабораторию Hark. Компания находилась в скрытом режиме 8 месяцев, собирая сильную команду инженеров в области программного и аппаратного обеспечения.
Адкок считает, что LLM-чатботы слишком примитивны. По его видению, настоящий AGI должен обладать долговременной памятью, глубокой персонализацией и способностью взаимодействовать с физическим миром. Hark будет создавать именно такой персональный интеллект. Система будет перенимать образ мышления пользователя, чтобы забирать на себя когнитивную нагрузку и действовать на опережение.
Несмотря на амбициозные цели, конкретных продуктов Hark пока не показал. На данный момент опубликован только концептуальный манифест и открыт список ожидания.
Brett Adcock в сети Х
@ai_machinelearning_big_data
#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
1🔥47❤30🤔29👍14👏6😢5🤣5🥰2❤🔥1
Yandex B2B Tech запускает гранты на ИИ-разработку
Программа поддерживает компании, разрабатывающие цифровые продукты с ИИ для внешнего рынка. Участники могут получить грант до 1 млн рублей на создание ИИ-агентов и приложений с использованием Yandex AI Studio в течение полугода.
Компании получают экспертную и маркетинговую поддержку, а после завершения программы — скидку до 70% на платформу до 6 месяцев.
Среди первых участников: R77.ai ускоряет проверку документов для банков и страховых с помощью ML-моделей, Noumy.ai внедряет инструменты анализа кандидатов и их поведения на интервью, а GO2AI создает ИИ-агентов для стратегического планирования, сокращая цикл принятия решений с нескольких дней до часа.
Участники также могут получить софинансирование маркетинговых активностей и разместить решения на маркетплейсе Yandex Cloud. В рамках Cloud Boost стартапы уже получили 625 млн рублей на облачную инфраструктуру.
Программа поддерживает компании, разрабатывающие цифровые продукты с ИИ для внешнего рынка. Участники могут получить грант до 1 млн рублей на создание ИИ-агентов и приложений с использованием Yandex AI Studio в течение полугода.
Компании получают экспертную и маркетинговую поддержку, а после завершения программы — скидку до 70% на платформу до 6 месяцев.
Среди первых участников: R77.ai ускоряет проверку документов для банков и страховых с помощью ML-моделей, Noumy.ai внедряет инструменты анализа кандидатов и их поведения на интервью, а GO2AI создает ИИ-агентов для стратегического планирования, сокращая цикл принятия решений с нескольких дней до часа.
Участники также могут получить софинансирование маркетинговых активностей и разместить решения на маркетплейсе Yandex Cloud. В рамках Cloud Boost стартапы уже получили 625 млн рублей на облачную инфраструктуру.
💯78👨💻33👍17👏12🤣8❤6🎉6🗿2🔥1
Система оптимизации производительности для AI-агентов. От победителя хакатона Anthropic.
Готовые к продакшену агенты, хуки, скилы, правила и MCP-конфигурации, которые эволюционировали за 10 месяцев ежедневной интенсивной работы над реальными продуктами.
Работает с Claude Code, Codex, Cowork и другими системами для AI-агентов.
@ai_machinelearning_big_data
🎯Полезные Мл-ресурсы
#AI #ML #aiagents #Claude
Please open Telegram to view this post
VIEW IN TELEGRAM
1👍89🔥31🎉11❤6🤔6💯5🤣4🥰1
В России запустили сервис для быстрого подключения ИИ-моделей
MWS Cloud представил MWS GPT Model Hub — сервис позволяет компаниям подключать большие языковые модели к своим продуктам за несколько минут без собственной инфраструктуры.
Платформа даёт доступ к 10 открытым LLM от ведущих разработчиков, включая DeepSeek, Google и Alibaba. Модели подключаются через OpenAI-совместимый API и разворачиваются в один клик. По сути, LLM становятся таким же базовым инструментом, как базы данных или облачные хранилища.
Сервис рассчитан на разработчиков и продуктовые команды: можно быстро тестировать гипотезы, запускать AI-функции и не тратить ресурсы на поддержку инфраструктуры.
Сервис создан на базе платформы MWS GPT.
«Мы видим, что LLM становятся базовым строительным блоком цифровых продуктов, но их внедрение часто упирается в инфраструктуру и компетенции. MWS GPT Model Hub создан для того, чтобы разработчики могли использовать большие языковые модели так же просто, как любые другие облачные сервисы», — говорит гендиректор МТС Web Services Павел Воронин.
@ai_machinelearning_big_data
MWS Cloud представил MWS GPT Model Hub — сервис позволяет компаниям подключать большие языковые модели к своим продуктам за несколько минут без собственной инфраструктуры.
Платформа даёт доступ к 10 открытым LLM от ведущих разработчиков, включая DeepSeek, Google и Alibaba. Модели подключаются через OpenAI-совместимый API и разворачиваются в один клик. По сути, LLM становятся таким же базовым инструментом, как базы данных или облачные хранилища.
Сервис рассчитан на разработчиков и продуктовые команды: можно быстро тестировать гипотезы, запускать AI-функции и не тратить ресурсы на поддержку инфраструктуры.
Сервис создан на базе платформы MWS GPT.
«Мы видим, что LLM становятся базовым строительным блоком цифровых продуктов, но их внедрение часто упирается в инфраструктуру и компетенции. MWS GPT Model Hub создан для того, чтобы разработчики могли использовать большие языковые модели так же просто, как любые другие облачные сервисы», — говорит гендиректор МТС Web Services Павел Воронин.
@ai_machinelearning_big_data
👍75🥱41👏23🤣18🎉13❤8🤓6🎃5🔥4🥰2😐2
This media is not supported in your browser
VIEW IN TELEGRAM
😁138🤣67❤14💯10👨💻9😴8❤🔥4🤔3😨1
компания может привлечь более $75 млрд уже в ближайшее время.
По данным источников, SpaceX может подать документы регуляторам уже на этой неделе,
официально запустив процесс выхода на биржу в июне.
Это размещение может стать крупнейшим IPO в истории США.
Советники сделки ожидают, что компания привлечёт свыше $75 млрд
(ранее прогнозировали около $50 млрд),
но финальный объём и оценка будут определены ближе к размещению.
https://www.theinformation.com/articles/spacex-aims-file-ipo-soon-week
@ai_machinelearning_big_data
#spacex
Please open Telegram to view this post
VIEW IN TELEGRAM
🎉70🔥35👍21👏5🤩5❤4😁2🤨2❤🔥1🥰1🙏1
Forwarded from Bogatyrev Aleksei
Как я стал дата инженером с ЗП 800к
Без удачи и связей
💀 💀 💀
После очередной пьянки я понял, что надо что-то менять. Я решил стать дата инженером
Составил резюме на коленке. Чудом получил свою первую работу с зп 50к в месяц😎
Отработал 4 месяца и захотел больше. Ну и погнал дальше: собесы, отказы, новые офферы
В прошлом году я пробил 800к рублей за один месяц
Я выгорал, увольнялся, снова загорался и опять шел на собесы
Задумался над своими ошибками...
Как можно избежать их? Снял на эту тему видео, в котором рассказал:
Это разбор реального пути: как с нуля дойти до первой работы дата инженером с хорошей зарплатой.
Без булшита по типу "вкатись в ДЕ за месяц"😏
👉 Смотри видео в закрепе моего канала
Без удачи и связей
5 лет назад я работал в техподдержке с графиком 2/2 и жестко бухал
После очередной пьянки я понял, что надо что-то менять. Я решил стать дата инженером
Составил резюме на коленке. Чудом получил свою первую работу с зп 50к в месяц
Отработал 4 месяца и захотел больше. Ну и погнал дальше: собесы, отказы, новые офферы
В прошлом году я пробил 800к рублей за один месяц
Я выгорал, увольнялся, снова загорался и опять шел на собесы
Задумался над своими ошибками...
Как можно избежать их? Снял на эту тему видео, в котором рассказал:
- мой путь из техподдержки до техлида с зп 800к
- какие ошибки я совершил и как их обойти
- как выглядит типичный день ДЕ
Это разбор реального пути: как с нуля дойти до первой работы дата инженером с хорошей зарплатой.
Без булшита по типу "вкатись в ДЕ за месяц"
👉 Смотри видео в закрепе моего канала
Please open Telegram to view this post
VIEW IN TELEGRAM
🤣185🤬63🔥44👏21🗿9🥱8👍4🦄4❤🔥3🏆3🍓3
Media is too big
VIEW IN TELEGRAM
Первая леди встречается с первым роботом.
«Figure F.03 вошёл в историю как первый человекоподобный робот в Белом доме»
@ai_machinelearning_big_data
#ai #robots
«Figure F.03 вошёл в историю как первый человекоподобный робот в Белом доме»
@ai_machinelearning_big_data
#ai #robots
🤔58😎22❤🔥17🤷14👏8❤6👍4🔥4🌭2🎃2🤗2
This media is not supported in your browser
VIEW IN TELEGRAM
🎧 Google выпустила Lyria 3 Pro - обновлённую музыкальную модель,способную генерировать треки длиной до 3 минут.
Модель позволяет задавать интро, куплеты, припевы и бриджии создавать композиции с сложными переходами».
Доступна для всех подписчиков в Gemini.
@ai_machinelearning_big_data
Модель позволяет задавать интро, куплеты, припевы и бриджии создавать композиции с сложными переходами».
Доступна для всех подписчиков в Gemini.
@ai_machinelearning_big_data
👍65❤28🔥19🗿7😎6🥱2
Media is too big
VIEW IN TELEGRAM
В рамках партнерства с Google, Apple получила глубокий доступ к архитектуре Gemini. Инженеры используют дистилляцию знаний, чтобы перенести логику в легковесные решения для Apple Intelligence.
Модель Apple анализирует ответы и CoT Gemini, обучаясь выполнять задачи с аналогичной точностью. Главная цель - адаптация ИИ для локальной работы на iPhone без отправки данных на серверы.
Пока Apple готовит обновление Siri к июню, серверная версия Gemini продолжит обрабатывать сложные запросы.
theinformation.com
Ускорение миграции продиктовано темпами развития квантового оборудования и коррекции ошибок. Появление систем, способных взломать современные стандарты шифрования, произойдет быстрее, чем ожидалось.
Особую тревогу вызывают атаки «сохрани сейчас, расшифруй потом» и грядущая уязвимость традиционных цифровых подписей. Google скорректировала модель угроз, сделав приоритетом защиту сервисов аутентификации до появления криптографически значимых квантовых компьютеров.
Google уже интегрирует постквантовые подписи на базе ML-DSA (одобренного NIST) в Android 17, дополняя механизмы, развернутые в Chrome и Google Cloud.
blog.google
Arm отходит от лицензирования архитектуры и начинает прямые продажи чипов. AGI CPU будет производиться у TSMC: до 136 ядер при энергопотреблении 300 Вт. Процессор спроектирован для работы с ИИ-ускорителями уровня Nvidia, он возьмет на себя координацию вычислений и обработку запросов.
Основное преимущество - энергоэффективность по сравнению с x86-решениями от Intel и AMD. Первым крупным заказчиком стал Марк Цукерберг, далее инфраструктуру развернут OpenAI, Cerebras и SK Telecom. Серверные решения от Quanta и SuperMicro уже появляются на рынке, массовые поставки ожидаются во второй половине года.
bloomberg.com
Третья версия оценивает способности ИИ к обучению на лету в формате видеоигры: более 1000 уровней в 150 средах. Агентам предстоит исследовать незнакомый мир, понимать правила без инструкций и достигать долгосрочных целей.
Новая метрика Action Efficiency оценивает, насколько эффективно ИИ адаптирует стратегию по сравнению с человеком. Топовые модели OpenAI и Google показывают результат ниже 1%.
Вместе с релизом стартовало соревнование на Kaggle с призовым фондом 2 млн. долларов. Доступен SDK для интеграции агентов, протестировать уровни можно в браузере на сайте проекта.
arcprize.org
ChatGPT стал инструментом визуального шопинга: загрузка фото для поиска похожих вещей, сравнение цен и характеристик, корректировка выдачи через диалог.
Под капотом Agentic Commerce Protocol, позволяющий ритейлерам транслировать товарные фиды и акции в систему с поддержкой популярных e-commerce платформ. Оформление заказа и платежи остаются на стороне продавца.
Для бизнеса это прямой доступ к аудитории с высокой покупательской способностью и возможность создания приложений внутри ChatGPT. Развертывание новых функций завершится до конца недели.
openai.com
@ai_machinelearning_big_data
#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
❤75👨💻21🔥7🤩7👍5🤔3🍓2👏1
Forwarded from AI VK Hub
Рекомендательные системы — один из ключевых механизмов, на которых держатся современные продукты. Они помогают пользователям находить контент, товары и сервисы, а бизнесу — повышать вовлеченность и качество пользовательского опыта. Вместе с Владимиром Байкаловым, ведущим исследователем AI VK, разбираем главные тренды в рекомендациях и последние значимые работы.
🔗 Список статей
#aivk #recsys
Масштабирование🟣 Действия говорят громче слов: последовательные преобразователи с триллионом параметров для генеративных рекомендаций🟣 Масштабирование трансформеров для рекомендательных систем до одного миллиарда параметров🟣 LLaTTE: законы масштабирования для многоэтапного моделирования последовательностей в крупномасштабных рекламных рекомендательных системах
Lifelong Recommendations🟣 TransAct V2: моделирование последовательностей действий пользователя на протяжении всей жизни в рекомендациях Pinterest🟣 TWIN V2: расширение моделирования ультра‑длинных последовательностей поведения пользователя для улучшения CTR‑предсказания в Kuaishou🟣 LONGER: повышение эффективности моделирования длинных последовательностей в промышленных рекомендательных системах🟣 Укрощение ультра-длинных последовательностей пользовательского поведения в генеративных рекомендациях на уровне сессий
Generative Retrieval🟣 Память трансформера как дифференцируемый поисковый индекс🟣 Рекомендательные системы с генеративным поиском🟣 Sparse Meets Dense: унифицированные генеративные рекомендации с каскадными разреженно-плотными представлениями
Semantic IDs🟣 Повышение стабильности эмбеддингов в рекомендательных системах с помощью Semantic ID🟣 ActionPiece: контекстная токенизация последовательностей действий для генеративных рекомендаций🟣 Обучаемая токенизация объектов для генеративных рекомендаций🟣 Semantic ID переменной длины для рекомендательных систем
End to End Рекомендации🟣 OneRec: объединение retrieval и ranking в генеративной рекомендательной модели с итеративным выравниванием предпочтений🟣 OxygenREC: генеративный фреймворк, следующий инструкциям, для рекомендаций в электронной коммерции🟣 EGA: унифицированный end-to-end генеративный фреймворк для промышленных рекламных систем
LLMxRecSys🟣 PLUM: адаптация предварительно обученных языковых моделей для генеративных рекомендаций промышленного масштаба🟣 OneRec‑Think: рассуждение в тексте для генеративной рекомендации🟣 ReaSeq: использование мировых знаний через рассуждение для последовательного моделирования
#aivk #recsys
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
1🤓23👍14👏8❤5🥰3🤨3