323K subscribers
4.7K photos
1K videos
17 files
5.13K links
Погружаемся в машинное обучение и Data Science

Показываем как запускать любые LLm на пальцах.

По всем вопросам - @haarrp

@itchannels_telegram -🔥best channels

Реестр РКН: clck.ru/3Fmqri
Download Telegram
Как перейти от ИИ-экспериментов к рабочим системам

Рассказываем, где узнать реальный опыт тех, кто встроил искусственный интеллект в ключевые процессы компании и извлек из этого реальную выгоду. 22 апреля присоединяйтесь к конференции МЛечный путь от Selectel, провайдера инфраструктуры для ИИ.

Эксперты топовых ИТ-компаний расскажут:

🔺Как ускорить ML-пайплайны и снизить издержки на инференс без потери качества
🔺Как безопасно внедрить генеративные модели в ключевые процессы и управлять эффектом этого внедрения
🔺Как интегрировать модели в существующую ИТ-архитектуру

Конференция пройдет 22 апреля в Москве. Участие бесплатное, регистрируйтесь: https://slc.tl/23df5

Реклама. АО "Селектел". erid:2W5zFHnSn9f
👍31👏11🔥7🤔4🥰3😁2🤨21
🌟 Kimodo: диффузионная модель для генерации 3D-движений людей.

NVIDIA выложила в открытый доступ проект Kimodo - генеративную модель на основе диффузии, которая создает реалистичные трехмерные движения для человеческих и робототехнических скелетов.

Kimodo принимает на вход текстовые промпты и ключевые позы всего тела, позиции и вращения конечностей, двухмерные пути и контрольные точки. Это позволяет точно управлять генерацией: от общего описания наподобие "персонаж идет и садится на стул" до детального контроля положения рук и ног в кадрах.

Всего доступно 5 вариантов модели для 3 типов скелетов: SOMA, SMPL-X и Unitree G1. Первые два ориентированы на анимацию аватаров, третий - на робота Unitree G1.

Модели, обученные на полном датасете Bones Rigplay 1 (700 часов), NVIDIA рекомендует как основные рабочие.

Варианты на сете BONES-SEED (288 часов) предназначены для бенчмаркинга и сравнения с собственными разработками.

Для работы с Kimodo предусмотрены 3 интерфейса:

🟢Интерактивное веб-демо с таймлайн-редактором;
🟢CLI-утилита для пакетной генерации;
🟢Python API для тонкой настройки .

Под инференс потребуется около 17 ГБ видеопамяти, модели запускали на RTX 3090, RTX 4090 и NVIDIA A100.

🟡 Интеграция с робототехническим стеком NVIDIA.

ProtoMotions позволяет брать сгенерированные движения и обучать на них физически корректные политики управления в GPU-ускоренной симуляции — как для аватаров, так и для Unitree G1.

Через General Motion Retargeting движения, созданные на скелете SMPL-X, можно перенести на произвольных роботов.


📌Лицензирование:

Код проекта под Apache 2.0, большинство моделей под NVIDIA Open Model License.

Вариант SMPL-X имеет более ограниченную NVIDIA R&D Model License, она допускает только исследовательское применение.


🟡Набор моделей
🟡Техотчет
🖥Github


@ai_machinelearning_big_data

#AI #ML #Robotics #Kimodo #NVIDIA
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍97🤩28🤔2013👏12🔥5💯4
⚡️ Сбер выпустил крупнейшее обновление ГигаЧат — и выложил в open source.

GigaChat Ultra и GigaChat-3.1-Lightning уже под MIT-лицензией. Текущее обновление дало заметный прирост по качеству ответов, устойчивости генерации и прикладным сценариям использования. Модели можно разворачивать в закрытом контуре, адаптировать под корпоративные данные и использовать как базу для чат-ботов, внутренних ассистентов и отраслевых AI-сервисов.

🟡Что важно в самом обновлении

В статье на Хабр команда описывает переход от Dense к MoE, переработку этапа постобучения и отдельную работу над устойчивостью генерации. Один из ключевых результатов — модели значительно реже уходят в циклы, то есть стабильнее ведут себя в длинных ответах и диалогах. В релизных материалах это вынесено как отдельное качественное улучшение.

DPO-этап переведён в нативный FP8. Практический смысл этого изменения — более эффективное использование памяти на этапе дообучения без потери качества относительно предыдущих версий. Дополнительно в ходе работы был выявлен критичный баг в SGLang, который влиял на качество и корректность замеров.

🟡По моделям

Ultra в этом обновлении заметно усилилась в математике, задачах на рассуждение.
Lightning — компактная модель с 1,8 млрд активных параметров, ориентированная на быстрые сценарии. При этом в релизе отдельно отмечен рост качества общения, следования инструкциям и общих знаний.
ГигаЧат получил две новые функции: научился искать в интернете прямо во время диалога и научился в запоминать важные факты для пользователя — это называется долгосрочная память.

✔️ Для разработчиков это означает, что open source-релиз принёс не просто открытые веса, а более зрелую и инженерно доработанную базу, на которой можно строить как качественные, так и экономически эффективные решения. Для рынка — это шаг к развитию собственной открытой экосистемы русскоязычных моделей, пригодных для реальных продуктовых внедрений.

@ai_machinelearning_big_data

#news #ai #ml #llm #opensource
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥69🤣39👍271818🙈6👏3🌭3🤔1🤬1😇1
🚨 Обнаружено, что релиз LiteLLM на PyPI версии 1.82.8 содержит вредоносный код.

Стандартная команда `pip install litellm` могла привести к утечке:
SSH-ключей, учётных данных AWS/GCP/Azure, Kubernetes-конфигов, git-доступов, всех API-ключей из переменных окружения, истории команд, SSL-ключей, CI/CD-секретов и паролей к базам данных.

И это не нишевая библиотека, у LiteLLM около 97 млн скачиваний в месяц.

Даже без прямой установки litellm вредоносный код мог попасть к пользователям через другие пакеты (например, `dspy`).

Скомпрометированную версию пакета обнаружили случайно: при установке пакета у разработчика произошёл сбой из-за утечки памяти.

Без этого сбоя атака могла оставаться незамеченной долгое время .

Supply chain атаки становятся одним из самых серьёзных рисков в современной разработке.

Подход «использовать как можно больше готовых библиотек» требует некоторого переосмысления.

Andrej Karpathy: https://x.com/karpathy/status/2036488892443140551

1. Первичный разбор (issue на GitHub): https://github.com/BerriAI/litellm/issues/24512
- подробное техническое описание вредоносного кода: что именно крадёт и как работает

2. Официальный issue от BerriAI: https://github.com/BerriAI/litellm/issues/24518
— реакция команды и обновления по ситуации

3. Блог FutureSearch (обнаружили атаку): https://futuresearch.ai/blog/litellm-pypi-supply-chain-attack/
• как баг с fork bomb в вредоносном коде уронил машину и помог выявить атаку

4. Полный таймлайн TeamPCP от ramimac: https://ramimac.me/teampcp/
— вся цепочка атаки: Trivy → Checkmarx → litellm, с точными временными метками и IOC

5. Тред на Hacker News (основной): https://news.ycombinator.com/item?id=47501729
- обсуждение в реальном времени, включая ответы от Krrish (maintainer litellm)

6. Разбор от GitGuardian:
https://blog.gitguardian.com/trivys-march-supply-chain-attack-shows-where-secret-exposure-hurts-most/
- анализ того, как утечка CI/CD-секретов запустила всю цепочку атаки

@ai_machinelearning_big_data

#llm #ml #cybersecurity
2🤔81🤬29👀17🔥1612😨8👍7😢7💔2🗿1
📱 Claude - вторая по популярности LLM после ChatGPT и уже обгоняет Gemini.

Хотя Anthropic изначально делала ставку на корпоративный сегмент, им удалось уверенно выйти и на массовый рынок.

Обновления выходят почти каждый день.

Anthropic смогли стереть границу между «бизнес-инструментом» и «продуктом для всех».

А последние релизы показывают: они не просто догоняют тренды, а начинают их задавать.

Пользуетесь ли вы Claude?
Какое из последних обновлений зашло больше всего? 👇

@ai_machinelearning_big_data

#Claude
Please open Telegram to view this post
VIEW IN TELEGRAM
1177🤔66👍43🔥20🎉16💯11🥰7😐3👀1
📌 Google разработала алгоритм квантования KV-кэша без потери точности.

Подразделение Research анонсировало TurboQuant, алгоритм векторного квантования, объединяющий 2 других метода - QJL и PolarQuant, который решает проблему увеличения KV-кэша при работе с длинным контекстом.

TurboQuant будет представлен на ICLR 2026, PolarQuant - на AISTATS 2026.

KV-кэш хранит промежуточные представления токенов, чтобы модель не пересчитывала их на каждом шаге генерации. С ростом контекста он превращается в узкое место по памяти.

Обычное векторное квантование сжимает эти данные, но вносит накладные расходы: для каждого блока нужно хранить константы квантования в полной точности, а это плюс 1–2 бита на элемент, что частично обесценивает само сжатие.


🟡TurboQuant - двухэтапный пайплайн.

Сначала PolarQuant: случайный поворот выравнивает геометрию векторов, после чего они переводятся из декартовых координат в полярные (радиус и угол). Распределение углов оказывается предсказуемым и сконцентрированным, поэтому нормализация и хранение дополнительных констант становятся больше не нужны.

На втором этапе подключается QJL, метод на основе преобразования Джонсона-Линденштраусса, который кодирует остаточную ошибку первого этапа всего одним знаковым битом и через встроенную оценочную функцию сочетает высокоточный запрос с низкоточными сжатыми данными, корректно вычисляя attention score.

Ни один из методов не требует обучения или дообучения и работает в режиме "без предварительного анализа набора данных".

Алгоритмы тестили на бенчмарках для длинного контекста: LongBench, Needle In A Haystack, ZeroSCROLLS, RULER и L-Eval с моделями Gemma и Mistral.

При квантовании KV-кэша до 3 бит TurboQuant показал нулевую деградацию точности на всех задачах: поиск «иголки в стоге сена», QA, генерация кода, суммаризация.


Объем KV-кэша при этом сократился в 6 раз. На H100 четырехбитный TurboQuant ускорил вычисление attention-логитов до 8 раз по сравнению с 32-битными ключами.


Область применения не ограничивается KV-кэшем. В экспериментах с высокоразмерным векторным поиском TurboQuant стабильно превзошел по recall методы PQ и RaBitQ несмотря на то, что те использовали крупные код-буки и подстройку под конкретный датасет.


🟡Статья
🟡Arxiv


@ai_machinelearning_big_data

🎯Полезные Мл-ресурсы 🚀 Max

#AI #ML #LLM #TurboQuant #Google
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
112🔥40🎉22👨‍💻10👍9👏7🤩6🥰1
Media is too big
VIEW IN TELEGRAM
⚡️ OpenAI закрывает генератор видео Sora.

Спустя всего 6 месяцев после релиза, OpenAI приняла решение закрыть сервис, который стал вирусным почти сразу: после запуска в конце сентября он набрал миллион скачиваний менее чем за 5 дней.

Несмотря на популярность, поддержка проекта оказалась слишком дорогой. Сейчас компания активно урезает издержки, чтобы подготовить финансовую базу для выхода на биржу.

В ближайшее время компания обещает опубликовать точные сроки отключения приложения и API, а также выпустить инструкции, которые помогут безопасно выгрузить и сохранить созданный контент.
SoraOfficialApp в сети Х

✔️ Anthropic научила Claude управлять компьютером.

В Claude Cowork и Claude Code появилась функция прямого контроля десктопа. Теперь Claude может перехватывать управление: перемещать курсор, кликать по интерфейсу, набирать текст и запускать инструменты разработчика напрямую.

Новая возможность раскрывается в связке с свежей функцией Dispatch. Например, можно отправить задачу со смартфона, находясь в пути, а запущенный десктопный клиент Claude на компьютере самостоятельно протестирует код, внесет изменения в IDE и подготовит PR.

Новая функция в стадии Research Preview и доступна подписчикам тарифов Pro и Max. На данный момент поддерживается исключительно macOS.
claude.com

✔️ Google Cloud отправляет ИИ-агентов отбиваться от киберугроз.

На конференции RSA 2026 Google выкатила обновление инструментов кибербезопасности. В платформу Security Operations добавили агентов на базе Gemini: они умеют сами копаться в инцидентах, собирать цифровые улики и выносить вердикт с подробным разбором полетов.

Этих же агентов прикрутили к системе Google Threat Intelligence - теперь они мониторят даркнет. Корпорация заявляет, что алгоритм переваривает миллионы событий ежедневно с точностью 98% и подсвечивает только те риски, которые касаются конкретной компании.

Параллельно Google подтвердила покупку компании Wiz. Ее технологии будут применятся для создания единой системы защиты мультиоблачных инфраструктур.
cloud.google.com

✔️ Ai2 выпустил open-source браузерного агента MolmoWeb.

Инструмент построен на базе моделей Molmo 2 с 4В и 8В параметров. Он смотрит на веб глазами пользователя: анализирует скриншот страницы и сам решает, куда кликнуть, что написать, где проскроллить или открыть новую вкладку.

Создатели не стали приукрашивать реальность: агент может тупить при чтении текста, ломается после случайного клика не туда и теряется от нечетких инструкций. Заодно ради безопасности его специально отрезали от работы с паролями и деньгами.

MolmoWeb установил новый SOTA среди открытых решений в 4 бенчмарках для веб-агентов, обошел визуальных агентов на базе GPT-4o и превзошел OpenAI CUA в 3 тестах из 4.
Проект полностью открыт: веса, код и датасет MolmoWebMix доступны по лицензии Apache 2.0.
allenai.org

✔️ Основатель FigureAI запустил стартап персонального AGI.

Бретт Адкок официально представил свой новый проект - ИИ-лабораторию Hark. Компания находилась в скрытом режиме 8 месяцев, собирая сильную команду инженеров в области программного и аппаратного обеспечения.

Адкок считает, что LLM-чатботы слишком примитивны. По его видению, настоящий AGI должен обладать долговременной памятью, глубокой персонализацией и способностью взаимодействовать с физическим миром. Hark будет создавать именно такой персональный интеллект. Система будет перенимать образ мышления пользователя, чтобы забирать на себя когнитивную нагрузку и действовать на опережение.

Несмотря на амбициозные цели, конкретных продуктов Hark пока не показал. На данный момент опубликован только концептуальный манифест и открыт список ожидания.
Brett Adcock в сети Х

@ai_machinelearning_big_data

#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
121👍11🔥9🤔9👏4😢3🤣3🥰1
Yandex B2B Tech запускает гранты на ИИ-разработку

Программа поддерживает компании, разрабатывающие цифровые продукты с ИИ для внешнего рынка. Участники могут получить грант до 1 млн рублей на создание ИИ-агентов и приложений с использованием Yandex AI Studio в течение полугода.

Компании получают экспертную и маркетинговую поддержку, а после завершения программы — скидку до 70% на платформу до 6 месяцев.

Среди первых участников: R77.ai ускоряет проверку документов для банков и страховых с помощью ML-моделей, Noumy.ai внедряет инструменты анализа кандидатов и их поведения на интервью, а GO2AI создает ИИ-агентов для стратегического планирования, сокращая цикл принятия решений с нескольких дней до часа.

Участники также могут получить софинансирование маркетинговых активностей и разместить решения на маркетплейсе Yandex Cloud. В рамках Cloud Boost стартапы уже получили 625 млн рублей на облачную инфраструктуру.
💯21👍7👨‍💻7👏3🎉3🤣32🗿2