322K subscribers
4.72K photos
1.01K videos
17 files
5.15K links
Погружаемся в машинное обучение и Data Science

Показываем как запускать любые LLm на пальцах.

По всем вопросам - @haarrp

@itchannels_telegram -🔥best channels

Реестр РКН: clck.ru/3Fmqri
Download Telegram
✔️ Репозиторий, который может настроить Claude

Система оптимизации производительности для AI-агентов. От победителя хакатона Anthropic.

Готовые к продакшену агенты, хуки, скилы, правила и MCP-конфигурации, которые эволюционировали за 10 месяцев ежедневной интенсивной работы над реальными продуктами.

Работает с Claude Code, Codex, Cowork и другими системами для AI-агентов.

🟡Github: https://github.com/affaan-m/everything-claude-code
🟡Гайд по работе: https://x.com/affaanmustafa/status/2012378465664745795
🟡Гайд по безопасности: https://x.com/affaanmustafa/status/2033263813387223421

@ai_machinelearning_big_data

🎯Полезные Мл-ресурсы

#AI #ML #aiagents #Claude
Please open Telegram to view this post
VIEW IN TELEGRAM
1👍102🔥31🎉127🤔6💯5🤣4🥰1
В России запустили сервис для быстрого подключения ИИ-моделей

MWS Cloud представил MWS GPT Model Hub — сервис позволяет компаниям подключать большие языковые модели к своим продуктам за несколько минут без собственной инфраструктуры.

Платформа даёт доступ к 10 открытым LLM от ведущих разработчиков, включая DeepSeek, Google и Alibaba. Модели подключаются через OpenAI-совместимый API и разворачиваются в один клик. По сути, LLM становятся таким же базовым инструментом, как базы данных или облачные хранилища.

Сервис рассчитан на разработчиков и продуктовые команды: можно быстро тестировать гипотезы, запускать AI-функции и не тратить ресурсы на поддержку инфраструктуры.

Сервис создан на базе платформы MWS GPT.

«Мы видим, что LLM становятся базовым строительным блоком цифровых продуктов, но их внедрение часто упирается в инфраструктуру и компетенции. MWS GPT Model Hub создан для того, чтобы разработчики могли использовать большие языковые модели так же просто, как любые другие облачные сервисы», — говорит гендиректор МТС Web Services Павел Воронин.

@ai_machinelearning_big_data
👍93🥱41👏23🤣18🎉138🤓6🎃5🔥4🥰2😐2
This media is not supported in your browser
VIEW IN TELEGRAM
POV: вайбкодеры в 2 ночи 🤣

@ai_machinelearning_big_data
😁144🤣7014💯10👨‍💻9😴8❤‍🔥4🤔3😨1
💰 SpaceX готовится подать заявку на крупнейшее IPO в истории США -
компания может привлечь более $75 млрд уже в ближайшее время.


По данным источников, SpaceX может подать документы регуляторам уже на этой неделе,
официально запустив процесс выхода на биржу в июне.

Это размещение может стать крупнейшим IPO в истории США.

Советники сделки ожидают, что компания привлечёт свыше $75 млрд
(ранее прогнозировали около $50 млрд),
но финальный объём и оценка будут определены ближе к размещению.

https://www.theinformation.com/articles/spacex-aims-file-ipo-soon-week

@ai_machinelearning_big_data

#spacex
Please open Telegram to view this post
VIEW IN TELEGRAM
🎉94🔥35👍21👏5🤩54😁2🤨2❤‍🔥1🥰1🙏1
Forwarded from Bogatyrev Aleksei
Как я стал дата инженером с ЗП 800к

Без удачи и связей

5 лет назад я работал в техподдержке с графиком 2/2 и жестко бухал


💀💀💀

После очередной пьянки я понял, что надо что-то менять. Я решил стать дата инженером

Составил резюме на коленке. Чудом получил свою первую работу с зп 50к в месяц 😎

Отработал 4 месяца и захотел больше. Ну и погнал дальше: собесы, отказы, новые офферы

В прошлом году я пробил 800к рублей за один месяц

Я выгорал, увольнялся, снова загорался и опять шел на собесы

Задумался над своими ошибками...

Как можно избежать их? Снял на эту тему видео, в котором рассказал:
- мой путь из техподдержки до техлида с зп 800к
- какие ошибки я совершил и как их обойти
- как выглядит типичный день ДЕ


Это разбор реального пути: как с нуля дойти до первой работы дата инженером с хорошей зарплатой.

Без булшита по типу "вкатись в ДЕ за месяц" 😏

👉 Смотри видео в закрепе моего канала
Please open Telegram to view this post
VIEW IN TELEGRAM
🤣199🤬64🔥52👏21🥱9🗿9👍4🦄4❤‍🔥3🏆3🍓3
Media is too big
VIEW IN TELEGRAM
Первая леди встречается с первым роботом.

«Figure F.03 вошёл в историю как первый человекоподобный робот в Белом доме»


@ai_machinelearning_big_data

#ai #robots
🤔65😎22❤‍🔥17🤷14👏86👍4🔥4🌭2🎃2🤗2
This media is not supported in your browser
VIEW IN TELEGRAM
🎧 Google выпустила Lyria 3 Pro - обновлённую музыкальную модель,способную генерировать треки длиной до 3 минут.

Модель позволяет задавать интро, куплеты, припевы и бриджии создавать композиции с сложными переходами».

Доступна для всех подписчиков в Gemini.

@ai_machinelearning_big_data
👍6928🔥19🗿8😎6🥱3
Media is too big
VIEW IN TELEGRAM
✔️ Apple дистиллирует Google Gemini.

В рамках партнерства с Google, Apple получила глубокий доступ к архитектуре Gemini. Инженеры используют дистилляцию знаний, чтобы перенести логику в легковесные решения для Apple Intelligence.

Модель Apple анализирует ответы и CoT Gemini, обучаясь выполнять задачи с аналогичной точностью. Главная цель - адаптация ИИ для локальной работы на iPhone без отправки данных на серверы.

Пока Apple готовит обновление Siri к июню, серверная версия Gemini продолжит обрабатывать сложные запросы.
theinformation.com

✔️ Google установила 2029 год дедлайном для перехода на постквантовую криптографию.

Ускорение миграции продиктовано темпами развития квантового оборудования и коррекции ошибок. Появление систем, способных взломать современные стандарты шифрования, произойдет быстрее, чем ожидалось.

Особую тревогу вызывают атаки «сохрани сейчас, расшифруй потом» и грядущая уязвимость традиционных цифровых подписей. Google скорректировала модель угроз, сделав приоритетом защиту сервисов аутентификации до появления криптографически значимых квантовых компьютеров.

Google уже интегрирует постквантовые подписи на базе ML-DSA (одобренного NIST) в Android 17, дополняя механизмы, развернутые в Chrome и Google Cloud.
blog.google

✔️ Arm выпустит собственные процессоры для дата-центров.

Arm отходит от лицензирования архитектуры и начинает прямые продажи чипов. AGI CPU будет производиться у TSMC: до 136 ядер при энергопотреблении 300 Вт. Процессор спроектирован для работы с ИИ-ускорителями уровня Nvidia, он возьмет на себя координацию вычислений и обработку запросов.

Основное преимущество - энергоэффективность по сравнению с x86-решениями от Intel и AMD. Первым крупным заказчиком стал Марк Цукерберг, далее инфраструктуру развернут OpenAI, Cerebras и SK Telecom. Серверные решения от Quanta и SuperMicro уже появляются на рынке, массовые поставки ожидаются во второй половине года.
bloomberg.com

✔️ Релиз бенчмарка ARC-AGI-3.

Третья версия оценивает способности ИИ к обучению на лету в формате видеоигры: более 1000 уровней в 150 средах. Агентам предстоит исследовать незнакомый мир, понимать правила без инструкций и достигать долгосрочных целей.

Новая метрика Action Efficiency оценивает, насколько эффективно ИИ адаптирует стратегию по сравнению с человеком. Топовые модели OpenAI и Google показывают результат ниже 1%.

Вместе с релизом стартовало соревнование на Kaggle с призовым фондом 2 млн. долларов. Доступен SDK для интеграции агентов, протестировать уровни можно в браузере на сайте проекта.
arcprize.org

✔️ OpenAI внедряет визуальный поиск товаров в ChatGPT.

ChatGPT стал инструментом визуального шопинга: загрузка фото для поиска похожих вещей, сравнение цен и характеристик, корректировка выдачи через диалог.

Под капотом Agentic Commerce Protocol, позволяющий ритейлерам транслировать товарные фиды и акции в систему с поддержкой популярных e-commerce платформ. Оформление заказа и платежи остаются на стороне продавца.

Для бизнеса это прямой доступ к аудитории с высокой покупательской способностью и возможность создания приложений внутри ChatGPT. Развертывание новых функций завершится до конца недели.
openai.com

@ai_machinelearning_big_data

#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
82👨‍💻31👍7🔥7🤩7🤔4🍓2👏1
Forwarded from AI VK Hub
Рекомендательные системы — один из ключевых механизмов, на которых держатся современные продукты. Они помогают пользователям находить контент, товары и сервисы, а бизнесу — повышать вовлеченность и качество пользовательского опыта. Вместе с Владимиром Байкаловым, ведущим исследователем AI VK, разбираем главные тренды в рекомендациях и последние значимые работы.

🔗 Список статей

Масштабирование
🟣Действия говорят громче слов: последовательные преобразователи с триллионом параметров для генеративных рекомендаций
🟣Масштабирование трансформеров для рекомендательных систем до одного миллиарда параметров
🟣LLaTTE: законы масштабирования для многоэтапного моделирования последовательностей в крупномасштабных рекламных рекомендательных системах


Lifelong Recommendations
🟣TransAct V2: моделирование последовательностей действий пользователя на протяжении всей жизни в рекомендациях Pinterest
🟣TWIN V2: расширение моделирования ультра‑длинных последовательностей поведения пользователя для улучшения CTR‑предсказания в Kuaishou
🟣LONGER: повышение эффективности моделирования длинных последовательностей в промышленных рекомендательных системах
🟣Укрощение ультра-длинных последовательностей пользовательского поведения в генеративных рекомендациях на уровне сессий


Generative Retrieval
🟣Память трансформера как дифференцируемый поисковый индекс
🟣Рекомендательные системы с генеративным поиском
🟣Sparse Meets Dense: унифицированные генеративные рекомендации с каскадными разреженно-плотными представлениями


Semantic IDs
🟣Повышение стабильности эмбеддингов в рекомендательных системах с помощью Semantic ID
🟣ActionPiece: контекстная токенизация последовательностей действий для генеративных рекомендаций
🟣Обучаемая токенизация объектов для генеративных рекомендаций
🟣Semantic ID переменной длины для рекомендательных систем


End to End Рекомендации
🟣OneRec: объединение retrieval и ranking в генеративной рекомендательной модели с итеративным выравниванием предпочтений
🟣OxygenREC: генеративный фреймворк, следующий инструкциям, для рекомендаций в электронной коммерции
🟣EGA: унифицированный end-to-end генеративный фреймворк для промышленных рекламных систем


LLMxRecSys
🟣PLUM: адаптация предварительно обученных языковых моделей для генеративных рекомендаций промышленного масштаба
🟣OneRec‑Think: рассуждение в тексте для генеративной рекомендации
🟣ReaSeq: использование мировых знаний через рассуждение для последовательного моделирования


#aivk #recsys
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
1🤓35👍15👏85🥰3🤨3
This media is not supported in your browser
VIEW IN TELEGRAM
✔️ DeepMind сделала браузер-генератор сайтов на Gemini 3.1 Flash-Lite.

Концепт, который работает внутри AI Studio, пишет HTML и CSS прямо в процессе серфинга вместо загрузки готовых страниц с серверов. Внешний вид и контент формируются на основе промптов, кликов и контекста навигации.

Технология органично вписывается в концепцию автономных ИИ-агентов, которым может понадобиться быстро собрать временный дашборд или вспомогательный инструмент для текущей задачи.

До идеала еще очень далеко. Поскольку верстка и контент полностью генерируются на не лучшей версии Gemini, браузер уязвим, склонен немного галлюцинировать, искажать стили и тратит прорву токенов на инференс.


@ai_machinelearning_big_data

#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
🤔5718🔥16👨‍💻13👏9👍7👌3
🌟 Claude Code Game Studios: 48 ИИ-агентов как полноценная игровая студия.

Соло-разработчик с доступом к Claude Code теперь может развернуть целую гейм-дев студию с креативным директором, лидами отделов и профильными специалистами.

В основу геймдизайнерских подходов заложены MDA Framework, теория самодетерминации и проектирование состояния потока.

Claude Code Game Studios - шаблон для Claude Code, который организует ИИ-сессию в трёхуровневую иерархию из 48 специализированных агентов.

На вершине 3 директора (креативный, технический и продюсер), работающие на модели Opus.


Уровнем ниже 8 руководителей отделов на Sonnet: геймдизайнер, ведущий программист, арт-директор, директор по звуку, нарративный директор и другие.


Третий уровень - специалисты на Sonnet и Haiku: от геймплэй-программиста и дизайнера экономики до DevOps-инженера и специалиста по доступности.


Агенты взаимодействуют по четкому протоколу: вертикальная делегация задач сверху вниз, горизонтальные консультации между агентами одного уровня, эскалация конфликтов к общему руководителю.

Каждый агент работает строго в границах своего домена и не модифицирует чужие файлы без явного поручения.

Помимо агентов, шаблон включает 37 команд, покрывающих весь цикл разработки: планирование спринтов, ревью кода и дизайна, аудит ассетов, генерацию идей, подготовку к релизу.

Отдельная категория - командные воркфлоу, которые координируют работу нескольких агентов над конкретной фичей: боевой системой, нарративом, интерфейсом или звуком.

Параллельно работают 8 хуков, привязанных к событиям git и жизненному циклу сессии. Они срабатывают автоматически: валидируют коммиты на захардкоженные значения и корректность данных, предупреждают о пушах в защищённые ветки, подгружают контекст текущего спринта при старте и фиксируют результаты при завершении.

Ещё один слой - 11 правил, привязанных к путям в проекте. Они применяются при редактировании файлов в соответствующих директориях и задают стандарты для каждой зоны кодовой базы.

🟡Это не автопилот.

Агенты задают вопросы, предлагают несколько вариантов с плюсами и минусами, показывают черновик. Но финальное решение всегда за человеком, ничего не фиксируется без его одобрения.

🟡Шаблон работает с Godot 4, Unity и Unreal Engine 5.

Для каждого предусмотрен свой лид-агент с набором суб-специалистов: у Godot это GDScript, шейдеры и GDExtension, у Unity - DOTS/ECS, VFX и UI Toolkit, у Unreal - GAS, Blueprints и Replication.

Проект открыт к кастомизации: агентов можно добавлять и удалять, промпты редактировать, хуки - перенастраивать.


📌Лицензирование: MIT License.


🖥GitHub


@ai_machinelearning_big_data

#AI #ML #Vibecoding #Gamedev #Claude
Please open Telegram to view this post
VIEW IN TELEGRAM
61👍19🥰9🤣9😁4🥱4😐31
Media is too big
VIEW IN TELEGRAM
✔️ Google представила голосовую модель Gemini 3.1 Flash Live.

Модель превосходит 2.5 Flash Native Audio по скорости отклика и тоньше распознает акустические нюансы, темп и высоту голоса. Важным техническим улучшением стала способность эффективно фильтровать фоновый шум. Модель уже доступна через Gemini Live API в платформе Google AI Studio.

Gemini 3.1 Flash Live лучше справляется с вызовом внешних инструментов и строго следует системным инструкциям. Модель не выходит за установленные рамки при неожиданных поворотах диалога и поддерживает мультимодальное общение на 90+ языках в реальном времени.

Новинка ляжет в основу потребительских сервисов Gemini Live и Search Live. Общение с ИИ станет более плавным: сократится количество неловких пауз, а контекст беседы будет удерживаться в 2 раза дольше. Параллельно с релизом модели Google делает Search Live доступной более чем в 200 странах.
blog.google


✔️ Mistral релизнула открытую text-to-speech модель Voxtral.

Модель для синтеза речи Voxtral TTS поддерживает 9 языков (русского нет) и умеет клонировать голос по аудиосэмплу короче 5 секунд, копируя не только тембр, но и микроинтонации, акценты и естественные особенности дикции. При этом она способна на лету менять язык произношения, сохраняя оригинальные характеристики спикера.

Архитектура построена на базе LLM Ministral 3B. Создатели сделали ставку на скорость работы в реальном времени: генерация 10-секундной аудиодорожки занимает около 1,6 секунды. Веса базовой модели опубликованы на Hugging Face под некоммерческой лицензией, а протестировать Voxtral TTS можно через Mistral Studio и Le Chat.
mistral.ai


✔️ Cohere выпустила открытую ASR-модель.

Cohere Transcribe - обученная с нуля на 14 языках модель автоматического распознавания речи на 2 млрд. параметров на архитектуре Conformer, которая справляется со сложной акустикой, перекрывающимися голосами и специфическими акцентами.

Cohere заявляет рекордную точность. Transcribe возглавила рейтинг HuggingFace Open ASR Leaderboard: средний показатель WER для английского языка составил всего 5.42%. Модель обошла Whisper Large v3 от OpenAI, ElevenLabs Scribe v2 и Qwen3-ASR.

Развернуть модель можно локально, на edge-устройствах, либо воспользоваться API и платформой Cohere Model Vault. Веса доступны на Hugging Face.
cohere.com


✔️ Intel выводит на рынок видеокарты Arc Pro B70 и B65 с 32 ГБ памяти.

Новые GPU на архитектуре Battlemage созданы специально для инференса нейросетей и ресурсоемких вычислений. Старшая модель Arc Pro B70 получила 32 ядра Xe с частотой 2,8 ГГц, что дает 22,9 TFLOPS в операциях FP32.

Младшая версия, Arc Pro B65, сохраняет тот же объем видеопамяти, но использует лишь 20 ядер Xe. Обе карты оснащены памятью GDDR6 с 256-битной шиной и пропускной способностью 608 ГБ/с.

Arc Pro B70 уже поступила в продажу по цене $949, что делает ее значительно доступнее Nvidia RTX Pro 4000 ($1800). Младшая модель B65 начнет продаваться через партнерскую сеть Intel в середине апреля.
newsroom.intel.com


✔️ GitHub по умолчанию начнет использовать код пользователей Copilot для обучения ИИ.

С 24 апреля обновится политика конфиденциальности GitHub. Промпты, сгенерированные ответы, фрагменты кода и связанный с ними контекст подписчиков тарифов Free, Pro и Pro+ будут автоматически собираться для тренировки моделей. Чтобы защитить свои проекты, разработчикам придется вручную отключить передачу данных в настройках приватности.

Платформа анализирует широкий спектр данных. В датасет попадает код, комментарии и документация, архитектура репозитория, названия файлов, паттерны навигации в IDE и реакции на предложенные автодополнения.

GitHub заявляет, что собранная телеметрия может передаваться только Microsoft и ее аффилированным компаниям. Нововведение не затронет корпоративный сегмент планов Copilot Business и Enterprise.
github.blog


@ai_machinelearning_big_data

#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
1👍94👏22🤩138🔥8🥰4💯4🤣2🫡1
Если раньше внедрение RAG-сценариев упиралось в подготовку и нормализацию данных, то сейчас всё больше внимания уделяется инструментам, которые умеют работать с разноформатной информацией “из коробки”. Yandex B2B Tech развивает этот подход во встроенном инструменте File Search внутри Yandex AI Studio, постепенно превращая его в универсальный слой доступа к корпоративным знаниям.

✔️ С последним обновлением инструмент выходит за рамки классического поиска по текстам и документам: к поддержке PDF, изображений и сканов добавились видео и аудио. Это означает, что ИИ-агенты могут извлекать смысл из мультимедийных источников благодаря пайплайну распознавания речи и изображений. Параллельно появилась работа с табличными форматами — CSV и Excel, что критично для большинства бизнес-кейсов, где значимая часть данных хранится именно в таком виде.

✔️ При этом ключевая ценность File Search сохраняется: модели формируют ответы на основе загруженных файлов и внутренних баз знаний, а не только предобученных данных. В сочетании с готовой инфраструктурой — гибридным поиском, парсингом сложных форматов и возможностью масштабирования — это снижает порог входа и ускоряет запуск production-решений.

✔️ File Search можно использовать вместе с DeepSeek V3.2. Модель способна удерживать длинный контекст и делать последовательные выводы.
👍42👏13😁9🤩96🎉5🗿4🔥3🥰1👌1🥱1
🙂 Claude оказался в списке топ-контрибьюторов репозитория OpenAI и в сети это поняли неправильно.

В сети Х завирусился скриншот со страницы репозитория Рarameter-golf, на котором среди топовых контрибьюторов значился Claude. Пост набрал больше 100 тыс. просмотров. Твиттерские решили, что OpenAI пишет код на продукте конкурента.

Parameter Golf - это открытый конкурс, запущенный OpenAI 18 марта.

Задача: обучить лучшую языковую модель, которая вместе с кодом тренировки помещается в 16 МБ и обучается не дольше 10 минут на восьми GPU H100.

Качество оценивают по степени сжатия валидационного датасета FineWeb (метрика bits per byte: чем ниже, тем лучше.

Базовый показатель - 1,2244 BPB, лучший рекордный результат уже опустился до 1,0541.


В этом челлендже участник форкает репозиторий, улучшает модель и присылает пулл-реквест с кодом, логами и описанием подхода. Принятый PR вливается в основную ветку - так и набирается статистика контрибьюторов на GitHub.

Claude попал в рейтинг из-за того, что некоторые участники конкурса использовала Claude Code для подготовки решений.

Claude Code автоматически добавляет себя соавтором коммитов через заголовок «Co-authored-by» в Git. Но если посмотреть подробней, реальный вклад Claude - 2 коммита с добавлением около 4500 строк и нулем удалений.

У других контрибьюторов из верхней части списка при том же числе коммитов десятки тысяч строк: объемные логи и веса моделей.

Один из участников конкурса описал, как без опыта в ML создавал решение в тандеме Claude и Codex: Claude генерировал архитектурные гипотезы, Codex ограничивал их практическими рамками, а человек принимал финальные решения.

В качестве основной идеи агенты выбрали переиспользование слоев через FiLM conditioning и добавили хэширование триграмм, выдав весьма приличный результат в 1.1634 BPB при весе модельки всего 15.34, причем по ходу дела обнаружилось, что модный Test-Time Training адски ломает рекуррентные сетки.


Так что это история не о том, что OpenAI использует Claude. Она о том, что ИИ-ассистенты слишком быстро стали настолько обыденным инструментом разработки, что люди еще не привыкли отличать вклад машины от вклада человека.


@ai_machinelearning_big_data

#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
1🤔71👍35🤓22😁118👏7👌5❤‍🔥3🔥1