🚀 Qwen3-Omni-30B: Нативная омни-модальная модель от Alibaba
Алибаба продолжает рвать шаблоны, - впервые end-to-end обработка текста, изображений, аудио и видео.
Архитектура MoE Thinker-Talker:
- Thinker — модуль рассуждений с chain-of-thought
- Talker — генерация естественной речи в реальном времени.
Мультимодальные возможности:
119 текстовых языков
19 языков для голосового ввода (включая русский)
10 языков речевого вывода (тоже с русским)
Обработка видео до 120 секунд
Поддержка смешанного контента (аудио/видео/текст)
Эффективность:
- SOTA на 22 из 36 аудио/видео бенчмарков
- Сравнимо с Gemini 2.5 Pro в понимании речи
- Без деградации текстовых и визуальных возможностей
Qwen3-Omni-30B-A3B-Instruct — полная версия с аудио выходом
Qwen3-Omni-30B-A3B-Thinking — только рассуждения, текстовый вывод
Qwen3-Omni-30B-A3B-Captioner — специализация на детальном описании аудио
Требования к железу:
- 78-144 GB GPU память (BF16, зависит от длины видео)
- Поддержка vLLM и Transformers
- FlashAttention 2 для оптимизации
Особенность: модель понимает связь между аудио и видео — то есть соотносит то, что происходит на экране с тем, что звучит.
Apache 2.0 лицензия.
Карточка модели: huggingface.co.
#Qwen #Qwen3 #Omni #AliBaba
———
@tsingular
Алибаба продолжает рвать шаблоны, - впервые end-to-end обработка текста, изображений, аудио и видео.
Архитектура MoE Thinker-Talker:
- Thinker — модуль рассуждений с chain-of-thought
- Talker — генерация естественной речи в реальном времени.
Мультимодальные возможности:
119 текстовых языков
19 языков для голосового ввода (включая русский)
10 языков речевого вывода (тоже с русским)
Обработка видео до 120 секунд
Поддержка смешанного контента (аудио/видео/текст)
Эффективность:
- SOTA на 22 из 36 аудио/видео бенчмарков
- Сравнимо с Gemini 2.5 Pro в понимании речи
- Без деградации текстовых и визуальных возможностей
Qwen3-Omni-30B-A3B-Instruct — полная версия с аудио выходом
Qwen3-Omni-30B-A3B-Thinking — только рассуждения, текстовый вывод
Qwen3-Omni-30B-A3B-Captioner — специализация на детальном описании аудио
Требования к железу:
- 78-144 GB GPU память (BF16, зависит от длины видео)
- Поддержка vLLM и Transformers
- FlashAttention 2 для оптимизации
Особенность: модель понимает связь между аудио и видео — то есть соотносит то, что происходит на экране с тем, что звучит.
Apache 2.0 лицензия.
Карточка модели: huggingface.co.
#Qwen #Qwen3 #Omni #AliBaba
———
@tsingular
🔥12❤1
Media is too big
VIEW IN TELEGRAM
👍4👀2🔥1👾1
Media is too big
VIEW IN TELEGRAM
🔥 Qwen3-VL-235B: новый флагман vision-language моделей от Alibaba
Ни дня без новостей про Qwen
Alibaba выпустила Qwen3-VL-235B-A22B-Instruct — самую мощную мультимодальную модель в линейке.
Ключевые прорывы:
Visual Agent — модель теперь умеет управлять компьютером: распознаёт элементы интерфейса, понимает их функции, запускает инструменты. По сути, получили ИИ-ассистента, который может работать с любым GUI.
Visual Coding — генерирует код (HTML/CSS/JS) и диаграммы Draw.io прямо из скриншотов и видео. Показал макет — получил рабочую вёрстку.
Контекст 256K-1M токенов — может анализировать целые книги или многочасовые видео с точностью до секунды. Плюс полнофункциональный поиск по временным меткам.
Техническая начинка:
Interleaved-MRoPE — позиционные embeddings для видео по времени, ширине и высоте одновременно
Т.е. может по записи спортивного матча точно сказать на какой секунде мяч пересёк линию ворот.
DeepStack — слияние multi-level ViT features для детального понимания изображений
OCR для 32 языков (было 19) с устойчивостью к размытию и наклону
Text-Timestamp Alignment — точная привязка событий к временным меткам
Результаты бенчмарков:
Qwen3-VL лидирует в большинстве визуальных задач, включая OCR, spatial reasoning и video understanding. В текстовых задачах успешно конкурирует с Claude-4 Opus.
Модель доступна через HuggingFace Transformers или на сайте qwen.
Требует достаточно много ресурсов (235B параметров).
Сожрёт M3 Ultra 512Gb целиком.
Так что ждём пока её Unsloth нарежет хотя бы до 128гигов.
а пока пробуем тут: chat.qwen.ai
слева сверху выбираем Qwen3-VL
Или качаем на HuggingFace
GitHub
#Qwen3VL #Qwen #Alibaba #Китай
———
@tsingular
Ни дня без новостей про Qwen
Alibaba выпустила Qwen3-VL-235B-A22B-Instruct — самую мощную мультимодальную модель в линейке.
Ключевые прорывы:
Visual Agent — модель теперь умеет управлять компьютером: распознаёт элементы интерфейса, понимает их функции, запускает инструменты. По сути, получили ИИ-ассистента, который может работать с любым GUI.
Visual Coding — генерирует код (HTML/CSS/JS) и диаграммы Draw.io прямо из скриншотов и видео. Показал макет — получил рабочую вёрстку.
Контекст 256K-1M токенов — может анализировать целые книги или многочасовые видео с точностью до секунды. Плюс полнофункциональный поиск по временным меткам.
Техническая начинка:
Interleaved-MRoPE — позиционные embeddings для видео по времени, ширине и высоте одновременно
Т.е. может по записи спортивного матча точно сказать на какой секунде мяч пересёк линию ворот.
DeepStack — слияние multi-level ViT features для детального понимания изображений
OCR для 32 языков (было 19) с устойчивостью к размытию и наклону
Text-Timestamp Alignment — точная привязка событий к временным меткам
Результаты бенчмарков:
Qwen3-VL лидирует в большинстве визуальных задач, включая OCR, spatial reasoning и video understanding. В текстовых задачах успешно конкурирует с Claude-4 Opus.
Модель доступна через HuggingFace Transformers или на сайте qwen.
Требует достаточно много ресурсов (235B параметров).
Сожрёт M3 Ultra 512Gb целиком.
Так что ждём пока её Unsloth нарежет хотя бы до 128гигов.
а пока пробуем тут: chat.qwen.ai
слева сверху выбираем Qwen3-VL
Или качаем на HuggingFace
GitHub
#Qwen3VL #Qwen #Alibaba #Китай
———
@tsingular
🔥10👍2✍1⚡1
Yandex запустил AI WAF на базе SolidWall WAF и SmartWeb Security
https://yandex.cloud/ru/services/smartwebsecurity
Эфир смотрим тут
https://scale.yandex.cloud/?utm_source=notify_sms&utm_campaign=event_mixed_15
#Яндекс #MLWAF #cybersecurity
———
@tsingular
https://yandex.cloud/ru/services/smartwebsecurity
Эфир смотрим тут
https://scale.yandex.cloud/?utm_source=notify_sms&utm_campaign=event_mixed_15
#Яндекс #MLWAF #cybersecurity
———
@tsingular
✍4🔥2⚡1🆒1
Яндекс запустил платформу для создания агентов на базе AI studio.
end-to-end среда с выбором моделей, ролей-промптов, поиском по файлам (локально или из хранилища знаний), очень похожая внешне на OpenwebUI, но в облаке.
Можно подключить поиск в интернете, создавать или подключать MCP сервера.
Есть свой MCP-hub ( уже завели Контур и AmoCRM)
Есть no-code среда workflows для создания готовых процессов для работы агентов в сложных сценариях.
#Яндекс #агенты #MCP
——-
@tsingular
end-to-end среда с выбором моделей, ролей-промптов, поиском по файлам (локально или из хранилища знаний), очень похожая внешне на OpenwebUI, но в облаке.
Можно подключить поиск в интернете, создавать или подключать MCP сервера.
Есть свой MCP-hub ( уже завели Контур и AmoCRM)
Есть no-code среда workflows для создания готовых процессов для работы агентов в сложных сценариях.
#Яндекс #агенты #MCP
——-
@tsingular
🔥8✍2👍1
Forwarded from Битрикс24 для бизнеса
MCP-сервер Битрикс24 скоро станет публичным 🔥 🔥 🔥
🗣 Сценарии, которые будут доступны пользователям:
✔ Работа с Битрикс24 из сторонних инструментов.
Например, если необходимо получить данные из сервиса, внести событие в календарь или загрузить файлы. Решение позволит нетехничесому персоналу самостоятельно управлять пользовательскими данными в «Битрикс24».
✔ Работа со сторонними сервисами в Битрикс24. Например, получить доступ к файлам Google, почтовому ящику, таск-трекеру или другим инструментам, чтобы обогатить информацию внутри Битрикс24.
✔ Работа внутри Битрикс24 через MCP-сервер. Решение позволит с помощью встроенного ИИ-ассистента «Марты AI» в формате чата работать с инструментами, автоматизировать процессы, составлять отчеты, анализировать нагрузку отделов внутри Битрикс24.
________
🚀 Кстати, создали новый канал, где будем рассказывать все-все про MCP, зачем он нужен и как будет работать в Битрикс24! Подписывайтесь ⚡️
Мы развернем МСP-сервер (Model Context Protocol), который будет маршрутизировать работу ИИ-помощников. Это позволит ИИ-агентам подключаться к внешним системам и ресурсам.
✔ Работа с Битрикс24 из сторонних инструментов.
Например, если необходимо получить данные из сервиса, внести событие в календарь или загрузить файлы. Решение позволит нетехничесому персоналу самостоятельно управлять пользовательскими данными в «Битрикс24».
✔ Работа со сторонними сервисами в Битрикс24. Например, получить доступ к файлам Google, почтовому ящику, таск-трекеру или другим инструментам, чтобы обогатить информацию внутри Битрикс24.
✔ Работа внутри Битрикс24 через MCP-сервер. Решение позволит с помощью встроенного ИИ-ассистента «Марты AI» в формате чата работать с инструментами, автоматизировать процессы, составлять отчеты, анализировать нагрузку отделов внутри Битрикс24.
________
Please open Telegram to view this post
VIEW IN TELEGRAM
✍10⚡4
OpenAI и SAP запускают суверенный ИИ для Германии
SAP, OpenAI и Microsoft создают суверенную версию ChatGPT для немецкого госсектора.
Инфраструктура развернется на базе Delos Cloud от SAP с 4000 GPU к 2026 году.
Все данные останутся в Германии под местным законодательством - полное соответствие GDPR и суверенитет.
SAP инвестирует €20 млрд в цифровую независимость Германии.
4000 GPU, - выглядит не серьёзно при том, что Альтман уже начал обсуждать 250 гигават на ИИ в рамках Старгейта, - а это сотни миллионов GPU получается по грубым прикидкам.
Ну и суверенный ИИ на американской технологии - звучит как "независимая зависимость".
#SAP #OpenAI #Германия
———
@tsingular
SAP, OpenAI и Microsoft создают суверенную версию ChatGPT для немецкого госсектора.
Инфраструктура развернется на базе Delos Cloud от SAP с 4000 GPU к 2026 году.
Все данные останутся в Германии под местным законодательством - полное соответствие GDPR и суверенитет.
SAP инвестирует €20 млрд в цифровую независимость Германии.
4000 GPU, - выглядит не серьёзно при том, что Альтман уже начал обсуждать 250 гигават на ИИ в рамках Старгейта, - а это сотни миллионов GPU получается по грубым прикидкам.
Ну и суверенный ИИ на американской технологии - звучит как "независимая зависимость".
#SAP #OpenAI #Германия
———
@tsingular
🔥10❤🔥2❤1⚡1
ИИ модели используют материалы из отозванных научных статей
Исследователи из MIT обнаружили, что большие языковые модели активно цитируют и воспроизводят содержимое научных публикаций, которые позже были отозваны из-за ошибок или мошенничества.
Проблема серьёзная: 67,4% отзывов связаны с научным мошенничеством, а в 2023 году отозвали свыше 10 000 работ.
Модели не различают достоверные данные от сомнительных. Они просто заучивают всё подряд из тренировочных датасетов.
Крупные издательства вроде Taylor & Francis и Wiley заключают многомиллионные соглашения на использование контента для обучения ИИ, но механизмов отслеживания отозванных материалов нет.
Технически отфильтровать такой контент крайне сложно - нужно постоянно обновлять чёрные списки и переобучать модели.
Получается ИИ не только галлюцинирует, но ещё и цитирует лженауку.
Хавает что попало, а люди верят и пишут новые научные статьи. :)
#Retractions #Training #Data
------
@tsingular
Исследователи из MIT обнаружили, что большие языковые модели активно цитируют и воспроизводят содержимое научных публикаций, которые позже были отозваны из-за ошибок или мошенничества.
Проблема серьёзная: 67,4% отзывов связаны с научным мошенничеством, а в 2023 году отозвали свыше 10 000 работ.
Модели не различают достоверные данные от сомнительных. Они просто заучивают всё подряд из тренировочных датасетов.
Крупные издательства вроде Taylor & Francis и Wiley заключают многомиллионные соглашения на использование контента для обучения ИИ, но механизмов отслеживания отозванных материалов нет.
Технически отфильтровать такой контент крайне сложно - нужно постоянно обновлять чёрные списки и переобучать модели.
Получается ИИ не только галлюцинирует, но ещё и цитирует лженауку.
Хавает что попало, а люди верят и пишут новые научные статьи. :)
#Retractions #Training #Data
------
@tsingular
✍7🤔3⚡2👾1
This media is not supported in your browser
VIEW IN TELEGRAM
Skild AI показали адаптивную систему управления роботами.
Роботы проходят тесты на адаптацию к повреждениям: теряют ноги, колени, но продолжают двигаться.
Skild таким образом создали универсальный адаптивный ИИ — один «мозг» управляет разными роботами без предварительного обучения.
Роботы адаптируются к новым конечностям (например, деревянным) и внешним силам (нагрузка, толчки).
Работают с нештатными ситуациями — например, застрявшими колёсами или сломанными суставами.
ИИ при этом демонстрирует эмерджентное поведение — самообучается в реальном времени, не зная заранее, как устроен робот.
Тесты подчеркивают устойчивость и гибкость системы — роботы восстанавливают функциональность даже после серьезных повреждений.
#SkildAI #роботы
———
@tsingular
Роботы проходят тесты на адаптацию к повреждениям: теряют ноги, колени, но продолжают двигаться.
Skild таким образом создали универсальный адаптивный ИИ — один «мозг» управляет разными роботами без предварительного обучения.
Роботы адаптируются к новым конечностям (например, деревянным) и внешним силам (нагрузка, толчки).
Работают с нештатными ситуациями — например, застрявшими колёсами или сломанными суставами.
ИИ при этом демонстрирует эмерджентное поведение — самообучается в реальном времени, не зная заранее, как устроен робот.
Тесты подчеркивают устойчивость и гибкость системы — роботы восстанавливают функциональность даже после серьезных повреждений.
#SkildAI #роботы
———
@tsingular
👍8🔥7👾4⚡2❤1😢1
🚀 Qwen3-Max: эффект масштаба
Alibaba выпустили Qwen3-Max — самую крупную модель в их линейке, которая уже заняла 3-е место в Text Arena, обогнав GPT-5-Chat.
Технические характеристики:
- 1+ триллион параметров с предобучением на 36 триллионах токенов
- MoE архитектура без единого скачка loss'а во время обучения — стабильность уровня "мечта ML-инженера"
- 30% прирост MFU по сравнению с предыдущей версией благодаря PAI-FlashMoE
- Контекст 1М токенов с ChunkFlow стратегией
Результаты:
- SWE-Bench Verified: 69.6 баллов — решение реальных багов на уровне SOTA
- Tau2-Bench: 74.8 баллов — превзошли Claude Opus 4 и DeepSeek V3.1 в агентских задачах
- Qwen3-Max-Thinking — в разработке:
но уже показывает 100% на AIME 25 и HMMT — математических бенчмарках, где обычно модели "ломаются".
Секрет в параллельных вычислениях и интеграции с кодовым интерпретатором. (читеры :) )
Особенно интересно наблюдать, как китайские команды методично отстреливают западные модели по всем фронтам.
И графика с Wan 2.5 и opensource, Qwen3-Omni, Qwen3-VL, теперь вот Max.
Пробуем тут: https://chat.qwen.ai/
#Qwen #Alibaba #Qwen3 #Китай
———
@tsingular
Alibaba выпустили Qwen3-Max — самую крупную модель в их линейке, которая уже заняла 3-е место в Text Arena, обогнав GPT-5-Chat.
Технические характеристики:
- 1+ триллион параметров с предобучением на 36 триллионах токенов
- MoE архитектура без единого скачка loss'а во время обучения — стабильность уровня "мечта ML-инженера"
- 30% прирост MFU по сравнению с предыдущей версией благодаря PAI-FlashMoE
- Контекст 1М токенов с ChunkFlow стратегией
Результаты:
- SWE-Bench Verified: 69.6 баллов — решение реальных багов на уровне SOTA
- Tau2-Bench: 74.8 баллов — превзошли Claude Opus 4 и DeepSeek V3.1 в агентских задачах
- Qwen3-Max-Thinking — в разработке:
но уже показывает 100% на AIME 25 и HMMT — математических бенчмарках, где обычно модели "ломаются".
Секрет в параллельных вычислениях и интеграции с кодовым интерпретатором. (читеры :) )
Особенно интересно наблюдать, как китайские команды методично отстреливают западные модели по всем фронтам.
И графика с Wan 2.5 и opensource, Qwen3-Omni, Qwen3-VL, теперь вот Max.
Пробуем тут: https://chat.qwen.ai/
#Qwen #Alibaba #Qwen3 #Китай
———
@tsingular
🔥8👍2❤1
TrendMicro: обзор уязвимостей LLM моделей
Trend Micro выпустила обзор основных уязвимостей больших языковых моделей.
Исследователи выделили три ключевые поверхности атак: прямое внедрение промптов, бэкдоры через RAG и эксплуатацию доверия между агентами.
Особенно уязвимы мультиагентные системы - они создают новые векторы атак в дополнение к традиционным уязвимостям.
Недавно обнаружили CVE-2024-7475 с оценкой 9.1 по шкале CVSS в проекте LocalAI, позволяющую выполнять произвольный код.
Атаки на уровне GPU могут снизить точность модели с 80% до 0.1% - "катастрофическое повреждение мозга".
Изучаем внимательно.
#TrendMicro #cybersecurity #LocalAI
———
@tsingular
Trend Micro выпустила обзор основных уязвимостей больших языковых моделей.
Исследователи выделили три ключевые поверхности атак: прямое внедрение промптов, бэкдоры через RAG и эксплуатацию доверия между агентами.
Особенно уязвимы мультиагентные системы - они создают новые векторы атак в дополнение к традиционным уязвимостям.
Недавно обнаружили CVE-2024-7475 с оценкой 9.1 по шкале CVSS в проекте LocalAI, позволяющую выполнять произвольный код.
Атаки на уровне GPU могут снизить точность модели с 80% до 0.1% - "катастрофическое повреждение мозга".
Изучаем внимательно.
#TrendMicro #cybersecurity #LocalAI
———
@tsingular
✍6❤3⚡1
Microsoft добавляет Anthropic Claude в Copilot
Майкрософт снижает зависимость от OpenAI и интегрирует модели Claude от Anthropic в свой Copilot.
Теперь в одном Copilot можно получить ответы от разных ИИ. OpenAI наверно не в восторге от такого «партнёрства» :)
По опыту Соннет отвечает лучше и, видимо, пользователи "продавили" добавление, по-сути, конкурентной модели.
#Microsoft #Copilot #Anthropic
———
@tsingular
Майкрософт снижает зависимость от OpenAI и интегрирует модели Claude от Anthropic в свой Copilot.
Теперь в одном Copilot можно получить ответы от разных ИИ. OpenAI наверно не в восторге от такого «партнёрства» :)
По опыту Соннет отвечает лучше и, видимо, пользователи "продавили" добавление, по-сути, конкурентной модели.
#Microsoft #Copilot #Anthropic
———
@tsingular
⚡5👍2✍1
This media is not supported in your browser
VIEW IN TELEGRAM
ShinkaEvolve от Sakana AI — прорыв в эволюционной оптимизации алгоритмов
Японская Sakana AI научила языковые модели проводить эволюцию алгоритмов на порядки быстрее традиционных методов.
Существующие решения типа AlphaEvolve требуют тысячи итераций для поиска решений.
ShinkaEvolve справляется за 150 попыток.
Система автоматически мутирует код, оценивает производительность и отбирает лучшие варианты.
Архитектурные инновации:
- Балансировка exploration/exploitation — умное сэмплирование "родителей" программ
- Novelty-Based Rejection Sampling — отбраковка минорных вариаций через LLM-судью новизны
- Adaptive LLM Prioritization — bandit-стратегия динамического выбора оптимальной модели из ансамбля
- Open source (Apache 2.0)
- Есть WebUI для визуализации процесса эволюции
- GitHub: github.com/SakanaAI/ShinkaEvolve
- Работает с любыми LLM-провайдерами
Когда компьют станет избыточным, - можно будет подключить к каждой модели как инструмент размышлений.
Там где сейчас REPL, например.
#ShinkaEvolve #Sakana
———
@tsingular
Японская Sakana AI научила языковые модели проводить эволюцию алгоритмов на порядки быстрее традиционных методов.
Существующие решения типа AlphaEvolve требуют тысячи итераций для поиска решений.
ShinkaEvolve справляется за 150 попыток.
Система автоматически мутирует код, оценивает производительность и отбирает лучшие варианты.
Архитектурные инновации:
- Балансировка exploration/exploitation — умное сэмплирование "родителей" программ
- Novelty-Based Rejection Sampling — отбраковка минорных вариаций через LLM-судью новизны
- Adaptive LLM Prioritization — bandit-стратегия динамического выбора оптимальной модели из ансамбля
- Open source (Apache 2.0)
- Есть WebUI для визуализации процесса эволюции
- GitHub: github.com/SakanaAI/ShinkaEvolve
- Работает с любыми LLM-провайдерами
Когда компьют станет избыточным, - можно будет подключить к каждой модели как инструмент размышлений.
Там где сейчас REPL, например.
#ShinkaEvolve #Sakana
———
@tsingular
🔥7⚡1👍1
🔧 Google выпустил детальный технический гайд по созданию AI агентов
Полноценное техническое руководство от Google Cloud для стартапов — не маркетинговая брошюра, но практический мануал с архитектурными решениями, кодом и production-ready подходами.
Ключевые пункты:
- Agent Development Kit (ADK) — open-source фреймворк с поддержкой ReAct паттерна
- AgentOps методология — от прототипа до production с автоматизированной оценкой качества
- Model Context Protocol (MCP) — стандарт для подключения внешних источников данных
- Agent2Agent (A2A) — протокол межагентного взаимодействия
Практические архитектурные решения:
- Многослойная система памяти (долгосрочная, рабочая, транзакционная)
- Траекторный анализ для отладки цепочек рассуждений агента
Grounding через RAG → GraphRAG → Agentic RAG
- Контейнеризация через Docker для любых облачных платформ
Что особенно ценно:
Руководство построено на универсальных принципах архитектуры агентов.
Даже если вы не используете Google Cloud — концепции применимы для любых LLM-фреймворков (LangChain, CrewAI, AutoGen).
Разделы про оценку качества агентов и производственную отладку особенно полезны — область, где пока мало экспертизы на рынке.
Бонус: Agent Starter Pack — готовые Terraform-шаблоны для CI/CD, мониторинга и деплоя. Можно адаптировать под любую инфраструктуру.
В эпоху, когда каждый строит агентов на коленке — появился структурированный подход от команды, которая имеет опыт в построении масштабных ИИ архитектур планетарного масштаба.
Файл в комментарии. Изучаем (60 страниц).
#агенты #архитектура #Google #обучение
———
@tsingular
Полноценное техническое руководство от Google Cloud для стартапов — не маркетинговая брошюра, но практический мануал с архитектурными решениями, кодом и production-ready подходами.
Ключевые пункты:
- Agent Development Kit (ADK) — open-source фреймворк с поддержкой ReAct паттерна
- AgentOps методология — от прототипа до production с автоматизированной оценкой качества
- Model Context Protocol (MCP) — стандарт для подключения внешних источников данных
- Agent2Agent (A2A) — протокол межагентного взаимодействия
Практические архитектурные решения:
- Многослойная система памяти (долгосрочная, рабочая, транзакционная)
- Траекторный анализ для отладки цепочек рассуждений агента
Grounding через RAG → GraphRAG → Agentic RAG
- Контейнеризация через Docker для любых облачных платформ
Что особенно ценно:
Руководство построено на универсальных принципах архитектуры агентов.
Даже если вы не используете Google Cloud — концепции применимы для любых LLM-фреймворков (LangChain, CrewAI, AutoGen).
Разделы про оценку качества агентов и производственную отладку особенно полезны — область, где пока мало экспертизы на рынке.
Бонус: Agent Starter Pack — готовые Terraform-шаблоны для CI/CD, мониторинга и деплоя. Можно адаптировать под любую инфраструктуру.
В эпоху, когда каждый строит агентов на коленке — появился структурированный подход от команды, которая имеет опыт в построении масштабных ИИ архитектур планетарного масштаба.
Файл в комментарии. Изучаем (60 страниц).
#агенты #архитектура #Google #обучение
———
@tsingular
🔥12✍3👍3⚡1
This media is not supported in your browser
VIEW IN TELEGRAM
Suno v5, дамы и господа.
В принципе тему с творчеством можно закрывать.
ИИ перепоёт всех.
Это с 1 запроса.
Просто промпт - irish Acapello vocal
ничего больше, ну, кроме готового текста.
#Suno #музыка
———
@tsingular
В принципе тему с творчеством можно закрывать.
ИИ перепоёт всех.
Это с 1 запроса.
Просто промпт - irish Acapello vocal
ничего больше, ну, кроме готового текста.
#Suno #музыка
———
@tsingular
🔥35👀12⚡3❤1👍1
This media is not supported in your browser
VIEW IN TELEGRAM
🔥34🤣10⚡4👀2❤1🤨1👻1
Forwarded from эйай ньюз
Media is too big
VIEW IN TELEGRAM
ChatGPT Pulse
Теперь ChatGPT может проактивно ресёрчить топики которые считает важными и выдавать репорт каждое утро. Темы выбираются на основе недавних чатов, памяти, подключенных приложений и пожеланий пользователей. Уже доступно подписчикам Pro уровня в новой версии мобильного приложения.
@ai_newz
Теперь ChatGPT может проактивно ресёрчить топики которые считает важными и выдавать репорт каждое утро. Темы выбираются на основе недавних чатов, памяти, подключенных приложений и пожеланий пользователей. Уже доступно подписчикам Pro уровня в новой версии мобильного приложения.
@ai_newz
🔥8👍3