Media is too big
VIEW IN TELEGRAM
Google DeepMind выпустила Gemini Robotics On-Device - ИИ для роботов без интернета
Новая модель работает локально на роботе без подключения к сети, решая проблемы задержек и надежности.
Модель показывает отличные результаты в сложных задачах: расстегивание сумок, складывание одежды, следование голосовым командам.
Доступен SDK для разработчиков с возможностью дообучения всего на 50-100 демонстрациях. Модель адаптирована для роботов ALOHA, Franka FR3 и гуманоида Apollo.
Первая VLA-модель от Google, доступная для файн-тюнинга. Доступ через программу доверенных тестировщиков.
#GeminiRobotics #OnDeviceAI #RoboticsVLA
------
@tsingular
Новая модель работает локально на роботе без подключения к сети, решая проблемы задержек и надежности.
Модель показывает отличные результаты в сложных задачах: расстегивание сумок, складывание одежды, следование голосовым командам.
Доступен SDK для разработчиков с возможностью дообучения всего на 50-100 демонстрациях. Модель адаптирована для роботов ALOHA, Franka FR3 и гуманоида Apollo.
Первая VLA-модель от Google, доступная для файн-тюнинга. Доступ через программу доверенных тестировщиков.
#GeminiRobotics #OnDeviceAI #RoboticsVLA
------
@tsingular
🔥5⚡2👍2
Сегодня на GigaConf рассказывал как вскипятить воду создать GigaChat ИИ агента на n8n для управления календарем на Яндексе.
Сама конференция - огонь.
4 параллельных интереснейших трека, - все записи можно посмотреть на сайте конференции https://gigaconf.ru/program
Нужно сначала чуть промотать вниз, тогда сверху появится меню с кнопкой play.
Организаторам огромное спасибо за приглашение, аудитории за внимание и интересные вопросы после доклада :)
Как и обещал, - ссылка на презентацию (продублирую в комментарии тоже).
Делитесь с друзьями. Спрашивайте если что не понятно.
#gigaconf #n8n #доклады
———
@tsingular
Сама конференция - огонь.
4 параллельных интереснейших трека, - все записи можно посмотреть на сайте конференции https://gigaconf.ru/program
Нужно сначала чуть промотать вниз, тогда сверху появится меню с кнопкой play.
Организаторам огромное спасибо за приглашение, аудитории за внимание и интересные вопросы после доклада :)
Как и обещал, - ссылка на презентацию (продублирую в комментарии тоже).
Делитесь с друзьями. Спрашивайте если что не понятно.
#gigaconf #n8n #доклады
———
@tsingular
👍19🔥11⚡9✍2❤1
Forwarded from эйай ньюз
This media is not supported in your browser
VIEW IN TELEGRAM
Теперь Claude Artifacts могут вызывать API Claude
Это делает их заметно полезнее — теперь можно создавать полноценные интерактивные инструменты прямо в чате, а в дальнейшем сюда явно напрашивается интеграция MCP. Сделали и отдельную страницу со всем артефактами созданными юзером, плюс парой десятков примеров, которые можно ремиксить. Апдейт уже доступен всем не-энтерпрайз юзерам, даже бесплатным. Лимиты у использования Claude в чате и в артефактах одни и те же.
claude.ai/artifacts
@ai_newz
Это делает их заметно полезнее — теперь можно создавать полноценные интерактивные инструменты прямо в чате, а в дальнейшем сюда явно напрашивается интеграция MCP. Сделали и отдельную страницу со всем артефактами созданными юзером, плюс парой десятков примеров, которые можно ремиксить. Апдейт уже доступен всем не-энтерпрайз юзерам, даже бесплатным. Лимиты у использования Claude в чате и в артефактах одни и те же.
claude.ai/artifacts
@ai_newz
👍3❤1
Мои фанаты часто спрашивают, - "С чего ты взял, что мы твои фанаты?"
Разбирали вопросы после доклада.
#gigaconf #юмор
———
@tsingular
Разбирали вопросы после доклада.
#gigaconf #юмор
———
@tsingular
😁50👍13🔥5
Google DeepMind представила AlphaGenome — ИИ для понимания ДНК
После AlphaFold для белков теперь появился AlphaGenome для генома. ИИ предсказывает, как изменения в ДНК влияют на активность генов.
Модель может заменить часть лабораторных экспериментов компьютерными расчетами. Особенно полезна для анализа редких мутаций при раке и генетических заболеваниях.
DeepMind планирует сделать систему бесплатной для исследователей. Для коммерческого использования изучают варианты монетизации.
ИИ обучен на данных научных проектов и использует трансформерную архитектуру. Не предназначен для персональных геномных предсказаний вроде 23andMe.
#AlphaGenome #DeepMind #GenomicsAI
------
@tsingular
После AlphaFold для белков теперь появился AlphaGenome для генома. ИИ предсказывает, как изменения в ДНК влияют на активность генов.
Модель может заменить часть лабораторных экспериментов компьютерными расчетами. Особенно полезна для анализа редких мутаций при раке и генетических заболеваниях.
DeepMind планирует сделать систему бесплатной для исследователей. Для коммерческого использования изучают варианты монетизации.
ИИ обучен на данных научных проектов и использует трансформерную архитектуру. Не предназначен для персональных геномных предсказаний вроде 23andMe.
#AlphaGenome #DeepMind #GenomicsAI
------
@tsingular
🔥8⚡3👍1
Китай готовит более 100 прорывов уровня DeepSeek
Бывший зампред Народного банка Китая Чжу Минь заявил на всемирном экономическом форуме: в ближайшие 18 месяцев Китай выпустит более 100 продуктов уровня DeepSeek.
По его словам, новые ИИ-решения «кардинально изменят природу и технологическую основу всей китайской экономики».
Что интересно, одновременно с этой новостью проскользнула другая версия или интерпретация, что DeepSeek планирует разработку моделей для здравоохранения, сельского хозяйства и финансов и всего их будет порядка 100 штук, - это уже со слов CEO Li Jian.
И складывается ощущение, что компания готовит 100 частных моделей, как, собственно, у нас тоже делают лидеры рынка, - дообучают модели под частные задачи, а это попало в доклад на WEF как - "ждем 100 продуктов уровня Дипсик"
А потом предъявят, - ну где же ваши 100 Дипсиков, - всё понятно, - ИИ зима наступила, раз нет.
#DeepSeek #Китай
———
@tsingular
Бывший зампред Народного банка Китая Чжу Минь заявил на всемирном экономическом форуме: в ближайшие 18 месяцев Китай выпустит более 100 продуктов уровня DeepSeek.
По его словам, новые ИИ-решения «кардинально изменят природу и технологическую основу всей китайской экономики».
Что интересно, одновременно с этой новостью проскользнула другая версия или интерпретация, что DeepSeek планирует разработку моделей для здравоохранения, сельского хозяйства и финансов и всего их будет порядка 100 штук, - это уже со слов CEO Li Jian.
И складывается ощущение, что компания готовит 100 частных моделей, как, собственно, у нас тоже делают лидеры рынка, - дообучают модели под частные задачи, а это попало в доклад на WEF как - "ждем 100 продуктов уровня Дипсик"
А потом предъявят, - ну где же ваши 100 Дипсиков, - всё понятно, - ИИ зима наступила, раз нет.
#DeepSeek #Китай
———
@tsingular
✍8❤2🤨2
Forwarded from Анализ данных (Data analysis)
This media is not supported in your browser
VIEW IN TELEGRAM
🔥 Fireplexity — открытый аналог Perplexity
Простой движок вопросов и ответов на базе ИИ.
Работает через два основных эндпоинта:
•
•
Ответы ИИ формируются на основе найденной информации и включают ссылки на источники.
Можно использовать как готовый сервис или собрать свою версию — код открыт.
Подходит для интеграции в чат-ботов, ассистентов и внутренних инструментов.
📌 Github
@data_analysis_ml
Простой движок вопросов и ответов на базе ИИ.
Работает через два основных эндпоинта:
•
/search — выполняет поиск по интернету •
/scrape — извлекает текст со страницОтветы ИИ формируются на основе найденной информации и включают ссылки на источники.
Можно использовать как готовый сервис или собрать свою версию — код открыт.
Подходит для интеграции в чат-ботов, ассистентов и внутренних инструментов.
git clone https://github.com/mendableai/fireplexity.git
cd fireplexity
npm install📌 Github
@data_analysis_ml
👍9⚡3❤1🔥1
This media is not supported in your browser
VIEW IN TELEGRAM
🔥32👀10🤯8⚡5❤2😁2👍1😢1
Media is too big
VIEW IN TELEGRAM
🚀 HeyGen представили Video Agent — "Creative Operating System" для видеопроизводства
Новая платформа автоматизирует весь цикл производства видео,- принцип "замесить и порубить" наконец-то выстрелит.
Как работает:
• Анализирует входные данные (текст, документы, фрагменты роликов, картинки)
• Автоматически находит сюжетную линию и пишет сценарий
• Подбирает кадры или генерирует видеоконтент
• Проводит кастинг виртуальных актёров
• Полный монтаж: темп, движение, субтитры
Применение:
Реклама, TikTok-контент, короткометражки, product demo — любые видеоформаты от идеи до публикации.
По сути, HeyGen полностью берет на себя весь производственный процесс - просто загрузите в него все, что относится к ролику и дальшепечка Heygen сделает все сам.
Студиям и креативным агентствам придется пересмотреть бизнес-модели.📹
А пока можно только записаться в очередь
#HeyGen
———
@tsingular
Новая платформа автоматизирует весь цикл производства видео,- принцип "замесить и порубить" наконец-то выстрелит.
Как работает:
• Анализирует входные данные (текст, документы, фрагменты роликов, картинки)
• Автоматически находит сюжетную линию и пишет сценарий
• Подбирает кадры или генерирует видеоконтент
• Проводит кастинг виртуальных актёров
• Полный монтаж: темп, движение, субтитры
Применение:
Реклама, TikTok-контент, короткометражки, product demo — любые видеоформаты от идеи до публикации.
По сути, HeyGen полностью берет на себя весь производственный процесс - просто загрузите в него все, что относится к ролику и дальше
Студиям и креативным агентствам придется пересмотреть бизнес-модели.
А пока можно только записаться в очередь
#HeyGen
———
@tsingular
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥5⚡2👍2
Forwarded from Machinelearning
Венчурный фонд Innovation Endeavors, основанный бывшим CEO Google Эриком Шмидтом, выпустил 126-страничный обзор о состоянии и тенденциях фундаментальных ИИ-моделей в 2025 году.
Каждый восьмой работник на планете использует ИИ-инструменты хотя бы раз в месяц, а 90 % прироста аудитории произошло за последние полгода. Многие «ИИ-приложения» уже приносят индустрии миллиарды долларов в год, охватывая инженерию, дизайн, бухгалтерию, юриспруденцию и другие сферы.
Современные языковые модели превосходят врачей по целому ряду диагностических задач и решают олимпиадную геометрию лучше, чем 99 % людей.
Самое неожиданное: если дать небольшой модели время подумать, то она может обойти гораздо более крупную – эксперименты показали, что 3B-модель с reasoning-механизмом обойдет 70B-модель.
Производительность, интеллект и окна контекста увеличиваются более чем в 10× каждый год. Например, окна контекста выросли примерно с 8 тысяч до миллиона токенов, а стоимость генерации одного токена на крупных моделях упала почти в 1000 раз за пару лет. Средняя «длительность» задачи, которую модель может завершить сама, удваивается примерно каждые 7 месяцев.
Модели рассуждения, обученные через CoT, дают новый путь к масштабированию и требуют активного посттренинга (RL с reward-моделями). Возможно, скоро именно дообучение станет важнее предобучения.
Крупнейшие игроки генерируют сотни миллионов выручки, но обучение топ-моделей дороже: LLaMA 4 ≳ $300 млн, GPT-4 ≈ $100 млн, а совокупные расходы OpenAI на обучение и данные достигают ~$3 млрд в год. Новая модель устаревает за три недели — конкуренция так высока, что open-source почти сравнялся с закрытыми платформами.
Выяснилось, что функции «узких» специалистов часто уходят к универсалам с ИИ-ассистентам, а профессии уровня "middle management" вымирают.
Model Context Protocol соединяет модели с почтой, дизайном, чатами и другими сервисами, а «клиентом» всё чаще выступает другой ИИ: крупные CRM и базы данных само-настраиваются через агентов.
В ИИ-облаках важнее продавать «сырые» GPU-часы, чем комплексное ПО; допвремя на GPU обычно выгоднее оптимизаций. NVIDIA остаётся безусловным лидером: отчёт Q1 зафиксировал 10× генерации токенов на инференсе за год. Появилась волна стартапов с трансформер-чипами — теперь переписывать ИИ-ПО под новое железо оправдано: вычислительные затраты многократно превышают зарплаты инженеров.
Доля венчура выросла с 10% в 2024 до 50+% в 2025. Компании вроде Anthropic показывают $2 млрд годового дохода с двукратным ростом, но их оценивают в 30 годовых выручек, что вызывает опасения перегрева. Некоторые стартапы привлекают инвестиции ещё на этапе идеи, без MVP, усиливая риски "пузыря".
75 % ИИ-фото-приложений потеряли основную выручку всего за полгода после пика, напоминая, что не каждое модное направление = устойчивый бизнес, тем более когда модели устаревают с космической скоростью.
⏩Полный отчёт
⏩Видео
@ai_machinelearning_big_data
#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥8✍7⚡2❤1
Спасибо что вы есть!
Please open Telegram to view this post
VIEW IN TELEGRAM
10🔥26⚡14❤6🍾4
Daily Dose of Datascience выпустили детальный обзор по MCP протоколу с примерами.
Годнота на 74 страницы.
Качаем в комментарии.
#DDODS #MCP #обучение
------
@tsingular
Годнота на 74 страницы.
Качаем в комментарии.
#DDODS #MCP #обучение
------
@tsingular
1🔥8✍5⚡2
Google выпустил полную версию Gemma 3n с поддержкой аудио и видео
Google представил Gemma 3n - новую мобильную ИИ-модель с мультимодальными возможностями. Ключевые фишки:
• MatFormer архитектура - одна модель содержит несколько размеров (2B и 4B параметров)
• Встроенная обработка аудио до 30 секунд с поддержкой перевода речи
• Новый MobileNet-V5 энкодер для видео - в 13 раз быстрее предыдущей версии
• Оптимизация для мобильных устройств с минимальным использованием памяти
Модель уже поддерживается в Hugging Face, Ollama, llama.cpp и других популярных инструментах. Google запустил конкурс с призовым фондом $150,000 для разработчиков приложений.
Серьёзный шаг к полноценному ИИ прямо в смартфоне без интернета.
1300 Elo score для модели такого размера, - это рекорд!
gemma-3n-E4B-it-MLX-bf16 - всего 17 Гигабайт!
#Gemma3n #OnDeviceAI #Google
------
@tsingular
Google представил Gemma 3n - новую мобильную ИИ-модель с мультимодальными возможностями. Ключевые фишки:
• MatFormer архитектура - одна модель содержит несколько размеров (2B и 4B параметров)
• Встроенная обработка аудио до 30 секунд с поддержкой перевода речи
• Новый MobileNet-V5 энкодер для видео - в 13 раз быстрее предыдущей версии
• Оптимизация для мобильных устройств с минимальным использованием памяти
Модель уже поддерживается в Hugging Face, Ollama, llama.cpp и других популярных инструментах. Google запустил конкурс с призовым фондом $150,000 для разработчиков приложений.
Серьёзный шаг к полноценному ИИ прямо в смартфоне без интернета.
1300 Elo score для модели такого размера, - это рекорд!
gemma-3n-E4B-it-MLX-bf16 - всего 17 Гигабайт!
#Gemma3n #OnDeviceAI #Google
------
@tsingular
1👍6⚡2
Tencent выпустил рассуждающую малую модель Hunyuan-A13B
Tencent представил открытую языковую модель Hunyuan-A13B на основе архитектуры Mixture-of-Experts.
Модель имеет 80 млрд параметров, но активно использует только 13 млрд.
Доступны версии FP8 и INT4. Поддерживается TensorRT-LLM, vLLM и SGLang.
Можно рассмотреть как альтернативу Qwen-3. Чуть лучше по некоторым метрикам.
UPD: а вот они следом выпустили нарезку GPTQ-Int4 на 42 гига.
#MoE #Hunyuan #TencentAI
———
@tsingular
Tencent представил открытую языковую модель Hunyuan-A13B на основе архитектуры Mixture-of-Experts.
Модель имеет 80 млрд параметров, но активно использует только 13 млрд.
Доступны версии FP8 и INT4. Поддерживается TensorRT-LLM, vLLM и SGLang.
Можно рассмотреть как альтернативу Qwen-3. Чуть лучше по некоторым метрикам.
UPD: а вот они следом выпустили нарезку GPTQ-Int4 на 42 гига.
#MoE #Hunyuan #TencentAI
———
@tsingular
✍3⚡3
Speech Note,- оффлайн комбайн для Linux с поддержкой русского
Полноценный набор инструментов для работы с речью без интернета.
Speech Note умеет распознавать речь в текст, читать текст вслух и переводить между языками.
Ключевые фишки:
- Полностью офлайн работа - никуда не передает данные
- Поддержка русского языка для всех функций
- CLI интерфейс для автоматизации
- Доступен через Flatpak на Flathub
Использует движки Whisper, Coqui TTS, Piper и многие другие.
Модели скачиваются прямо из приложения.
Отличный комбайн, который можно развернуть на сервере и вызывать через CLI тем же n8n.
#STT #TTS #SpeechNote
------
@tsingular
Полноценный набор инструментов для работы с речью без интернета.
Speech Note умеет распознавать речь в текст, читать текст вслух и переводить между языками.
Ключевые фишки:
- Полностью офлайн работа - никуда не передает данные
- Поддержка русского языка для всех функций
- CLI интерфейс для автоматизации
- Доступен через Flatpak на Flathub
Использует движки Whisper, Coqui TTS, Piper и многие другие.
Модели скачиваются прямо из приложения.
Отличный комбайн, который можно развернуть на сервере и вызывать через CLI тем же n8n.
#STT #TTS #SpeechNote
------
@tsingular
🔥9❤2⚡1
OpenAI представила Deep Research API
Новый Deep Research API автоматизирует сложные исследовательские задачи через программный интерфейс.
Агентная модель самостоятельно декомпозирует запросы, проводит веб-поиск и синтезирует результаты в структурированные отчеты с цитатами.
В отличие от ChatGPT, где процесс скрыт, API дает полный контроль над исследованием. Модель планирует подвопросы, использует инструменты поиска и выполнения кода.
Поддержка MCP-инструментов позволяет интегрировать внутренние документы компании в процесс исследования.
Идеально для создания аналитических отчетов, сравнительных исследований и структурированного анализа данных.
#DeepResearch #OpenAI #ResearchAPI
------
@tsingular
Новый Deep Research API автоматизирует сложные исследовательские задачи через программный интерфейс.
Агентная модель самостоятельно декомпозирует запросы, проводит веб-поиск и синтезирует результаты в структурированные отчеты с цитатами.
В отличие от ChatGPT, где процесс скрыт, API дает полный контроль над исследованием. Модель планирует подвопросы, использует инструменты поиска и выполнения кода.
Поддержка MCP-инструментов позволяет интегрировать внутренние документы компании в процесс исследования.
Идеально для создания аналитических отчетов, сравнительных исследований и структурированного анализа данных.
#DeepResearch #OpenAI #ResearchAPI
------
@tsingular
🔥4⚡3
Иран запустил программу обучения ИИ для 2 миллионов школьников
Стартовала национальная программа Iran Digital - бесплатное обучение искусственному интеллекту для 2 миллионов учеников средних классов и 1000 учителей.
Программа включает практические проекты и игровую интерактивную платформу с соревнованиями и призами. Лучшие участники получат доступ к продвинутым курсам и стажировкам.
Цель - подготовить студентов к будущему рынку труда, развить критическое мышление и цифровую грамотность. Эксперты подчеркивают важность этичного использования ИИ в образовании как дополнения, а не замены человеческого фактора.
Иран активно развивает применение ИИ в образовании после конференции в Тегеране в октябре 2024 года.
#Education #Иран
------
@tsingular
Стартовала национальная программа Iran Digital - бесплатное обучение искусственному интеллекту для 2 миллионов учеников средних классов и 1000 учителей.
Программа включает практические проекты и игровую интерактивную платформу с соревнованиями и призами. Лучшие участники получат доступ к продвинутым курсам и стажировкам.
Цель - подготовить студентов к будущему рынку труда, развить критическое мышление и цифровую грамотность. Эксперты подчеркивают важность этичного использования ИИ в образовании как дополнения, а не замены человеческого фактора.
Иран активно развивает применение ИИ в образовании после конференции в Тегеране в октябре 2024 года.
#Education #Иран
------
@tsingular
👍13⚡2🤣1🆒1
Google выпустили инструкцию как с ADK можно создать ИИ-агента с инструментами
Google опубликовала детальное пошаговое руководство по созданию ИИ-агента с помощью Agent Development Kit (ADK).
В примере показали как создать бот-помощника для обработки багов с 5 типами инструментов.
Встроенные функции для расчетов, интеграция с LangChain и StackOverflow, подключение к GitHub через протокол MCP (Model Context Protocol) от Anthropic, работа с базами данных через MCP Toolbox.
Агент работает на Gemini 2.5 Flash и может создавать тикеты, искать баги, анализировать CVE и подключаться к внешним API.
Пример развернут на Google Cloud на Cloud Run и Cloud SQL, но как инструкцию полезно почитать и дальше использовать на любой платформе.
#Google #ADK #Agents #MCP
———
@tsingular
Google опубликовала детальное пошаговое руководство по созданию ИИ-агента с помощью Agent Development Kit (ADK).
В примере показали как создать бот-помощника для обработки багов с 5 типами инструментов.
Встроенные функции для расчетов, интеграция с LangChain и StackOverflow, подключение к GitHub через протокол MCP (Model Context Protocol) от Anthropic, работа с базами данных через MCP Toolbox.
Агент работает на Gemini 2.5 Flash и может создавать тикеты, искать баги, анализировать CVE и подключаться к внешним API.
Пример развернут на Google Cloud на Cloud Run и Cloud SQL, но как инструкцию полезно почитать и дальше использовать на любой платформе.
#Google #ADK #Agents #MCP
———
@tsingular
✍4⚡3
This media is not supported in your browser
VIEW IN TELEGRAM
🎬 Seedance 1.0: ByteDance выпустил видеогенератор, который обошел всех на Artificial Analysis
ByteDance (разрабы ТикТока) представили Seedance 1.0 — модель генерации видео, которая заняла первое место в лидербордах Artificial Analysis как в text-to-video, так и в image-to-video категориях, обогнав Veo 3, Kling 2.0 и Sora.
Ключевые технические улучшения:
- Архитектура с разделенными пространственными и временными слоями — нативно поддерживает мультисценовую генерацию
- 10× ускорение инференса через многоступенчатую дистилляцию
- Генерация 5-секундного 1080p видео занимает 41.4 секунды на NVIDIA L20
- Единая модель для T2V и I2V задач
Что выделяет Seedance:
- Мультиаспектное повествование — создает последовательные кадры с сохранением персонажей и стиля (shot-reverse shot, match cuts)
- Точное следование промптам в сложных сценах с несколькими объектами
- Поддержка разнообразных стилей: от фотореализма до киберпанка и аниме
- Двуязычность (китайский/английский)
Модель уже интегрирована в Doubao и Jimeng — сервисы ByteDance для видеогенерации.
Интересная деталь: в посттренинге использовали RLHF с тремя специализированными reward-моделями (основная, движение, эстетика), что позволило улучшить все аспекты генерации одновременно .
Попробовать можно тут
(Нужен китайский номер)
#Seedance #ByteDance #нейрорендер
———
@tsingular
ByteDance (разрабы ТикТока) представили Seedance 1.0 — модель генерации видео, которая заняла первое место в лидербордах Artificial Analysis как в text-to-video, так и в image-to-video категориях, обогнав Veo 3, Kling 2.0 и Sora.
Ключевые технические улучшения:
- Архитектура с разделенными пространственными и временными слоями — нативно поддерживает мультисценовую генерацию
- 10× ускорение инференса через многоступенчатую дистилляцию
- Генерация 5-секундного 1080p видео занимает 41.4 секунды на NVIDIA L20
- Единая модель для T2V и I2V задач
Что выделяет Seedance:
- Мультиаспектное повествование — создает последовательные кадры с сохранением персонажей и стиля (shot-reverse shot, match cuts)
- Точное следование промптам в сложных сценах с несколькими объектами
- Поддержка разнообразных стилей: от фотореализма до киберпанка и аниме
- Двуязычность (китайский/английский)
Модель уже интегрирована в Doubao и Jimeng — сервисы ByteDance для видеогенерации.
Интересная деталь: в посттренинге использовали RLHF с тремя специализированными reward-моделями (основная, движение, эстетика), что позволило улучшить все аспекты генерации одновременно .
Попробовать можно тут
(Нужен китайский номер)
#Seedance #ByteDance #нейрорендер
———
@tsingular
🔥28🤯10❤3⚡3🤔3✍1
This media is not supported in your browser
VIEW IN TELEGRAM
Windows MCP: ИИ-агенты теперь могут управлять Windows
Появился легковесный MCP-сервер для интеграции ИИ с операционной системой Windows.
Позволяет любым LLM (включая Claude) напрямую управлять Windows: открывать приложения, кликать по интерфейсу, имитировать пользовательский ввод, проводить QA-тестирование.
Главная фишка - работает с любой языковой моделью без компьютерного зрения или специального обучения. Задержка между действиями всего 1.5-2.3 секунды.
Проект с открытым исходным кодом под MIT лицензией. Интегрируется с Claude Desktop через расширения.
#MCP #Windows #Agents
------
@tsingular
Появился легковесный MCP-сервер для интеграции ИИ с операционной системой Windows.
Позволяет любым LLM (включая Claude) напрямую управлять Windows: открывать приложения, кликать по интерфейсу, имитировать пользовательский ввод, проводить QA-тестирование.
Главная фишка - работает с любой языковой моделью без компьютерного зрения или специального обучения. Задержка между действиями всего 1.5-2.3 секунды.
Проект с открытым исходным кодом под MIT лицензией. Интегрируется с Claude Desktop через расширения.
#MCP #Windows #Agents
------
@tsingular
👍13⚡5