Forwarded from Machinelearning
Media is too big
VIEW IN TELEGRAM
Microsoft открыла доступ к экспериментальному веб-инструменту Copilot 3D, который позволяет конвертировать статичные изображения в трехмерные модели. Сервис доступен бесплатно через портал Copilot Labs.
Инструмент поддерживает на входе PNG и JPG размером до 10 МБ. Созданные модели сохраняются на странице пользователя в течение 28 дней и могут быть скачаны в формате GLB. Copilot 3D является новой попыткой Microsoft популяризировать 3D-творчество после закрытия проектов Paint 3D и Remix3D.
copilot.microsoft.com
Команда, занимавшаяся разработкой суперкомпьютера Dojo расформирована, а ее руководитель Питер Бэннон покидает компанию.
Этот шаг завершает многолетнюю попытку Tesla создать кастомные чипы и процессоры "размером с кремниевую пластину" для обучения моделей автономного вождения и робототехники. Вместо этого компания перейдет на решения Nvidia и AMD, а производством чипов нового поколения займется Samsung.
Около 20 инженеров из команды Dojo уже основали собственный стартап DensityAI, а остальные сотрудники будут переведены на другие проекты внутри Tesla.
bloomberg.com
Apple подтвердила, что осенние обновления: iOS, iPadOS и macOS получат поддержку GPT-5. Она заменит текущую GPT-4o в тех случаях, когда собственным моделям Apple потребуется помощь в обработке сложных запросов. Это коснется ответов Siri, инструментов для письма и визуального поиска.
Использование GPT-5 останется опциональным: пользователи должны будут явно дать согласие на передачу запросов в ChatGPT. Apple продолжит скрывать IP-адреса и запрещать OpenAI хранить данные, однако оставит возможность привязать платную подписку OpenAI для доступа к дополнительным функциям.
Кроме того, обновления ОС принесут функцию Live Translation для перевода разговоров в реальном времени и расширят возможности сквозного поиска по контенту.
9to5mac.com
Техногигант приобрел WaveForms AI - молодой стартап, чье программное обеспечение способно идентифицировать и воспроизводить эмоциональные оттенки в человеческой речи. Команда WaveForms присоединится к подразделению Superintelligence Labs.
Стартап был основан в декабре 2024 года, но уже успел привлечь 40 миллионов долларов инвестиций при оценке в 160 миллионов. Компания работала над "Тестом Тьюринга для речи" и так называемым "эмоциональным AGI", чтобы сделать голоса, сгенерированные ИИ, неотличимыми от человеческих.
Для Цукерберга это уже вторая сделка в области ИИ-аудио за последние месяцы после июльского поглощения PlayAI. Финансовые условия покупки не разглашаются.
theinformation.com
Google приступил к тестированию редизайна сервиса Google Finance, в центре которого теперь находится ИИ. В ближайшие недели пользователи из США получат доступ к новой версии со встроенным чат-ботом. Он сможет отвечать на сложные вопросы о рынках, предоставляя обобщенные ответы со ссылками на внешние источники.
Помимо ИИ-помощника, обновление включает расширенные инструменты для построения графиков и добавляет рыночные данные в реальном времени для сырьевых товаров и криптовалют.
Появится и постоянно обновляемая новостная лента, которая позволит отслеживать важные заголовки, не покидая платформу. Во время тестового периода пользователи смогут переключаться между новым и классическим интерфейсами.
blog.google
@ai_machinelearning_big_data
#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
👍5🔥5❤4
💰 McKinsey: к 2030 году на AI-инфраструктуру потратят $6,7 трлн
К 2030-му мировая мощность дата-центров почти утроится, и ~70% этого роста придётся на AI.
Под AI потребуется $5,2 трлн инвестиций и 156 ГВт мощности.
📊 Куда уйдут деньги:
- 60% (~$3,1 трлн) — чипы и серверы
- 25% (~$1,3 трлн) — энергия и охлаждение
- 15% (~$0,8 трлн) — площадки и строительство
📉 Сценарии развития
- 🚀 Ускоренный: +205 ГВт, ~$7,9 трлн
- 📈 Базовый: +125 ГВт, ~$5,2 трлн
- 🐢 Ограниченный: +78 ГВт, ~$3,7 трлн
⚡ Энергетика и охлаждение
- Главные ограничения: электросети и теплоотвод
- 45–50% энергии — из возобновляемых источников
- Рост инвестиций в атом, геотермальную энергетику, улавливание CO₂ и длительное хранение энергии
- Переход на direct-to-chip и иммерсионное охлаждение
🧮 Что ускоряет рост
- К 2030 году inference станет основной нагрузкой
- Корпоративные приложения с отраслевыми моделями создадут стабильный поток запросов
- Hyperscalers масштабируются, чтобы снижать стоимость вычислений
- Государства инвестируют в AI-инфраструктуру как в стратегический актив
💡 Как не перепостроить
- Планировать мощность с возможностью масштабирования или паузы
- Инвестировать в энергоэффективность чипов, сетей и охлаждения
- Обеспечить стабильный доступ к энергии, чипам и площадкам
📌 Пример эффективности:
DeepSeek V3 — обучение в ~18× дешевле GPT-4o, инференс в ~36× дешевле.
Но парадокс Джевонса означает, что экономия стимулирует больше экспериментов, а значит, общий спрос на вычисления всё равно растёт.
📌 Подробнее
@data_analysis_ml
К 2030-му мировая мощность дата-центров почти утроится, и ~70% этого роста придётся на AI.
Под AI потребуется $5,2 трлн инвестиций и 156 ГВт мощности.
📊 Куда уйдут деньги:
- 60% (~$3,1 трлн) — чипы и серверы
- 25% (~$1,3 трлн) — энергия и охлаждение
- 15% (~$0,8 трлн) — площадки и строительство
📉 Сценарии развития
- 🚀 Ускоренный: +205 ГВт, ~$7,9 трлн
- 📈 Базовый: +125 ГВт, ~$5,2 трлн
- 🐢 Ограниченный: +78 ГВт, ~$3,7 трлн
⚡ Энергетика и охлаждение
- Главные ограничения: электросети и теплоотвод
- 45–50% энергии — из возобновляемых источников
- Рост инвестиций в атом, геотермальную энергетику, улавливание CO₂ и длительное хранение энергии
- Переход на direct-to-chip и иммерсионное охлаждение
🧮 Что ускоряет рост
- К 2030 году inference станет основной нагрузкой
- Корпоративные приложения с отраслевыми моделями создадут стабильный поток запросов
- Hyperscalers масштабируются, чтобы снижать стоимость вычислений
- Государства инвестируют в AI-инфраструктуру как в стратегический актив
💡 Как не перепостроить
- Планировать мощность с возможностью масштабирования или паузы
- Инвестировать в энергоэффективность чипов, сетей и охлаждения
- Обеспечить стабильный доступ к энергии, чипам и площадкам
📌 Пример эффективности:
DeepSeek V3 — обучение в ~18× дешевле GPT-4o, инференс в ~36× дешевле.
Но парадокс Джевонса означает, что экономия стимулирует больше экспериментов, а значит, общий спрос на вычисления всё равно растёт.
📌 Подробнее
@data_analysis_ml
❤10🔥5👍3
🖼️ Qwen-Image — мультиязычная генеративная модель от Alibaba. Проект предлагает 20-миллиардную модель для создания изображений с точным рендерингом текста. Модель поддерживает английский и китайский языки, включая сложные шрифтовые композиции и смешанные текстовые блоки. Архитектура сочетает Qwen2.5-VL для анализа текста, VAE для детализации и диффузионное ядро MMDiT.
Модель обучалась на миллиардах изображений: от природных сцен до дизайн-макетов. В тестах она превзошла многие закрытые аналоги, особенно в генерации инфографики и материалов с встроенным текстом. Лицензия Apache 2.0 позволяет свободное использование.
🤖 GitHub
@data_analysis_ml
Модель обучалась на миллиардах изображений: от природных сцен до дизайн-макетов. В тестах она превзошла многие закрытые аналоги, особенно в генерации инфографики и материалов с встроенным текстом. Лицензия Apache 2.0 позволяет свободное использование.
🤖 GitHub
@data_analysis_ml
🔥14❤4👍3
🤨 OpenAI заявила о 74.9% на SWE-Bench, чтобы обойти Opus 4.1 с его 74.5%…
Но тест они прогнали не на всех 500 задачах, а только на 477.
Ирония в том, что в официальной system card у них стоит просто 74%.
Источник: https://cdn.openai.com/pdf/8124a3ce-ab78-4f06-96eb-49ea29ffb52f/gpt5-system-card-aug7.pdf
Но тест они прогнали не на всех 500 задачах, а только на 477.
Ирония в том, что в официальной system card у них стоит просто 74%.
Источник: https://cdn.openai.com/pdf/8124a3ce-ab78-4f06-96eb-49ea29ffb52f/gpt5-system-card-aug7.pdf
😁38👍7❤3🔥3🌚1💔1
🚀 Релиз MiMo-VL 2508: тот же размер — больше мощность
Улучшена:
- Производительность
- Управление рассуждениями
- Общий пользовательский опыт
📈 Улучшены показатели почти всех бенчмарков (изображения + видео)
- MMMU: 70.6
- VideoMME: 70.8
Стабильные улучшения по всем направлениям.
🤖 Thinking Control
- Вкл. (по умолчанию): полный ход рассуждений в ответах.
- Выкл.: прямые ответы без показа рассуждений ⚡
❤️ Реальный опыт пользователей
Рейтинг в VLM Arena вырос с 1093.9 → 1131.2 (+37.3).
Модель стала более способной, гибкой и надёжной в повседневных задачах.
🤗 Ссылки на модели
- RL: https://huggingface.co/XiaomiMiMo/MiMo-VL-7B-RL-2508
- SFT: https://huggingface.co/XiaomiMiMo/MiMo-VL-7B-SFT-2508
#XiaomiMiMo #MiMoVL
Улучшена:
- Производительность
- Управление рассуждениями
- Общий пользовательский опыт
📈 Улучшены показатели почти всех бенчмарков (изображения + видео)
- MMMU: 70.6
- VideoMME: 70.8
Стабильные улучшения по всем направлениям.
🤖 Thinking Control
- Вкл. (по умолчанию): полный ход рассуждений в ответах.
- Выкл.: прямые ответы без показа рассуждений ⚡
❤️ Реальный опыт пользователей
Рейтинг в VLM Arena вырос с 1093.9 → 1131.2 (+37.3).
Модель стала более способной, гибкой и надёжной в повседневных задачах.
🤗 Ссылки на модели
- RL: https://huggingface.co/XiaomiMiMo/MiMo-VL-7B-RL-2508
- SFT: https://huggingface.co/XiaomiMiMo/MiMo-VL-7B-SFT-2508
#XiaomiMiMo #MiMoVL
❤5👍3🔥3
📈 Сэм Альтман ответил на критику запуска GPT-5: OpenAI удваивает лимиты для подписчиков Plus
Всего через несколько дней после запуска GPT-5 OpenAI уже анонсирует изменения для пользователей. Сэм Альтман в AMA-сессии на Reddit подтвердил, что лимиты запросов к GPT-5 Thinking на подписке Plus будут увеличены в два раза — с текущих 200 до 400. Это ответ на критику пользователей, которые отмечали, что квоты для новой модели оказались заметно ниже, чем для предыдущих версий.
При этом OpenAI также рассматривает возможность вернуть доступ к GPT-4o для подписчиков Plus — видимо, чтобы дать пользователям больше гибкости в выборе модели. Параллельно команда дорабатывает автоматический режим GPT-5, где ИИ сам решает, использовать глубокие рассуждения или давать быстрый ответ.
🔗 Ссылка - *клик*
@data_analysis_ml
Всего через несколько дней после запуска GPT-5 OpenAI уже анонсирует изменения для пользователей. Сэм Альтман в AMA-сессии на Reddit подтвердил, что лимиты запросов к GPT-5 Thinking на подписке Plus будут увеличены в два раза — с текущих 200 до 400. Это ответ на критику пользователей, которые отмечали, что квоты для новой модели оказались заметно ниже, чем для предыдущих версий.
При этом OpenAI также рассматривает возможность вернуть доступ к GPT-4o для подписчиков Plus — видимо, чтобы дать пользователям больше гибкости в выборе модели. Параллельно команда дорабатывает автоматический режим GPT-5, где ИИ сам решает, использовать глубокие рассуждения или давать быстрый ответ.
🔗 Ссылка - *клик*
@data_analysis_ml
👍7❤4🔥1🌚1
🚀 Выпущен техрепорт GLM-4.5 — мощный Mixture-of-Experts (MoE) LLM с 355 млрд параметров (и 32 млрд активных), оснащённый гибридной логикой: умеет «думать» для сложных задач и сразу отвечать, когда нужно.
Ключевые особенности:
- Обучен на 23 трлн токенов с поисковой дообучкой и RL через экспертные итерации.
- Выдаёт отличные результаты в задачах agentic (агентные задачи), reasoning (логика) и coding (кодинг):
— TAU-Bench: 70,1%
— AIME 24: 91,0%
— SWE-bench Verified: 64,2%
- Несмотря на менее мощные размеры, занимает 3-е место по общим метрикам и 2-е место по agentic-бенчам среди всех моделей.
- Выпущены две версии: полноразмерная GLM-4.5 (355B) и компактная GLM-4.5-Air (106B) — обе открыты для сообщества.
Это значимый шаг для открытых LLM — мощный, гибридный, способный рассуждать, действовать и кодить в рамках одного фундамента.
🟡 Техрепорт
🟡 Страница проекта
🟡 Набор моделей
🟡 Demo
🟡 Сообщество в Discord
🖥 GitHub
Ключевые особенности:
- Обучен на 23 трлн токенов с поисковой дообучкой и RL через экспертные итерации.
- Выдаёт отличные результаты в задачах agentic (агентные задачи), reasoning (логика) и coding (кодинг):
— TAU-Bench: 70,1%
— AIME 24: 91,0%
— SWE-bench Verified: 64,2%
- Несмотря на менее мощные размеры, занимает 3-е место по общим метрикам и 2-е место по agentic-бенчам среди всех моделей.
- Выпущены две версии: полноразмерная GLM-4.5 (355B) и компактная GLM-4.5-Air (106B) — обе открыты для сообщества.
Это значимый шаг для открытых LLM — мощный, гибридный, способный рассуждать, действовать и кодить в рамках одного фундамента.
Please open Telegram to view this post
VIEW IN TELEGRAM
❤12👍6🔥3
This media is not supported in your browser
VIEW IN TELEGRAM
Что это
• Открытая и настраиваемая reasoning-VLM для физического ИИ и робототехники: модель понимает видео + текст, “думает” по шагам и принимает решения
в реальном мире.
Что умеет
👀 Видеть, рассуждать и действовать в реальном мире
🛠️ Решать многошаговые задачи и справляться с неоднозначными/новыми ситуациями
🤖 Подходит для разработки роботов, автономного транспорта и визуальных ИИ-агентов
Почему важно
• Пост-тюнинг даёт ощутимый буст: SFT ≈ +10% к базе, RL ещё ≈ +5%.
• Итог: средний результат ≈ 65.7 на профильных бенчмарках для роботов и автопилота.
📌 Подробнее
@data_analysis_ml
Please open Telegram to view this post
VIEW IN TELEGRAM
❤12👍4🔥2
Многие замечали, что Mistral Small 3.2 пишет очень похоже на DeepSeek V3.
Анализ их slop-профилей это подтверждает.
Визуализация в виде сети, а не «древа родства», лучше передаёт сложные и переплетённые связи между моделями.
Полный абсурд.
@data_analysis_ml
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
😁10❤8👍2🔥2
MWS Cloud представила Inference Valve, которая снижает затраты на GPU на 15%
Она позволяет выводить в продакшнлюбые обученные ML-модели, большие языковые модели (LLM) и модели компьютерного зрения (CV). С помощью платформы их можно разворачивать на инфраструктуре, подключать к ИТ-системам компании через простой и мощный API, масштабировать, а также обновлять и мониторить.
Платформа доступна в частном облаке на инфраструктуре MWS Cloud, on-prem на серверах заказчика, а также в составе программно-аппаратных комплексов (ПАК) в закрытом контуре, включая режимы с ограниченным доступом к внешним сетям.
По словам CEO MWS Cloud, исполнительного директора МТС Web Services Игоря Зарубинского, платформа позволяет:
- В десятки раз быстрее интегрировать LLM и CV-модели с ИТ-системами компаний;
- На 70% снизить операционную нагрузку на ML-команды при эксплуатации моделей;
- Повысить автоматизацию CI/CD более чем на треть;
- Уменьшить затраты на GPU более чем на 15%;
Ссылка – *клик*
@data_analysis_ml
Она позволяет выводить в продакшнлюбые обученные ML-модели, большие языковые модели (LLM) и модели компьютерного зрения (CV). С помощью платформы их можно разворачивать на инфраструктуре, подключать к ИТ-системам компании через простой и мощный API, масштабировать, а также обновлять и мониторить.
Платформа доступна в частном облаке на инфраструктуре MWS Cloud, on-prem на серверах заказчика, а также в составе программно-аппаратных комплексов (ПАК) в закрытом контуре, включая режимы с ограниченным доступом к внешним сетям.
По словам CEO MWS Cloud, исполнительного директора МТС Web Services Игоря Зарубинского, платформа позволяет:
- В десятки раз быстрее интегрировать LLM и CV-модели с ИТ-системами компаний;
- На 70% снизить операционную нагрузку на ML-команды при эксплуатации моделей;
- Повысить автоматизацию CI/CD более чем на треть;
- Уменьшить затраты на GPU более чем на 15%;
Ссылка – *клик*
@data_analysis_ml
mws.ru
Inference Valve
Инструмент для деплоя, обновления и мониторинга AI-моделей в проде
❤4👍3❤🔥1🔥1
This media is not supported in your browser
VIEW IN TELEGRAM
🔄 Эти демо легко превратить в полноценные приложения, добавив серверную часть.
📂 Примеры доступны здесь: https://gpt5-coding-examples.vercel.app/
@data_analysis_ml
Please open Telegram to view this post
VIEW IN TELEGRAM
❤12👍8🔥1🥰1
Forwarded from Machinelearning
Media is too big
VIEW IN TELEGRAM
OpenAI ведет переговоры об инвестициях в Merge Labs, стартап в области нейрокомпьютерных интерфейсов, который планирует создание высокоскоростных BCI-систем.
Merge Labs планирует привлечь 250 миллионов долларов при оценке в 850 миллионов. Сэм Альтман будет числиться сооснователем вместе с бывшим топ-менеджером Neuralink Алексом Бланиа, однако не будет заниматься операционной деятельностью. Ожидается, что основное финансирование поступит от венчурного подразделения OpenAI.
Этот шаг еще больше обостряет давнее соперничество между Альтманом и Маском, которые в 2015 году вместе основали OpenAI, но позже разошлись во взглядах.
ft.com
Anthropic объявила о значительном увеличении контекстного окна для Claude Sonnet 4 до одного миллиона токенов. Это в 5 раз больше предыдущего лимита и позволит обрабатывать за один проход целые кодовые базы или большие массивы документов. Новая возможность уже доступна в публичной бете через API Anthropic, Amazon Bedrock, а в скором времени появится и в Google Cloud Vertex AI.
За расширение придется платить больше. Для запросов свыше 200 тыс. входных токенов цена удваивается и составит 6 долларов за миллион токенов. Стоимость выходных токенов также вырастет с 15 до 22.50 долларов за миллион.
anthropic.com
Согласно внутренним документам, Microsoft составила список конкретных сотрудников с указанием их имен, ролей и принадлежности к командам: Reality Labs, GenAI Infrastructure и AI Research. Корпорация готова предложить им многомиллионные компенсационные пакеты - крупные бонусы при найме, конкурентные зарплаты, значительные пакеты акций и высокие годовые премии.
Для ускорения процесса в Microsoft внедрили специальную процедуру. Рекрутеры могут помечать кандидатов как "критически важные ИИ-таланты" и тогда процесс рассмотрения и утверждения на уровне руководства возможен в течение 24 часов.
businessinsider.com
Институт искусственного интеллекта Аллена представил MolmoAct 7B — опенсорсную модель для планирования движений роботов в трехмерном пространстве. Система интерпретирует команды на естественном языке, создает 3D-реконструкцию сцены и прокладывает траекторию движения, которую разработчик может просмотреть и скорректировать до того, как робот начнет действовать.
Модель на 7 млрд. параметров была обучена на 18 млн. примеров, в которых были включены 12 тыс. эпизодов из реального мира. В бенчмарке SimPLER система показала успешность выполнения задач в 72.1%, обойдя решения от Nvidia, Google и Microsoft.
AI2 опубликовал техотчет, веса и датасеты, позиционируя MolmoAct как свободно доступную альтернативу проприетарным решениям.
allenai.org
Платформа создает полноценные, играбельные проекты на основе текстового описания на естественном языке, не требуя навыков программирования. Система использует большие модели для автоматической генерации всех ключевых элементов: 3D-сцен, персонажей и игровой логики, интегрируя текст, 3D-моделирование и физические движки.
Помимо основной генерации, инструмент поддерживает персонализацию созданных игр, предварительный просмотр в реальном времени и возможность оптимизации. SEELE AI позиционирует свой сервис не только как игровой инструмент, но и как платформу для создания контента в сфере образования, маркетинга и социальных сетей.
Попробовать инструмент можно на официальном сайте.
Seele AI в сети Х
@ai_machinelearning_big_data
#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
❤5👍4🥰2
🚀 Анализируй графики за секунды с SmolVLM
Часы ручного разбора сложных визуализаций — в прошлое.
SmolVLM позволяет:
🔹 Автоматически извлекать ключевые выводы прямо из графика
🔹 Отвечать на конкретные вопросы без долгих расчётов
🔹 Мгновенно находить закономерности и ускорять принятие решений
💡 Пример: модель определяет, что курящие клиенты приносят больше выручки за заказ, а пик продаж приходится на пятницу и субботу.
📈 От картинки — к готовым инсайтам за пару секунд.
@data_analysis_ml
Часы ручного разбора сложных визуализаций — в прошлое.
SmolVLM позволяет:
🔹 Автоматически извлекать ключевые выводы прямо из графика
🔹 Отвечать на конкретные вопросы без долгих расчётов
🔹 Мгновенно находить закономерности и ускорять принятие решений
💡 Пример: модель определяет, что курящие клиенты приносят больше выручки за заказ, а пик продаж приходится на пятницу и субботу.
📈 От картинки — к готовым инсайтам за пару секунд.
@data_analysis_ml
❤6👍6🔥4🤨2
🚀 Двойной прирост скорости инференса для diffusion-моделей с помощью Torch-TensorRT от NVIDIA
Что нового?
С помощью Torch-TensorRT (компилятора для PyTorch + TensorRT) можно без изменения PyTorch-кода:
- Удвоить скорость инференса для diffusion-моделей — без изменений API и минимальных усилий
- На примере модели FLUX.1-dev (12 млрд параметров):
- ×1.5 быстрее по сравнению с родной PyTorch FP16
- до ×2.4 при добавлении FP8-квантизации
Почему это важно:
- Минимальный код — максимальный эффект: достаточно одной строки, чтобы включить ускорение
- Гибкость: поддержка современных workflows, LoRA, ControlNet — перефит и ре-компиляция происходят на лету, без дополнительных шагов
Если вы работаете с Hugging Face Diffusers и diffusion-моделями в PyTorch — Torch-TensorRT откроет новую скорость с минимумом усилий!
🔗 Подробнее
@data_analysis_ml
Что нового?
С помощью Torch-TensorRT (компилятора для PyTorch + TensorRT) можно без изменения PyTorch-кода:
- Удвоить скорость инференса для diffusion-моделей — без изменений API и минимальных усилий
- На примере модели FLUX.1-dev (12 млрд параметров):
- ×1.5 быстрее по сравнению с родной PyTorch FP16
- до ×2.4 при добавлении FP8-квантизации
Почему это важно:
- Минимальный код — максимальный эффект: достаточно одной строки, чтобы включить ускорение
- Гибкость: поддержка современных workflows, LoRA, ControlNet — перефит и ре-компиляция происходят на лету, без дополнительных шагов
Если вы работаете с Hugging Face Diffusers и diffusion-моделями в PyTorch — Torch-TensorRT откроет новую скорость с минимумом усилий!
🔗 Подробнее
@data_analysis_ml
❤4🔥4👍3
This media is not supported in your browser
VIEW IN TELEGRAM
✨ Alibaba выпустила код и веса FantasyPortrait
Мультипортретная анимация персонажей
В комплекте Multi-Expr Dataset — первый датасет для анимации нескольких лиц с разными выражениями
🟠 Лицензия Apache 2.0
https://huggingface.co/acvlab/FantasyPortrait
@data_analysis_ml
Мультипортретная анимация персонажей
В комплекте Multi-Expr Dataset — первый датасет для анимации нескольких лиц с разными выражениями
https://huggingface.co/acvlab/FantasyPortrait
@data_analysis_ml
Please open Telegram to view this post
VIEW IN TELEGRAM
❤8👍4🔥4🤔1