Media is too big
VIEW IN TELEGRAM
Снова за нейрорендеринг
Я как фанат такой технологии регулярно смотрю, что делают люди с помощью превизов в Блендоре и нейро-рендеринга с помощью Сидэнского.
Вот еще один пример. Никакой зловещей долины не наблюдаю.
Подробности тут:
https://x.com/fatboypink
@cgevent
Я как фанат такой технологии регулярно смотрю, что делают люди с помощью превизов в Блендоре и нейро-рендеринга с помощью Сидэнского.
Вот еще один пример. Никакой зловещей долины не наблюдаю.
Подробности тут:
https://x.com/fatboypink
@cgevent
❤45🔥39👍20
Российские исследователи научили LLM говорить «нет»
Проблема, о которой многие догадывались, получила научное подтверждение. Большие языковые модели склонны поддакивать пользователю, даже если логика его запроса полностью нарушена. Чтобы прийти к таким выводам, исследователи R&D-центра Т-Технологий протестили все популярные ИИ: Qwen3-235B-A22B, GPT-OSS-120B, GPT-5.2 High, DeepSeek-R1-0528, Gemini-2.5-Pro, Claude-Sonnet-4.5 и Gemini-3-Pro-Preview.
Сильнее всего от этого страдают сферы, которые требуют строгой логики от LLM, например, математика, программирование и аналитика. Результаты исследования были представлены на воркшопе по рассуждению LLM на конференции ICLR 2026, которая прошла 23-27 апреля в Рио-де-Жанейро.
• Исследование показало, что модели:
Признают правильное решение ошибочным, если в промпте указать, что там есть ошибка.
Начинают решать заведомо нерешаемую задачу вместо того, чтобы указать юзеру на противоречие.
Лучше подстраиваются под формат ответа, но чаще соглашаются с неверными выводами пользователя при дообучении на предпочтениях.
• Как исследователи исправили проблему без полного переобучения?
Сначала они сгенерировали пары примеров: с проявлением склонности соглашаться и без нее. Затем использовали steering vectors, чтобы скорректировать внутренние представления модели прямо на этапе вывода.
https://openreview.net/forum?id=9pes6SjHqj
@cgevent
Проблема, о которой многие догадывались, получила научное подтверждение. Большие языковые модели склонны поддакивать пользователю, даже если логика его запроса полностью нарушена. Чтобы прийти к таким выводам, исследователи R&D-центра Т-Технологий протестили все популярные ИИ: Qwen3-235B-A22B, GPT-OSS-120B, GPT-5.2 High, DeepSeek-R1-0528, Gemini-2.5-Pro, Claude-Sonnet-4.5 и Gemini-3-Pro-Preview.
Сильнее всего от этого страдают сферы, которые требуют строгой логики от LLM, например, математика, программирование и аналитика. Результаты исследования были представлены на воркшопе по рассуждению LLM на конференции ICLR 2026, которая прошла 23-27 апреля в Рио-де-Жанейро.
• Исследование показало, что модели:
Признают правильное решение ошибочным, если в промпте указать, что там есть ошибка.
Начинают решать заведомо нерешаемую задачу вместо того, чтобы указать юзеру на противоречие.
Лучше подстраиваются под формат ответа, но чаще соглашаются с неверными выводами пользователя при дообучении на предпочтениях.
• Как исследователи исправили проблему без полного переобучения?
Сначала они сгенерировали пары примеров: с проявлением склонности соглашаться и без нее. Затем использовали steering vectors, чтобы скорректировать внутренние представления модели прямо на этапе вывода.
https://openreview.net/forum?id=9pes6SjHqj
@cgevent
👍62🔥35😁17👎8❤6
This media is not supported in your browser
VIEW IN TELEGRAM
Sapiens2 - нейромокап и КонтролНет на стероидах.
Про Sapiens от Метачки я уже писал.
Это семейство моделей для четырех фундаментальных задач комп зрения - оценки 2D-позы, сегментации частей тела, оценки глубины и предсказания нормалей. Взяли миллиард изображений людей, вычистили его от мусора, получили 300(!) миллионов картинок с людьми, причем 17% - один кожаный в кадре, а 56% - больше 4 кожаных в кадре.
Пару дней назад они бахнули Sapiens2. Она масштабирована до 5 млрд параметров с разрешением 4K, и теперь умеет в оценку позы, сегментации, определения глубины, нормалей, Pointmap Estimation и альбедо без использования явных априорных знаний о человеке.
https://arxiv.org/pdf/2604.21681
Есть код и веса (от 0.1В до 5В):
https://github.com/facebookresearch/sapiens2
https://huggingface.co/collections/facebook/sapiens2
Веса
Но самое прикольное в том, что Киджай уже прикрутил все это в Комфи и первые тесты показывают, что это все отлично работает. По крайней мере для оценки позы.
https://github.com/kijai/ComfyUI-Sapiens2
Дальше этот КонтролНет для видео на стероидах можно использовать по вашему усмотрению.
@cgevent
Про Sapiens от Метачки я уже писал.
Это семейство моделей для четырех фундаментальных задач комп зрения - оценки 2D-позы, сегментации частей тела, оценки глубины и предсказания нормалей. Взяли миллиард изображений людей, вычистили его от мусора, получили 300(!) миллионов картинок с людьми, причем 17% - один кожаный в кадре, а 56% - больше 4 кожаных в кадре.
Пару дней назад они бахнули Sapiens2. Она масштабирована до 5 млрд параметров с разрешением 4K, и теперь умеет в оценку позы, сегментации, определения глубины, нормалей, Pointmap Estimation и альбедо без использования явных априорных знаний о человеке.
https://arxiv.org/pdf/2604.21681
Есть код и веса (от 0.1В до 5В):
https://github.com/facebookresearch/sapiens2
https://huggingface.co/collections/facebook/sapiens2
Веса
Но самое прикольное в том, что Киджай уже прикрутил все это в Комфи и первые тесты показывают, что это все отлично работает. По крайней мере для оценки позы.
https://github.com/kijai/ComfyUI-Sapiens2
Дальше этот КонтролНет для видео на стероидах можно использовать по вашему усмотрению.
@cgevent
🔥28👍8❤1
Media is too big
VIEW IN TELEGRAM
Как могут выглядеть игры на Гауссианах.
Технология Gaussian Splatting позволяет быстро и бесплатно создавать фотореалистичные окружения. Подвох в том, что «сплатинг» — это просто облако ориентированных объектов — без треугольников, коллайдеров, навигационной сетки и источников света. Поместите туда персонажа, и он будет пролетать сквозь стены, выглядя так, будто он из другой вселенной.
Почитайте, как можно выкручиваться для решения всех этих проблем.
Более того, можете сами попробовать поиграть прямо в браузере(!):
https://playcanv.as/p/qxGSuzYq/ (будьте готовы к шуму вентиляторов)
Сцена представляет собой сканирование реального заброшенного места.
О том, как это было сделано почитайте тут (включает все скрипты):
https://blog.playcanvas.com/turning-a-gaussian-splat-into-a-videogame/
@cgevent
Технология Gaussian Splatting позволяет быстро и бесплатно создавать фотореалистичные окружения. Подвох в том, что «сплатинг» — это просто облако ориентированных объектов — без треугольников, коллайдеров, навигационной сетки и источников света. Поместите туда персонажа, и он будет пролетать сквозь стены, выглядя так, будто он из другой вселенной.
Почитайте, как можно выкручиваться для решения всех этих проблем.
Более того, можете сами попробовать поиграть прямо в браузере(!):
https://playcanv.as/p/qxGSuzYq/ (будьте готовы к шуму вентиляторов)
Сцена представляет собой сканирование реального заброшенного места.
О том, как это было сделано почитайте тут (включает все скрипты):
https://blog.playcanvas.com/turning-a-gaussian-splat-into-a-videogame/
@cgevent
👎21🔥18👍6❤4
Kandinsky 6.0 Image Pro — большой апдейт модели для работы с изображениями.
Сбер собрал генерацию и редактирование в одну модель и, судя по бенчам, попал в уровень Flux 2 Max, обгоняя GPT Image 1.5. При этом за счёт MoE и оптимизации инференса модель ускорили больше чем на 40%.
Самое интересное — Image RAG. Теперь модель не просто «рисует из головы», а подтягивает релевантные изображения в контекст. За счёт этого начинает лучше работать понимание культурного кода: мезенская роспись, картуз, локальные стили — без шаманства с промптами.
По функциям всё практично: можно убрать лишний объект, заменить предмет, поменять стиль фото, сохранить черты лица, восстановить старую фотографию или сделать её цветной. Ещё Kandinsky помогает с визуализацией интерьеров и фасадов по одному запросу.
Дальше обещают редактирование по трём референсам и точечные правки кистью.
https://habr.com/ru/companies/sberbank/articles/1028822/
@cgevent
Сбер собрал генерацию и редактирование в одну модель и, судя по бенчам, попал в уровень Flux 2 Max, обгоняя GPT Image 1.5. При этом за счёт MoE и оптимизации инференса модель ускорили больше чем на 40%.
Самое интересное — Image RAG. Теперь модель не просто «рисует из головы», а подтягивает релевантные изображения в контекст. За счёт этого начинает лучше работать понимание культурного кода: мезенская роспись, картуз, локальные стили — без шаманства с промптами.
По функциям всё практично: можно убрать лишний объект, заменить предмет, поменять стиль фото, сохранить черты лица, восстановить старую фотографию или сделать её цветной. Ещё Kandinsky помогает с визуализацией интерьеров и фасадов по одному запросу.
Дальше обещают редактирование по трём референсам и точечные правки кистью.
https://habr.com/ru/companies/sberbank/articles/1028822/
@cgevent
❤77🔥45👎42😁24👍5
Media is too big
VIEW IN TELEGRAM
#Нейропрожарка
Мини-сериал «Алгоритм любви»
Автор: Cyberbarbie
https://t.iss.one/cyberbarbiee
Посмотреть весь сериал можно по ссылке https://youtu.be/8xs29BaNWoA?si=NLfzLO6ZIB2njFKv
Пайплайн
Процесс создания строился нетипичным образом.
Главным инструментом была Sora 2(по которой я теперь непомерно скорблю) и основная работа была сделана там. Конечно она генерирует мимо режиссерского промпта, но я могла одну сцену собирать и перемонтировать и по необходимости перегенерировать скриншоты и собирать что-то внятное из кучи несусветицы.
Также использовалось внедрение несуществующих объектов голограмм, предметов в реальный мир. Это делалось через nano banana и последующая анимация кадра.
Главной проблемой была генерация моего лица - не только в Sora, во всех Ии по какой-то таинственной причине генерируется плохо.
Зато мой Ии любовник Артем созданный в Sora через загрузку эскиза отлично получался почти на всех генерациях.
Второй проблемой был голос. Который ещё как ии помощник звучал сносно, но как человек странно. Поэтому я искала людей чтобы мне записали несколько фраз и потом в elevenlabs я меняла голос но сохраняла интонацию.
Очень я старалась над саундтреком, что оформила подписку на Suno. Создание саундтрека принесло мне особое удовольствие.
Также в работе использовались
kling
nanobanana pro
qwen
Flux
А эротические и другие сцены локально в wan 2.2. И LTX 2.3
Монтаж Adobe premiere pro
Так как это был личный творческий проект, который я делала в свободное время ушло где то месяца 4.
Бюджет 10$ мес подписки на Suno
Годовая подписка на kling (уже была)
Sora2, wan, ltx - бесплатно.
@cgevent
Мини-сериал «Алгоритм любви»
Автор: Cyberbarbie
https://t.iss.one/cyberbarbiee
Посмотреть весь сериал можно по ссылке https://youtu.be/8xs29BaNWoA?si=NLfzLO6ZIB2njFKv
Задача: Создать сериал (по объему он вышел как короткометражный фильм) внедрить Ии генерации в реальные съемки не только через форму, но и через содержание.
Сюжет:
В будущем, где нейроинтерфейсы позволяют проживать любую фантазию, измена больше не требует прикосновений.
Лера - молодая девушка, которая страдает от одиночества в браке. Пока её муж Дмитрий корпит над очередным проектом, Лера заводит виртуальный роман с Ии компаньоном.
Лера приобретает инновационный нейроинтерфейс с полным сенсорным замещением. Эта технология позволяет Лере погрузиться в виртуальные миры, сгенерированные на основе её самых сокровенных желаний.
я откровенно признаюсь, что не стала сильно изобретать и решила эксплуатировать довольно известную тему отношений с Ии. Я хотела чтобы и я, и нейросети справились с поставленными задачами, а также из актеров я располагала только своим парнем.
Но конечно это на самом деле не совсем обычная история о любви с Ии. И персонажи не так просты, как кажутся. Если я буду снимать второй сезон( который под большим вопросом) Я бы хотела добавить больше оригинальности сюжету, драматизма и показать альтернативный взгляд на любовь.
Пайплайн
Процесс создания строился нетипичным образом.
Главным инструментом была Sora 2(по которой я теперь непомерно скорблю) и основная работа была сделана там. Конечно она генерирует мимо режиссерского промпта, но я могла одну сцену собирать и перемонтировать и по необходимости перегенерировать скриншоты и собирать что-то внятное из кучи несусветицы.
Также использовалось внедрение несуществующих объектов голограмм, предметов в реальный мир. Это делалось через nano banana и последующая анимация кадра.
Главной проблемой была генерация моего лица - не только в Sora, во всех Ии по какой-то таинственной причине генерируется плохо.
Зато мой Ии любовник Артем созданный в Sora через загрузку эскиза отлично получался почти на всех генерациях.
Второй проблемой был голос. Который ещё как ии помощник звучал сносно, но как человек странно. Поэтому я искала людей чтобы мне записали несколько фраз и потом в elevenlabs я меняла голос но сохраняла интонацию.
Очень я старалась над саундтреком, что оформила подписку на Suno. Создание саундтрека принесло мне особое удовольствие.
Также в работе использовались
kling
nanobanana pro
qwen
Flux
А эротические и другие сцены локально в wan 2.2. И LTX 2.3
Монтаж Adobe premiere pro
Так как это был личный творческий проект, который я делала в свободное время ушло где то месяца 4.
Бюджет 10$ мес подписки на Suno
Годовая подписка на kling (уже была)
Sora2, wan, ltx - бесплатно.
@cgevent
👎70👍15😁9😱6❤5
This media is not supported in your browser
VIEW IN TELEGRAM
А теперь про стриминг сплатов на разные устройства.
Поглядите на эти трехмерные видео на основе сплатов: качество, облет камеры, любые ракурсы.
Как пишет мне Андрей Володин из gracia.ai:
"Мы добежали до стриминга сплатов! работает на каналах 75мбпс и рендерится в браузере, даже в WebXR и даже на Apple Vision Pro/Quest 3."
"Удалось впихнуть наш вольюметрический кодек в 75Mbps битрейт. Помню, как в начале проекта увиливал от вопросов инвесторов про трансляции и сам не особо верил, что мы до них добежим. Теперь это в моём айфоне.
В одном релизе сделали CDN инфру для раздачи видео по всему миру, рендеринг в браузере (даже в WebXR), пространственное аудио и даже зачатки релайтинга!"
Посмотрите примеры и почитайте про устройства захвата тут:
https://store.gracia.ai
@cgevent
Поглядите на эти трехмерные видео на основе сплатов: качество, облет камеры, любые ракурсы.
Как пишет мне Андрей Володин из gracia.ai:
"Мы добежали до стриминга сплатов! работает на каналах 75мбпс и рендерится в браузере, даже в WebXR и даже на Apple Vision Pro/Quest 3."
"Удалось впихнуть наш вольюметрический кодек в 75Mbps битрейт. Помню, как в начале проекта увиливал от вопросов инвесторов про трансляции и сам не особо верил, что мы до них добежим. Теперь это в моём айфоне.
В одном релизе сделали CDN инфру для раздачи видео по всему миру, рендеринг в браузере (даже в WebXR), пространственное аудио и даже зачатки релайтинга!"
Посмотрите примеры и почитайте про устройства захвата тут:
https://store.gracia.ai
@cgevent
🔥39👍31❤2👎2😱2
Продолжаю отмечать каналы, в которых живёт автор, а не агрегатор RSS-лент.
@countwithsasha ведёт Саша Поляков — 20 лет в интернет-рекламе, 10 лет в коде. Своё агентство по контексту, параллельно строит ИИ-агентов под собственные рабочие задачи. Поэтому в канале не пересказы анонсов OpenAI, а конкретные кейсы и грабли из практики.
В канале три направления:
📁 Скиллы для маркетологов. Папка навыков для Яндекс.Директа, Метрики, Вебмастера, Wordstat и поисковой выдачи Яндекса. Самый сохраняемый пост — про скилл для Wordstat, его положили в закладки больше тысячи раз.
🛒 Агентная коммерция в российских реалиях. Подготовка компаний к OpenClaw и подобным сценариям, разбор протоколов, тесты на живых сервисах.
🧩 База по агентам и скиллам. Когда нужен скилл, а когда MCP или CLI. Что как организовать, если работу, чтобы агент не уставал на длинных сессиях.
Наткнулся через рекомендацию чек-листа по скиллам. Посмотрел последние пару месяцев, есть хорошие посты. Несколько постов, которые лично мне зашли, репостить их уже позно, а в подборку в самый раз:
🔸 Домашний ИИ-бот, который заказывает продукты из ВкусВилл
🔸 Анатомия скилла для ИИ-агентов: что класть в какую папку
🔸 Расширение Яндекс.Вордстат: аудит рекламных кампаний через Claude
🔸 Три протокола агентной коммерции: кто кого контролирует
🔸 Скилл для оценки видимости сайта в Алисе
🔸 Почему Claude не должен проверять код Claude
🔸 5 граблей OpenClaw, на которые Саша наступил за вас
@countwithsasha — про AI, код и кейсы, без копипаста чужих анонсов.
@countwithsasha ведёт Саша Поляков — 20 лет в интернет-рекламе, 10 лет в коде. Своё агентство по контексту, параллельно строит ИИ-агентов под собственные рабочие задачи. Поэтому в канале не пересказы анонсов OpenAI, а конкретные кейсы и грабли из практики.
В канале три направления:
📁 Скиллы для маркетологов. Папка навыков для Яндекс.Директа, Метрики, Вебмастера, Wordstat и поисковой выдачи Яндекса. Самый сохраняемый пост — про скилл для Wordstat, его положили в закладки больше тысячи раз.
🛒 Агентная коммерция в российских реалиях. Подготовка компаний к OpenClaw и подобным сценариям, разбор протоколов, тесты на живых сервисах.
🧩 База по агентам и скиллам. Когда нужен скилл, а когда MCP или CLI. Что как организовать, если работу, чтобы агент не уставал на длинных сессиях.
Наткнулся через рекомендацию чек-листа по скиллам. Посмотрел последние пару месяцев, есть хорошие посты. Несколько постов, которые лично мне зашли, репостить их уже позно, а в подборку в самый раз:
🔸 Домашний ИИ-бот, который заказывает продукты из ВкусВилл
🔸 Анатомия скилла для ИИ-агентов: что класть в какую папку
🔸 Расширение Яндекс.Вордстат: аудит рекламных кампаний через Claude
🔸 Три протокола агентной коммерции: кто кого контролирует
🔸 Скилл для оценки видимости сайта в Алисе
🔸 Почему Claude не должен проверять код Claude
🔸 5 граблей OpenClaw, на которые Саша наступил за вас
@countwithsasha — про AI, код и кейсы, без копипаста чужих анонсов.
Telegram
Поляков считает: AI, код и кейсы
Домашний ИИ-бот, который заказывает продукты из ВкусВилл
С нового года хотел попробовать MCP-сервер ВкусВилл и OpenClaw — open-source фреймворк (181k+ звёзд на GitHub), который превращает LLM в Telegram-бота с навыками.
Вчера Даша сказала: нужен бот в чат…
С нового года хотел попробовать MCP-сервер ВкусВилл и OpenClaw — open-source фреймворк (181k+ звёзд на GitHub), который превращает LLM в Telegram-бота с навыками.
Вчера Даша сказала: нужен бот в чат…
👎23👍12❤7
Клод идет в креативные приложения и вонзает в Блендор.
Вчера интернетик приподвскипел новостью о том, что Антропики стали спонсорами Блендора. У Блендора много спонсоров - например, Epic\UE - но среди ИИ-компаний, это наверное первый случай. Зачем это Антропику? Остается только гадать - ибо код Блендора открыт, как и любая документация. Может быть для более плотного взаимодействия с командой Блендора для полировки Blender-коннектора.
Но вчера же Антропики бахнули целый выводок коннекторов для различных приложений:
Adobe Creative Cloud, Ableton, Splice, Canva Affinity, SketchUp, Resolume.
Photoshop. Lightroom. Illustrator. Firefly. Premiere. Express. InDesign. Stock. (тут интересно про Firefly)
И новый коннектор для Блендора.
Поглядите видосы (особенно про Fusion), чтобы оценить как это работает.
Одно из применений - это конечно код: вы можете попросить его создать пользовательский шейдер, написать скрипт для процедурной анимации или сгенерировать параметрические модели, и он создаст документированный код, который вы сможете повторно использовать и модифицировать.
Также это автоматизация, пакетная обработка, повторяющиеся задачи.
И написание своих инструментов с встраиванием их внутрь софта. Когда-то успех Maya был связан именно с этим (Maya MEL). А теперь, получается, можно делать это на русском языке внутри любого софта, имеющего коннектор.
В общем Антропик делает очень правильные шаги.
Вот только лого у них, конечно, ужасное))
Подробнее тут:
https://www.anthropic.com/news/claude-for-creative-work
@cgevent
Вчера интернетик приподвскипел новостью о том, что Антропики стали спонсорами Блендора. У Блендора много спонсоров - например, Epic\UE - но среди ИИ-компаний, это наверное первый случай. Зачем это Антропику? Остается только гадать - ибо код Блендора открыт, как и любая документация. Может быть для более плотного взаимодействия с командой Блендора для полировки Blender-коннектора.
Но вчера же Антропики бахнули целый выводок коннекторов для различных приложений:
Adobe Creative Cloud, Ableton, Splice, Canva Affinity, SketchUp, Resolume.
Photoshop. Lightroom. Illustrator. Firefly. Premiere. Express. InDesign. Stock. (тут интересно про Firefly)
И новый коннектор для Блендора.
Поглядите видосы (особенно про Fusion), чтобы оценить как это работает.
Одно из применений - это конечно код: вы можете попросить его создать пользовательский шейдер, написать скрипт для процедурной анимации или сгенерировать параметрические модели, и он создаст документированный код, который вы сможете повторно использовать и модифицировать.
Также это автоматизация, пакетная обработка, повторяющиеся задачи.
И написание своих инструментов с встраиванием их внутрь софта. Когда-то успех Maya был связан именно с этим (Maya MEL). А теперь, получается, можно делать это на русском языке внутри любого софта, имеющего коннектор.
В общем Антропик делает очень правильные шаги.
Вот только лого у них, конечно, ужасное))
Подробнее тут:
https://www.anthropic.com/news/claude-for-creative-work
@cgevent
❤36👍16👎8🔥7😁2
This media is not supported in your browser
VIEW IN TELEGRAM
Netflix Vista 4D: переснимем на посте.
Интересная работа от Нетфликс (мне жутко интересно, они это уже используют внутри?).
Это пересниматор.
На входе видео. Потом создается 3Д-реконструкция сцены в виде облака точек. И это уже не просто статичная сцена, это как щас модно писать 4Д-сцена: просто 3Д с анимацией внутри.
Ну то есть это грубо говоря, генератор мира.
Далее в этом мире, коль скоро он в 3Д, выставляется другая камера, делается черновой пререндер и он уже кормится в video diffusion model (как V2V) для чистовой генерации финальной сцены, снятой с другого ракурса.
Это не первая такая работа: были уже ReCamMaster, CamCloneMaster
Тут интересно, что в авторах Netflix. И что это полный опенсорс.
Как я понял, в качестве чистового рендера используется Wan-2.1 I2V 14B. Разрешение только 720p. Также они умеют сшивать чанки из генераций в длинные видеоклипы.
Обязательно посмотрите материал по ссылке:
https://eyeline-labs.github.io/Vista4D/
@cgevent
Интересная работа от Нетфликс (мне жутко интересно, они это уже используют внутри?).
Это пересниматор.
На входе видео. Потом создается 3Д-реконструкция сцены в виде облака точек. И это уже не просто статичная сцена, это как щас модно писать 4Д-сцена: просто 3Д с анимацией внутри.
Ну то есть это грубо говоря, генератор мира.
Далее в этом мире, коль скоро он в 3Д, выставляется другая камера, делается черновой пререндер и он уже кормится в video diffusion model (как V2V) для чистовой генерации финальной сцены, снятой с другого ракурса.
Это не первая такая работа: были уже ReCamMaster, CamCloneMaster
Тут интересно, что в авторах Netflix. И что это полный опенсорс.
Как я понял, в качестве чистового рендера используется Wan-2.1 I2V 14B. Разрешение только 720p. Также они умеют сшивать чанки из генераций в длинные видеоклипы.
Обязательно посмотрите материал по ссылке:
https://eyeline-labs.github.io/Vista4D/
@cgevent
🔥46❤18😱5
StAItial AI Echo 2. Генератор миров. Пока бесплатный.
Я уже писал про них в декабре
Тогда была запись в вейтлист, сейчас работает для всех. И я не понял, где подвох, логинитесь гуглом, а потом с вас не просят денег.
Генерация мира занимает 6-8 минут.
Для просмотра в браузере используются сплаты (то есть это не просто видео), экспортить можно в меши и облака точек. Правда я нашел только скачивание в PLY.
На входе одна картинка, на выходе мир.
Во второй версии сильно подтянули качество картинки и утверждают, что консистентность мира заложена в сам дизайн модели. Хех, результат в след посте.
До полноценных игровых миров наверное далековато, а вот для тренировки робатов (с чем, собственно, и связан бум генераторов миров), сгодицца.
Плюс обещают API - поэтому появляются возможности для встраивания в приложения тира продажи недвиги.
В общем на рынке генераторов сейчас прям горячо.
@cgevent
Я уже писал про них в декабре
Тогда была запись в вейтлист, сейчас работает для всех. И я не понял, где подвох, логинитесь гуглом, а потом с вас не просят денег.
Генерация мира занимает 6-8 минут.
Для просмотра в браузере используются сплаты (то есть это не просто видео), экспортить можно в меши и облака точек. Правда я нашел только скачивание в PLY.
На входе одна картинка, на выходе мир.
Во второй версии сильно подтянули качество картинки и утверждают, что консистентность мира заложена в сам дизайн модели. Хех, результат в след посте.
До полноценных игровых миров наверное далековато, а вот для тренировки робатов (с чем, собственно, и связан бум генераторов миров), сгодицца.
Плюс обещают API - поэтому появляются возможности для встраивания в приложения тира продажи недвиги.
В общем на рынке генераторов сейчас прям горячо.
@cgevent
1❤19👍7
StAItial AI Echo 2. Тестируем на хомяках.
Точнее на белках. Скормил туда свою тварь. За 7 минут мир был сгенерирован.
Вот можете полюбовацца.
https://app.spaitial.ai/worlds/9435330d-eb2b-44f5-b523-967598928aeb
У них довольно медленный и багованный вьюер сплатов в браузере. Особенно после того, что я постил вчера и сегодня.
Также не работает экспорт в PLY, не смог оценить облако точек. Но есть экспорт в 360-панораму.
Также, если потыкать в настройки камеры и рендеринга, то там все довольно продвинуто.
А если сгенерить видео-облет, то качество становится действительно улучшенным.
В общем это крэш-тест, конечно. Пихать меховых усатых тварей в 3Д-движок - негуманно.
Забавно, что он сгенерил какой-то морской бой на заднем плане, попал в контекст.
В общем, на первый взляд плохо, а на второй - хорошо.
И бесплатно.
@cgevent
Точнее на белках. Скормил туда свою тварь. За 7 минут мир был сгенерирован.
Вот можете полюбовацца.
https://app.spaitial.ai/worlds/9435330d-eb2b-44f5-b523-967598928aeb
У них довольно медленный и багованный вьюер сплатов в браузере. Особенно после того, что я постил вчера и сегодня.
Также не работает экспорт в PLY, не смог оценить облако точек. Но есть экспорт в 360-панораму.
Также, если потыкать в настройки камеры и рендеринга, то там все довольно продвинуто.
А если сгенерить видео-облет, то качество становится действительно улучшенным.
В общем это крэш-тест, конечно. Пихать меховых усатых тварей в 3Д-движок - негуманно.
Забавно, что он сгенерил какой-то морской бой на заднем плане, попал в контекст.
В общем, на первый взляд плохо, а на второй - хорошо.
И бесплатно.
@cgevent
👍19👎6🔥5❤2