BLACKTRACED
Seedance 1.0: Новая видеомодель в Dreamina Ого, а там оказывается ByteDance уже потихоньку выкатывают свою новую модель для Dreamina! И да, это намного лучше, чем тот видеогенератор, что у них был. 😨 Самое главное: оно умеет генерировать несколько консистентных…
Dreamina выпустили Video 3.0 Pro модель Seedance
К релизу они сделали небольшое нарративное демо и ролик с промптами, как генерились шоты (оба прикреплены). Перейду сразу к главному:
🟠 Доступно только платным подписчикам;
🟠 Video 3.0 Pro, судя по демо, не генерирует "несколько ракурсов одной сцены" сразу в одной генерации, а максимум две — это прописывается в промпте;
🟠 Видимо, работает как и Seedream 3.0 (эстетика картинки прям 1-в-1), то есть, консистентность локаций и персонажей в разных генерациях достигается за счёт детального описания в промпте;
🟠 Качество генераций 720p;
🟠 Поддержка img-to-vid и txt-to-vid, 5 и 10 секунд на выбор;
🟠 Не умеет генерить сразу со звуком как Veo3.
😳 BLACKTRACED
К релизу они сделали небольшое нарративное демо и ролик с промптами, как генерились шоты (оба прикреплены). Перейду сразу к главному:
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
1 5❤3👏2🔥1
This media is not supported in your browser
VIEW IN TELEGRAM
YouTube решил давить слопперов!
YouTube сделали заявление, что с 15 июля перестанет платить авторам низкокачественного помойного AI-контента, который создаётся максимально быстро, дёшево и при минимальных усилиях.
Площадка подчёркивает, что это не означает полный запрет на AI-контент, по их собственным данным, 92% креаторов используют генеративные инструменты для создания своих видео. AI-контент остаётся приемлемым. YouTube хочет поддерживать настоящих авторов с реальными идеями, чьи работы обладают очевидной авторской и творческой ценностью, даже если при их создании использовались нейронки.
В январе этого года YouTube активно поддерживал AI-контент и его авторов. Это привело к тому, что появились тысячи (если не десятки или сотни тысяч) каналов с однообразным автоматизированным AI-слопом, который повалил как спам изо всех щелей, а благодаря поощряющим алгоритмам площадки — давал их авторам миллионы просмотров и подписчиков, соответственно недурно приплачивая за этот мусор.
К июню, только четыре крупнейших AI-слоп канала суммарно набрали более 23 млн подписчиков и 800 млн просмотров. А сколько всего подобных каналов? По итогу, уже не только пользователи, но и рекламодатели начали жаловаться, что площадка буквально перегружена однообразным контентом, который не несёт никакой ценности.
YouTube решил ударить по самым больным местам слопперов — по деньгам и охватам.
Новость однозначно хорошая. Цук, бери на заметку.
😳 BLACKTRACED
YouTube сделали заявление, что с 15 июля перестанет платить авторам низкокачественного помойного AI-контента, который создаётся максимально быстро, дёшево и при минимальных усилиях.
Площадка подчёркивает, что это не означает полный запрет на AI-контент, по их собственным данным, 92% креаторов используют генеративные инструменты для создания своих видео. AI-контент остаётся приемлемым. YouTube хочет поддерживать настоящих авторов с реальными идеями, чьи работы обладают очевидной авторской и творческой ценностью, даже если при их создании использовались нейронки.
В январе этого года YouTube активно поддерживал AI-контент и его авторов. Это привело к тому, что появились тысячи (если не десятки или сотни тысяч) каналов с однообразным автоматизированным AI-слопом, который повалил как спам изо всех щелей, а благодаря поощряющим алгоритмам площадки — давал их авторам миллионы просмотров и подписчиков, соответственно недурно приплачивая за этот мусор.
К июню, только четыре крупнейших AI-слоп канала суммарно набрали более 23 млн подписчиков и 800 млн просмотров. А сколько всего подобных каналов? По итогу, уже не только пользователи, но и рекламодатели начали жаловаться, что площадка буквально перегружена однообразным контентом, который не несёт никакой ценности.
YouTube решил ударить по самым больным местам слопперов — по деньгам и охватам.
Новость однозначно хорошая. Цук, бери на заметку.
Please open Telegram to view this post
VIEW IN TELEGRAM
10🔥8 3❤2❤🔥1👏1
Luma AI приближается к Голливуду
Luma анонсировали свою новую "творческую инициативу" — Dream Lab LA, коворкинг-центр/студию в Лос-Анджелесе, куда хотят приглашать как ветеранов Голливуда, так и начинающих филммейкеров, сценаристов и просто энтузиастов, чтобы вместе сформировать новую эру сторителлинга, а также переосмыслить подход к созданию кино, модернизируя пайплайны.
Главой Dream Lab LA назначили некую Верену Пам — продюсера с BBC и CNN. А вот руководителем творческих процессов взяли хорошо знакомого братишку Джона Фингера (его тесты нейронок мы любим и смотрим).
Лаба станет своего рода комбинированным местом для встреч, совместной работы и обучения, где творческие люди смогут проводить совместные R&D, чтобы придумать, как с помощью инструментов Luma AI можно бустануть кинопроизводство.
Как заявляет The Hollywood Reporter, Luma имеет неофициальные договоренности с рядом крупных голливудских студий об использовании своих инструментов:
😳 BLACKTRACED
Luma анонсировали свою новую "творческую инициативу" — Dream Lab LA, коворкинг-центр/студию в Лос-Анджелесе, куда хотят приглашать как ветеранов Голливуда, так и начинающих филммейкеров, сценаристов и просто энтузиастов, чтобы вместе сформировать новую эру сторителлинга, а также переосмыслить подход к созданию кино, модернизируя пайплайны.
Главой Dream Lab LA назначили некую Верену Пам — продюсера с BBC и CNN. А вот руководителем творческих процессов взяли хорошо знакомого братишку Джона Фингера (его тесты нейронок мы любим и смотрим).
Лаба станет своего рода комбинированным местом для встреч, совместной работы и обучения, где творческие люди смогут проводить совместные R&D, чтобы придумать, как с помощью инструментов Luma AI можно бустануть кинопроизводство.
Как заявляет The Hollywood Reporter, Luma имеет неофициальные договоренности с рядом крупных голливудских студий об использовании своих инструментов:
Большая часть результатов пока находится на стадии производства, но ожидайте, что в ближайший год в ваших любимых фильмах и телешоу появится гораздо больше AI-контента.
Please open Telegram to view this post
VIEW IN TELEGRAM
1❤9 2⚡1🔥1
This media is not supported in your browser
VIEW IN TELEGRAM
Higgsfield интегрировали к себе Veo3
Разрабы из Higgsfield продолжают внедрять в свой сервис всё больше и больше инструментов для креаторов, вот теперь настало время Veo3. Доступно только платным подписчикам планов Pro и Ultimate.
Пара важных моментов:
🟠 Работает только в режиме image-to-video, если попробовать сгенерить текстовым промптом, выдаст ошибку "Start frame required";
🟠 Пресеты движения камеры Higgsfield не совместимы с Veo3 (по крайней мере пока). Если выберете какой-то определённый пресет, то Вас автоматически переключит на стандартную видеомодель.
Сам же Veo3 какой и везде: видео генерятся по 8 секунд, липсинки и звук на месте (русская речь поддерживается). И те самые две модели: обычная более дорогая и бюджетный Fast. По ценам за одну генерацию обстановка следующая:
🟠 Veo3 Fast — 70 кредитсов;
🟠 Veo3 — 130 кредитсов.
higgsfield.ai
😳 BLACKTRACED
Разрабы из Higgsfield продолжают внедрять в свой сервис всё больше и больше инструментов для креаторов, вот теперь настало время Veo3. Доступно только платным подписчикам планов Pro и Ultimate.
Пара важных моментов:
Сам же Veo3 какой и везде: видео генерятся по 8 секунд, липсинки и звук на месте (русская речь поддерживается). И те самые две модели: обычная более дорогая и бюджетный Fast. По ценам за одну генерацию обстановка следующая:
higgsfield.ai
Please open Telegram to view this post
VIEW IN TELEGRAM
❤9🤔3⚡1 1
This media is not supported in your browser
VIEW IN TELEGRAM
Intangible AI: Новый стартап с попыткой дать контроль над генерациями с помощью 3D
Выходцы из Pixar, Apple, Unity и Google сделали новый веб-инструмент, по сути, завернув тот пайплайн в один сервис, который я пробовал ещё в прошлом году с помощью Blender и функции Retexture в Midjourney.
Если прям кратко: в Blender я собирал сцену из ассетов, ставил свет и камеру как мне нужно, рендерил сцену без текстур, затем кидал это в Retexture Midjourney, чтобы он "раскрасил" мою сырую болванку в финальное изображение. Это всё в рамках попыток показать конкретного персонажа в конкретной сцене с разных ракурсов. Результаты оставляли желать лучшего.
Этот Intangible представляет собой то же самое: это упрощённый браузерный 3D-софт, с возможностью сгенерировать нужные объекты и персонажей (либо выбрать из 5000 готовых ассетов), собрать из них сцену, выставить камеру и формат кадра.
Финальное изображение генерим скорее всего на Flux/Flux Kontext у которого несколько пресетов по стилю: Photorealism, Digital Painting, Horror, 3D Cartoon, Graphic Novel, Ink Illustration, Anime, Noir.
Оживить свой кадр в этом сервисе можно с помощью Kling 2.0 Master или 2.1 (Standard, Pro, Master).
Сама по себе идея годная, но на деле это дикая дрочня ради результатов средней паршивости без чёткой консистентности. Да и опробовавшие сервис говорят, что штука довольно слабая.
Пока что открытая бета до 31 июля. На генерации видео с Kling есть жёсткие лимиты (кредитсов буквально хватит на 2-3 видео). Кому интересно:
intangible.ai
😳 BLACKTRACED
Выходцы из Pixar, Apple, Unity и Google сделали новый веб-инструмент, по сути, завернув тот пайплайн в один сервис, который я пробовал ещё в прошлом году с помощью Blender и функции Retexture в Midjourney.
Если прям кратко: в Blender я собирал сцену из ассетов, ставил свет и камеру как мне нужно, рендерил сцену без текстур, затем кидал это в Retexture Midjourney, чтобы он "раскрасил" мою сырую болванку в финальное изображение. Это всё в рамках попыток показать конкретного персонажа в конкретной сцене с разных ракурсов. Результаты оставляли желать лучшего.
Этот Intangible представляет собой то же самое: это упрощённый браузерный 3D-софт, с возможностью сгенерировать нужные объекты и персонажей (либо выбрать из 5000 готовых ассетов), собрать из них сцену, выставить камеру и формат кадра.
Финальное изображение генерим скорее всего на Flux/Flux Kontext у которого несколько пресетов по стилю: Photorealism, Digital Painting, Horror, 3D Cartoon, Graphic Novel, Ink Illustration, Anime, Noir.
Оживить свой кадр в этом сервисе можно с помощью Kling 2.0 Master или 2.1 (Standard, Pro, Master).
Сама по себе идея годная, но на деле это дикая дрочня ради результатов средней паршивости без чёткой консистентности. Да и опробовавшие сервис говорят, что штука довольно слабая.
Пока что открытая бета до 31 июля. На генерации видео с Kling есть жёсткие лимиты (кредитсов буквально хватит на 2-3 видео). Кому интересно:
intangible.ai
Please open Telegram to view this post
VIEW IN TELEGRAM
2❤7🤔3 2🔥1
Forwarded from Ai Filmmaker
This media is not supported in your browser
VIEW IN TELEGRAM
Runway Act-Two - Новый уровень Ai full body mocap
Буквально несколько часов назад Runway ограниченно открыла доступ к своей новой модели захвата движения Act-Two.
Обещают более высокое качество и контроль не только лица, но и головы, тела и отслеживание рук.
Пока доступно подписчикам Enterprise и креативным партнерам, скоро откроют для всех. Так что пока китайцы всех дразнят демками, Runway кормит!
Ai Filmmaker подписаться.
Буквально несколько часов назад Runway ограниченно открыла доступ к своей новой модели захвата движения Act-Two.
Обещают более высокое качество и контроль не только лица, но и головы, тела и отслеживание рук.
Пока доступно подписчикам Enterprise и креативным партнерам, скоро откроют для всех. Так что пока китайцы всех дразнят демками, Runway кормит!
Ai Filmmaker подписаться.
🔥12❤4 4⚡1
This media is not supported in your browser
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
В Midjourney теперь можно зацикливать видео и добавлять финальный кадр (Loop и End Frame)
Показываю пачку сырых тестов. С Loop интересно было попробовать создать бесконечно-продолжающееся действие. Ну к примеру: мотоциклист бесконечно едет вперёд, бесконечная толпа зомбарей плетётся, в таком духе.
Результаты, в целом, ожидаемые. Если изначально композиция предрасположена для лупа, у MJ получается лучше, но шов всё-равно заметный, особенно если на начальном кадре есть определённая фактура типа плёночного зерна, аберраций или всратость VHS. Если это что-то "сложное" по композиции и действию (толпа зомби), то тут уже не без косяков и всяких странностей. Самое частое явление — объекты просто движутся на месте (на видосе с рыбой та же проблема).
End Frame неплох тем, что пытается сшить в одно "логичное" действие даже совершенно разные изображения по композиции, формату и освещению. Для одного теста я взял пару разных фоток с Pinterest и MJ неплохо их склеил (естественно, если не обращать внимание на кривое действие). Самое важное, что это не джамп-кат через мазню и грязь, как это зачастую делает Kling или Sora. Соответственно, если оба кадра не сильно отличаются, результат лучше, но визуальных багов в любом случае достаточно.
Работает конечно не идеально, но как будто можно выдавить что-то качественное, поэтому будет интересно поэкспериментировать и поискать творческие решения.
UPD: Получилось-таки зомбей сделать, но со статичной камерой. Первую версию закинул в комменты.
😳 BLACKTRACED
Показываю пачку сырых тестов. С Loop интересно было попробовать создать бесконечно-продолжающееся действие. Ну к примеру: мотоциклист бесконечно едет вперёд, бесконечная толпа зомбарей плетётся, в таком духе.
Результаты, в целом, ожидаемые. Если изначально композиция предрасположена для лупа, у MJ получается лучше, но шов всё-равно заметный, особенно если на начальном кадре есть определённая фактура типа плёночного зерна, аберраций или всратость VHS. Если это что-то "сложное" по композиции и действию (толпа зомби), то тут уже не без косяков и всяких странностей. Самое частое явление — объекты просто движутся на месте (на видосе с рыбой та же проблема).
End Frame неплох тем, что пытается сшить в одно "логичное" действие даже совершенно разные изображения по композиции, формату и освещению. Для одного теста я взял пару разных фоток с Pinterest и MJ неплохо их склеил (естественно, если не обращать внимание на кривое действие). Самое важное, что это не джамп-кат через мазню и грязь, как это зачастую делает Kling или Sora. Соответственно, если оба кадра не сильно отличаются, результат лучше, но визуальных багов в любом случае достаточно.
Работает конечно не идеально, но как будто можно выдавить что-то качественное, поэтому будет интересно поэкспериментировать и поискать творческие решения.
UPD: Получилось-таки зомбей сделать, но со статичной камерой. Первую версию закинул в комменты.
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
2🔥17❤7👏3 3⚡1
This media is not supported in your browser
VIEW IN TELEGRAM
Runway показали Aleph, типа Flux Kontext для видео
Разрабы в Runway решили сделать это лето максимально насыщенным на жирные дропы. Сперва Act Two, теперь они представили свою новую контекстуальную модель Aleph. Выкатывать будут волнами совсем скоро, первыми получат доступ CPP и подписчики плана Enterprise.
Что можно делать с Aleph:
🟠 Генерировать новые углы камеры
Закидываете своё видео, пишете простейший промпт в духе "Generate a close-up shot of the subject", получаете результат;
🟠 Сгенерировать следующий шот
На основе Вашего видео генерирует контекстуально подходящее продолжение, достаточно просто спросить "Generate a next shot";
🟠 Менять визуал встроенным Style Transfer
Кидаете желаемый референс и просите Aleph применить этот стиль или эстетику к Вашему видео;
🟠 Сменить локацию, окружение, время суток и время года
Aleph попытается перерисовать Ваше видео, сохранив все важные изначальные объекты и движение;
🟠 Добавить, удалить и заменить объекты
Сменить тачку на карету с лошадьми, поменять цвет объекта на определённый, удалить отражения на стекле, добавить дополнительных персонажей — всё это делается по простейшим промптам;
🟠 Переносить движения с видео на статичное изображение
Короче свой Motion Transfer. Всё что нужно — видео, с которого Вы хотите перенести движение и картинка, на которую это движение применить;
🟠 Менять внешность персонажам
Омолодить или состарить персонажей теперь не проблема или вообще сменить лицо на другого актёра;
🟠 Управлять освещением (Relight)
Aleph попытается поменять естественным образом освещение по всей сцене, изменяя тени, отражения и цветовую температуру в соответствии с Вашим запросом;
🟠 Сделать из любого видео Green Screen-футаж
Да, можно взять видео, которое НЕ было снято на зелёном экране и навалить это через Aleph.
Все примеры можно увидеть на странице анонса. Важно понимать, что это всё — витрина, плюс для примеров были использованы реально снятые видео. Поэтому, насколько хорошо оно будет работать не только со снятыми, но и со сгенерированными видосами, узнаем когда сможем прикоснуться.
😳 BLACKTRACED
Разрабы в Runway решили сделать это лето максимально насыщенным на жирные дропы. Сперва Act Two, теперь они представили свою новую контекстуальную модель Aleph. Выкатывать будут волнами совсем скоро, первыми получат доступ CPP и подписчики плана Enterprise.
Что можно делать с Aleph:
Закидываете своё видео, пишете простейший промпт в духе "Generate a close-up shot of the subject", получаете результат;
На основе Вашего видео генерирует контекстуально подходящее продолжение, достаточно просто спросить "Generate a next shot";
Кидаете желаемый референс и просите Aleph применить этот стиль или эстетику к Вашему видео;
Aleph попытается перерисовать Ваше видео, сохранив все важные изначальные объекты и движение;
Сменить тачку на карету с лошадьми, поменять цвет объекта на определённый, удалить отражения на стекле, добавить дополнительных персонажей — всё это делается по простейшим промптам;
Короче свой Motion Transfer. Всё что нужно — видео, с которого Вы хотите перенести движение и картинка, на которую это движение применить;
Омолодить или состарить персонажей теперь не проблема или вообще сменить лицо на другого актёра;
Aleph попытается поменять естественным образом освещение по всей сцене, изменяя тени, отражения и цветовую температуру в соответствии с Вашим запросом;
Да, можно взять видео, которое НЕ было снято на зелёном экране и навалить это через Aleph.
Все примеры можно увидеть на странице анонса. Важно понимать, что это всё — витрина, плюс для примеров были использованы реально снятые видео. Поэтому, насколько хорошо оно будет работать не только со снятыми, но и со сгенерированными видосами, узнаем когда сможем прикоснуться.
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥12⚡3 3❤🔥2❤2
This media is not supported in your browser
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
Разрабы из Google Labs нашли интересный способ промптить в Veo 3
Вчера разработчики из Google Labs опубликовали у себя в X случайную интересную находку: вместо того, чтобы придумывать идеальный промпт для Veo 3, они решили прямо на входном изображении написать заметки, что и как должно происходить в кадре (результат на первом видео).
Самое интересное — Veo 3 распознаёт этот текст Ваших заметок и воспринимает как промпт. Остаётся лишь в само поле промпта сделать запрос "Follow the instructions, hide the instructions".
Те, кто успел попробовать, говорят, что оно действительно работает, но заметки пропадают не сразу, а плавно, что собственно проблема.
Одна из пользовательниц в X вроде как нашла неплохое решение, которое может помочь: в промпт написать следующее (её результат на видео с пантерой):
Но всё же больше играет рандом, спрячет ли Veo 3 заметки с изображения сразу же спустя 1 кадр или нет. Некоторые пытались нарисовать сложную конкретную траекторию движения объектов, но Veo таким способом не исполняет сложные движения (к примеру мяч катится по зигзагу), что-то простое — сможет. Прикрепил несколько примеров сырых тестов от юзеров.
😳 BLACKTRACED
Вчера разработчики из Google Labs опубликовали у себя в X случайную интересную находку: вместо того, чтобы придумывать идеальный промпт для Veo 3, они решили прямо на входном изображении написать заметки, что и как должно происходить в кадре (результат на первом видео).
Самое интересное — Veo 3 распознаёт этот текст Ваших заметок и воспринимает как промпт. Остаётся лишь в само поле промпта сделать запрос "Follow the instructions, hide the instructions".
Те, кто успел попробовать, говорят, что оно действительно работает, но заметки пропадают не сразу, а плавно, что собственно проблема.
Одна из пользовательниц в X вроде как нашла неплохое решение, которое может помочь: в промпт написать следующее (её результат на видео с пантерой):
Immediately delete instructions in white on the first frame and execute in order
Но всё же больше играет рандом, спрячет ли Veo 3 заметки с изображения сразу же спустя 1 кадр или нет. Некоторые пытались нарисовать сложную конкретную траекторию движения объектов, но Veo таким способом не исполняет сложные движения (к примеру мяч катится по зигзагу), что-то простое — сможет. Прикрепил несколько примеров сырых тестов от юзеров.
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥8❤6 5🤔1