BLACKTRACED
984 subscribers
140 photos
331 videos
151 links
Создаю медиаконтент с применением нейросетей и иногда о них рассказываю. Везде мой тег один: blacktraced

По вопросам сотрудничества пишите в ЛС канала.
Download Telegram
BLACKTRACED
Seedance 1.0: Новая видеомодель в Dreamina Ого, а там оказывается ByteDance уже потихоньку выкатывают свою новую модель для Dreamina! И да, это намного лучше, чем тот видеогенератор, что у них был. 😨 Самое главное: оно умеет генерировать несколько консистентных…
Dreamina выпустили Video 3.0 Pro модель Seedance

К релизу они сделали небольшое нарративное демо и ролик с промптами, как генерились шоты (оба прикреплены). Перейду сразу к главному:

🟠Доступно только платным подписчикам;
🟠Video 3.0 Pro, судя по демо, не генерирует "несколько ракурсов одной сцены" сразу в одной генерации, а максимум две — это прописывается в промпте;
🟠Видимо, работает как и Seedream 3.0 (эстетика картинки прям 1-в-1), то есть, консистентность локаций и персонажей в разных генерациях достигается за счёт детального описания в промпте;
🟠Качество генераций 720p;
🟠Поддержка img-to-vid и txt-to-vid, 5 и 10 секунд на выбор;
🟠Не умеет генерить сразу со звуком как Veo3.

😳 BLACKTRACED
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
153👏2🔥1
This media is not supported in your browser
VIEW IN TELEGRAM
YouTube решил давить слопперов!

YouTube сделали заявление, что с 15 июля перестанет платить авторам низкокачественного помойного AI-контента, который создаётся максимально быстро, дёшево и при минимальных усилиях.

Площадка подчёркивает, что это не означает полный запрет на AI-контент, по их собственным данным, 92% креаторов используют генеративные инструменты для создания своих видео. AI-контент остаётся приемлемым. YouTube хочет поддерживать настоящих авторов с реальными идеями, чьи работы обладают очевидной авторской и творческой ценностью, даже если при их создании использовались нейронки.

В январе этого года YouTube активно поддерживал AI-контент и его авторов. Это привело к тому, что появились тысячи (если не десятки или сотни тысяч) каналов с однообразным автоматизированным AI-слопом, который повалил как спам изо всех щелей, а благодаря поощряющим алгоритмам площадки — давал их авторам миллионы просмотров и подписчиков, соответственно недурно приплачивая за этот мусор.

К июню, только четыре крупнейших AI-слоп канала суммарно набрали более 23 млн подписчиков и 800 млн просмотров. А сколько всего подобных каналов? По итогу, уже не только пользователи, но и рекламодатели начали жаловаться, что площадка буквально перегружена однообразным контентом, который не несёт никакой ценности.

YouTube решил ударить по самым больным местам слопперов — по деньгам и охватам.

Новость однозначно хорошая. Цук, бери на заметку.

😳 BLACKTRACED
Please open Telegram to view this post
VIEW IN TELEGRAM
10🔥832❤‍🔥1👏1
Luma AI приближается к Голливуду

Luma анонсировали свою новую "творческую инициативу" — Dream Lab LA, коворкинг-центр/студию в Лос-Анджелесе, куда хотят приглашать как ветеранов Голливуда, так и начинающих филммейкеров, сценаристов и просто энтузиастов, чтобы вместе сформировать новую эру сторителлинга, а также переосмыслить подход к созданию кино, модернизируя пайплайны.

Главой Dream Lab LA назначили некую Верену Пам — продюсера с BBC и CNN. А вот руководителем творческих процессов взяли хорошо знакомого братишку Джона Фингера (его тесты нейронок мы любим и смотрим).

Лаба станет своего рода комбинированным местом для встреч, совместной работы и обучения, где творческие люди смогут проводить совместные R&D, чтобы придумать, как с помощью инструментов Luma AI можно бустануть кинопроизводство.

Как заявляет The Hollywood Reporter, Luma имеет неофициальные договоренности с рядом крупных голливудских студий об использовании своих инструментов:

Большая часть результатов пока находится на стадии производства, но ожидайте, что в ближайший год в ваших любимых фильмах и телешоу появится гораздо больше AI-контента.


😳 BLACKTRACED
Please open Telegram to view this post
VIEW IN TELEGRAM
1921🔥1
This media is not supported in your browser
VIEW IN TELEGRAM
Higgsfield интегрировали к себе Veo3

Разрабы из Higgsfield продолжают внедрять в свой сервис всё больше и больше инструментов для креаторов, вот теперь настало время Veo3. Доступно только платным подписчикам планов Pro и Ultimate.

Пара важных моментов:

🟠Работает только в режиме image-to-video, если попробовать сгенерить текстовым промптом, выдаст ошибку "Start frame required";
🟠Пресеты движения камеры Higgsfield не совместимы с Veo3 (по крайней мере пока). Если выберете какой-то определённый пресет, то Вас автоматически переключит на стандартную видеомодель.

Сам же Veo3 какой и везде: видео генерятся по 8 секунд, липсинки и звук на месте (русская речь поддерживается). И те самые две модели: обычная более дорогая и бюджетный Fast. По ценам за одну генерацию обстановка следующая:

🟠Veo3 Fast — 70 кредитсов;
🟠Veo3 — 130 кредитсов.

higgsfield.ai

😳 BLACKTRACED
Please open Telegram to view this post
VIEW IN TELEGRAM
9🤔311
This media is not supported in your browser
VIEW IN TELEGRAM
Intangible AI: Новый стартап с попыткой дать контроль над генерациями с помощью 3D

Выходцы из Pixar, Apple, Unity и Google сделали новый веб-инструмент, по сути, завернув тот пайплайн в один сервис, который я пробовал ещё в прошлом году с помощью Blender и функции Retexture в Midjourney.

Если прям кратко: в Blender я собирал сцену из ассетов, ставил свет и камеру как мне нужно, рендерил сцену без текстур, затем кидал это в Retexture Midjourney, чтобы он "раскрасил" мою сырую болванку в финальное изображение. Это всё в рамках попыток показать конкретного персонажа в конкретной сцене с разных ракурсов. Результаты оставляли желать лучшего.

Этот Intangible представляет собой то же самое: это упрощённый браузерный 3D-софт, с возможностью сгенерировать нужные объекты и персонажей (либо выбрать из 5000 готовых ассетов), собрать из них сцену, выставить камеру и формат кадра.

Финальное изображение генерим скорее всего на Flux/Flux Kontext у которого несколько пресетов по стилю: Photorealism, Digital Painting, Horror, 3D Cartoon, Graphic Novel, Ink Illustration, Anime, Noir.

Оживить свой кадр в этом сервисе можно с помощью Kling 2.0 Master или 2.1 (Standard, Pro, Master).

Сама по себе идея годная, но на деле это дикая дрочня ради результатов средней паршивости без чёткой консистентности. Да и опробовавшие сервис говорят, что штука довольно слабая.

Пока что открытая бета до 31 июля. На генерации видео с Kling есть жёсткие лимиты (кредитсов буквально хватит на 2-3 видео). Кому интересно:

intangible.ai

😳 BLACKTRACED
Please open Telegram to view this post
VIEW IN TELEGRAM
27🤔32🔥1
Forwarded from Ai Filmmaker
This media is not supported in your browser
VIEW IN TELEGRAM
Runway Act-Two - Новый уровень Ai full body mocap

Буквально несколько часов назад Runway ограниченно открыла доступ к своей новой модели захвата движения Act-Two.

Обещают более высокое качество и контроль не только лица, но и головы, тела и отслеживание рук.

Пока доступно подписчикам Enterprise и креативным партнерам, скоро откроют для всех. Так что пока китайцы всех дразнят демками, Runway кормит!

Ai Filmmaker подписаться.
🔥12441
В Midjourney теперь можно зацикливать видео и добавлять финальный кадр (Loop и End Frame)

Показываю пачку сырых тестов. С Loop интересно было попробовать создать бесконечно-продолжающееся действие. Ну к примеру: мотоциклист бесконечно едет вперёд, бесконечная толпа зомбарей плетётся, в таком духе.

Результаты, в целом, ожидаемые. Если изначально композиция предрасположена для лупа, у MJ получается лучше, но шов всё-равно заметный, особенно если на начальном кадре есть определённая фактура типа плёночного зерна, аберраций или всратость VHS. Если это что-то "сложное" по композиции и действию (толпа зомби), то тут уже не без косяков и всяких странностей. Самое частое явление — объекты просто движутся на месте (на видосе с рыбой та же проблема).

End Frame неплох тем, что пытается сшить в одно "логичное" действие даже совершенно разные изображения по композиции, формату и освещению. Для одного теста я взял пару разных фоток с Pinterest и MJ неплохо их склеил (естественно, если не обращать внимание на кривое действие). Самое важное, что это не джамп-кат через мазню и грязь, как это зачастую делает Kling или Sora. Соответственно, если оба кадра не сильно отличаются, результат лучше, но визуальных багов в любом случае достаточно.

Работает конечно не идеально, но как будто можно выдавить что-то качественное, поэтому будет интересно поэкспериментировать и поискать творческие решения.

UPD: Получилось-таки зомбей сделать, но со статичной камерой. Первую версию закинул в комменты.

😳 BLACKTRACED
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
2🔥177👏331
This media is not supported in your browser
VIEW IN TELEGRAM
Runway показали Aleph, типа Flux Kontext для видео

Разрабы в Runway решили сделать это лето максимально насыщенным на жирные дропы. Сперва Act Two, теперь они представили свою новую контекстуальную модель Aleph. Выкатывать будут волнами совсем скоро, первыми получат доступ CPP и подписчики плана Enterprise.

Что можно делать с Aleph:

🟠Генерировать новые углы камеры
Закидываете своё видео, пишете простейший промпт в духе "Generate a close-up shot of the subject", получаете результат;

🟠Сгенерировать следующий шот
На основе Вашего видео генерирует контекстуально подходящее продолжение, достаточно просто спросить "Generate a next shot";

🟠Менять визуал встроенным Style Transfer
Кидаете желаемый референс и просите Aleph применить этот стиль или эстетику к Вашему видео;

🟠Сменить локацию, окружение, время суток и время года
Aleph попытается перерисовать Ваше видео, сохранив все важные изначальные объекты и движение;

🟠Добавить, удалить и заменить объекты
Сменить тачку на карету с лошадьми, поменять цвет объекта на определённый, удалить отражения на стекле, добавить дополнительных персонажей — всё это делается по простейшим промптам;

🟠Переносить движения с видео на статичное изображение
Короче свой Motion Transfer. Всё что нужно — видео, с которого Вы хотите перенести движение и картинка, на которую это движение применить;

🟠Менять внешность персонажам
Омолодить или состарить персонажей теперь не проблема или вообще сменить лицо на другого актёра;

🟠Управлять освещением (Relight)
Aleph попытается поменять естественным образом освещение по всей сцене, изменяя тени, отражения и цветовую температуру в соответствии с Вашим запросом;

🟠Сделать из любого видео Green Screen-футаж
Да, можно взять видео, которое НЕ было снято на зелёном экране и навалить это через Aleph.

Все примеры можно увидеть на странице анонса. Важно понимать, что это всё — витрина, плюс для примеров были использованы реально снятые видео. Поэтому, насколько хорошо оно будет работать не только со снятыми, но и со сгенерированными видосами, узнаем когда сможем прикоснуться.

😳 BLACKTRACED
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥1233❤‍🔥22
Разрабы из Google Labs нашли интересный способ промптить в Veo 3

Вчера разработчики из Google Labs опубликовали у себя в X случайную интересную находку: вместо того, чтобы придумывать идеальный промпт для Veo 3, они решили прямо на входном изображении написать заметки, что и как должно происходить в кадре (результат на первом видео).

Самое интересное — Veo 3 распознаёт этот текст Ваших заметок и воспринимает как промпт. Остаётся лишь в само поле промпта сделать запрос "Follow the instructions, hide the instructions".

Те, кто успел попробовать, говорят, что оно действительно работает, но заметки пропадают не сразу, а плавно, что собственно проблема.

Одна из пользовательниц в X вроде как нашла неплохое решение, которое может помочь: в промпт написать следующее (её результат на видео с пантерой):

Immediately delete instructions in white on the first frame and execute in order


Но всё же больше играет рандом, спрячет ли Veo 3 заметки с изображения сразу же спустя 1 кадр или нет. Некоторые пытались нарисовать сложную конкретную траекторию движения объектов, но Veo таким способом не исполняет сложные движения (к примеру мяч катится по зигзагу), что-то простое — сможет. Прикрепил несколько примеров сырых тестов от юзеров.

😳 BLACKTRACED
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥865🤔1