JCenterS Нейросети | DeepFake News
3.42K subscribers
911 photos
378 videos
1 file
538 links
https://t.iss.one/JCenterSCourse?boost - поддержать!

Фриланс биржа - @CGWorkHub 👈

Курс "С разбега в Синематик": https://clck.ru/35qJxR

Telegram чат: https://t.iss.one/JCDeepFakeChat

По любым вопросам: @jcenterstudio
Download Telegram
В мире технологий появилась удивительная находка — бесплатный генератор звуков, способный преобразовывать видео в живые звуковые эффекты. Пользователи могут озвучивать до 120 секунд (2 минуты) видео в день, и результаты просто поражают воображение.

Система не просто генерирует звуки, а адаптирует их к визуальному контенту.
Не упустите возможность попробовать новый инструмент и делитесь своими примерами в комментариях! https://huggingface.co/spaces/hkchengrex/MMAudio
🔥6❤‍🔥21
Безлимитные генерации Pika 2.0 до 22 декабря!

Дата: 20 декабря 2024 года

Отличная новость! До 22 декабря доступны безлимитные генерации Pika 2.0. Создавайте персонажей и сцены без ограничений. Не упустите шанс реализовать свои идеи!

https://pika.art/login
🔥3
Легкий способ скачивания видео с любого сайта

Ищете удобный способ скачивать видео с различных сайтов? Мы представляем вам идеальный сервис, который позволяет это делать быстро и без лишних хлопот!

Преимущества нашего сервиса:

- Без рекламы: Забудьте о навязчивых баннерах и всплывающих окнах. Мы обеспечиваем чистый и комфортный интерфейс.

- Никаких подписок: Вам не нужно мучиться с платными подписками. Все функции доступны совершенно бесплатно!

- Без регистрации: Просто зайдите на сайт и начните скачивать видео — никаких лишних шагов!
https://cobalt.tools/
🔥9❤‍🔥22
This media is not supported in your browser
VIEW IN TELEGRAM
Внимание! Модель Hunyuan для генерации видео теперь доступна абсолютно бесплатно и без ограничений! Создавайте креативные видеопроекты за несколько кликов и делитесь ими с миром. Не упустите шанс воспользоваться этим мощным инструментом уже сегодня!

https://www.mage.space/video
🔥4❤‍🔥21
Media is too big
VIEW IN TELEGRAM
Технологии меняют кино: киноделы остаются без работы


С появлением инструментов вроде Veo 2 от Google , традиционные киноделы оказались в сложной ситуации. Теперь создание высококачественного контента доступно каждому, а это значит, что многие специалисты теряют рабочие места.
🤣5😈2
Forwarded from ПЕРЕХОДИМ в Новый канал - @JohnCenterStudio (Джон Три дэшник)
Хер знает сколько времени уже тестим разные воркфлоу для генерации видео.

Начали получать более менее хорошие результаты. Я очень вдохновился Корридорами, где они с помощью анимейт див годичной давности, смогли сделать более менее стабильное изображение.

Конечно не без кучи композа. Изображение у них на выходе получалось супер отвратное, нужно было все деноизить по пикселям.

Вот эти кадры в посте мы получили снимая на айфон, в супер херовом освещении. Вся картинка рябит, Depth сработал очень криво.

Если снимаете видео для будущей генерации, используйте хорошее освещение и не ставьте преграды перед собой. Любая пыль, сколы, трещины на стекле, сразу хавается программой и за место чистого стекла вы будете получать млечный путь, епта.

Можно это дело перевести в капли дождя конечно, но все же.

С помощью хорошей информации о Depth (Глубине). Можно композить весь видос в AE-шке. Или где вы сейчас там сидите.

В остальном, что самое прикольное - тестим редактор уже сгенерированных видео, чтобы убрать проблемы с руками и артефактами.

А на посте можно легко накладывать нужный фон, чтобы с разных ракурсов не получать то Нью-Йорк, то Новоебенева.

Дальше наложим на дипфейк и скину результаты.
41
Forwarded from ПЕРЕХОДИМ в Новый канал - @JohnCenterStudio (Джон Три дэшник)
💚💚💚💚💚💚💚💚💚💚💚

Закидывайте свои 3D и нейросетевые работы сюда!)

В КОММЕНТЫ. Желательно видосики. Картинки смотрятся не так хорошо в видосе)

Закину их в конец выпуска, успевайте!)
Please open Telegram to view this post
VIEW IN TELEGRAM
Forwarded from ПЕРЕХОДИМ в Новый канал - @JohnCenterStudio (Джон Три дэшник)
🎆Самое время показать ваши мышцы в 3D графике! 🎆

Мы заколлабились со студией "🔆🔆🔆🔆", которые стали спонсорами данной движухи и создали конкурс с призовым фондом в 2️⃣0️⃣0️⃣🔆 .

3 уровня сложности - 3 первых места.

100.000 р. - Пре-Шоу к аттракциону - "Лифт времени и пространства".
70.000 р. - Шоу - для музейной экспозиции в замке.
30.000 р. - Эмбиент-видео для мультимедийной выставки.

ВИЖУ создаёт мультимедийные проекты для музеев, выставок и пространств, с полным циклом работ — от идеи и разработки концепции до создания контента, закупки оборудования и застройки.

Дядьки мощные, готовы вкидывать финансы на развитие 3D пространства.

Подробно о студии вы можете прочитать здесь.

Все работы будем оценивать в конце конкурса на стриме и следом объявим победителей.

Судить будут:

Антон FAKBOITONY - Лид JCenterS
Артур Устименко - Unreal Engine Гуру
Vladimir Demekhin - Арт-директор "ВИЖУ"
Основатели студии "ВИЖУ"

КОНКУРС ЗАКОНЧИТСЯ 15 ФЕВРАЛЯ 2025 года. И в это же время подведем итоги!

Для всех, кто хочет участвовать переходим сюда!
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥3❤‍🔥11
Forwarded from ПЕРЕХОДИМ в Новый канал - @JohnCenterStudio (Джон Три дэшник)
🔤🔤 🔆🔆🔆🔆🔆🔆🔆

❄️❄️☃️С наступающим новым годом вас!☃️❄️❄️

💙 Genesis — физический 3D движок, ускоряющий симуляции в 1000 раз.
💙 Blender теперь для аниме.
💙Mocha Pro 2025: ИИ для ротоскопа.
💙Redshift 2025.2: обновления для рендера и GPU-денойзинга.
💙Intel Arc B580: видеокарта, которую раскупили за день.
💙VR-инструмент Shapelab 2025 для скульптинга.
💙Google Veo 2 — генерация видео нового уровня.
💙V-Ray 7 для SketchUp: от Gaussian Splats до нового освещения.

https://youtu.be/aNsyiYPBOOA
Please open Telegram to view this post
VIEW IN TELEGRAM
3❤‍🔥3🔥2
Forwarded from ПЕРЕХОДИМ в Новый канал - @JohnCenterStudio (Джон Три дэшник)
Потестили свежие модели генераторов видео и единственное, что сейчас работает более менее, это COG. 🐔

Остальные модели генерят - че попало.

В нем нельзя привязать миллион настроек, но это бесплатно и рендерит 5 секунд с разрешением в 762px на 432px. Рендерит примерно за 2-3 минуты на RTX 4080. После 3-4 генераций кеш забивается на столько, что нужно перезагружать комп.

Но пацаны у себя генерят на RTX 3070 за 5-6 минут.

🔩 Пайплайн такой:
Загружаете отснятое видео в воркфлоу COG на ComfyUI, модель генерит глубину с каждого кадра и по этой глубине - начинает генерить промпт который вы написали. Грубо говоря)

Можно выводить Canny (линии) и делать по ним, в место глубины. Но вот вместе они не работают пока.


Но для качества нужно пройтись апскейлером и еще тонну пост-обработки в AE. То фон плывет, то пальцы мажет. Лица вообще пока до свидания. Поэтому тут больше композ учить надо, нежели нейронки) Но я для видоса заморочусь, самому интересно))

Ну и опять же, то что вы видите у Ранвея, Соры и т.д. - это очень мощные сервера. Через которые прогоняются ваши запросы. У вас таких серверов дома нет. Как и ни у кого кроме крупных компаний.

Контролировать изображение в этих сервисах невозможно от слова - СОВСЕМ. Вы в каждом кадре будете получать другое изображение.

Если на посте хорошенько поковыряться (особенно имея Depth of field), можно сделать что-то оч веселенькое)) Для короткометражек, особенно для пре-продакшена начинает помогать.

💻P.S. Если интересно как делать, кидайте голоса на премку, чтобы можно было анимированный 💩 ставить под постом( 😂

Ну и урок запишу с воркфлоу на канал)
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
10❤‍🔥1🔥1