дAI потестить!
2.69K subscribers
254 photos
180 videos
4 files
165 links
Ленивые AI инструменты для создания контента
👉 Тут помогут и подскажут @neuralchatik
Download Telegram
Сайты где можно закупить нейронки без подписок (API)
Самое то, если нужно протестировать, или сделать парочку круток для проекта

fal.ai
replicate.com
wavespeed.ai
mindvideo.ai (free sora mindvideo.ai/text-to-video/ )
runware.ai
kie.ai

#list
🍓20🔥14🥰61👍1🐳1
дAI потестить!
День 4. Пятничный. Ну что господа, теперь бот @ComfyUps_bot научился добавлять ватермарки для SORA. Так что, отдыхайте по полной. Утром кинете свидетельство вашего отдыха в бота и скажете что все это нейросеть 😊😊😊. P.S. Только вертикалки
День 5.
Я тут похоже изобрел апскейлер/энхансер (как правильно спрашивайте у @imba_pericia) лица, и засунул его в бота @ComfyUps_bot.

Что сделает бот:
1. Вырежет лицо
2. Додумает/усилит детали
3. Отдаст лицо обратно

Ботик навайбкожен, хромает и еле дышит. Никаких защит от дурак нет, а зачем они - тут ведь дураков нет, ведь так 😉?
Так же нет никаких оповещений: принята ли фотка в работу, или сколько ждать времени. И-интрига.
Утром ботика погашу.
Пробуйте, кидайте в коменты
Please open Telegram to view this post
VIEW IN TELEGRAM
1👍7👌3🍓21🔥1
Кстати, если вдруг у Вас появилось непреодолимое желание погенерить в Wan2GP, но вы далеко от дома.
Есть выход:
1. Ставим Pinokio
2. Идем в Share, там ставим галку и вводим пароль (скрин 1)
3. Запускаем Wan2GP и копируем себе ссылочку (скрин 2)

Теперь у Вас есть доступ даже с телефона.
👍76
Ребятки, там на Fal.ai подвезли Api от openrouter:

https://fal.ai/models/openrouter/router
https://fal.ai/models/openrouter/router/vision

Похоже сейчас через Fal.ai можно общаться с LLM и Vision моделями бесплатно (Пробовал с нулевого аккаунта - работает).

P.S. Зачем это Вам - хз. Ну не одному же мне радоваться халяве.
P.S.S. Лимитов пока не понял
7👍4😁4
дAI потестить!
Ребятки, там на Fal.ai подвезли Api от openrouter: https://fal.ai/models/openrouter/router https://fal.ai/models/openrouter/router/vision Похоже сейчас через Fal.ai можно общаться с LLM и Vision моделями бесплатно (Пробовал с нулевого аккаунта - работает).…
Меня тут спросили под постом выше: «А зачем это всё нужно?»

Как зачем? Очевидно, чтобы запилить бота @BananaPrompterBot.
Те, кто генерирует в Wan 2.2 по первому кадру, знают, что модель лучше работает с длинным промптом. Только вот сочинять из головы лень. Да и не нужно.

Кидаете в @BananaPrompterBot картинку, описываете парой слов — получаете вкусный промптик, сохраняете себе в блокнотик на память, как частичку канала @daipotestit. Обязательно положите в нагрудный карман, поближе к сердечку.

P.S. Под капотом — Gemini, поэтому определённый тип контента, который используют исключительно для изучения анатомии человека, не пройдёт цензуру.
P.P.S. Заодно проверим, долго ли OpenRouter на Fal будет насыпать бесплатные токены.

Бота написал на коленке, поздно ночью. не удивлюсь если будут баги. Кидайте в коменты
11👍8🔥6
Media is too big
VIEW IN TELEGRAM
Нашел для Veo парочку любопытных токенов:
[montage cuts]
[jump cuts]

Если их вставить в промпт, внутри генерации появятся джамп каты, поэтому смонтировать следующий кадр становится намного проще.

Ролик в примере сделан по алгоритму:
1. Вставил первый кадр
2. Вписал в промпт:
[jump cuts]
Девушка идет и говорит на русском "Тут ее слова"

3. В следующих генерациях меняю реплики в кавычках.
4. Собираю шоты подряд в монтажке.
Быстро, надежно, со вкусом.

P.S. Еще хочется, чтобы и ракурс съемки менял при кате, но пока не придумал как.
2👍35🔥12👏6🥰3
Удивительно!
11labs решил прикрутить модели для генерации фото и видео. Теперь и они стали комбайном по перепродаже Api. Уходит эпоха.
Модели на скринах.
😱2👍1
дAI потестить!
Нашел для Veo парочку любопытных токенов: [montage cuts] [jump cuts] Если их вставить в промпт, внутри генерации появятся джамп каты, поэтому смонтировать следующий кадр становится намного проще. Ролик в примере сделан по алгоритму: 1. Вставил первый кадр…
Базовый ролик получен — нашу Ясю уже можно грузить в Одноклассники и начинать лутать Суперклассы. Но мы же тут собрались как люди творческие, высокодуховные и слегка помешанные на перфекционизме, так что хотим не просто ролик, а шедевр. Правильно? Ну вот и давайте попробуем сделать вид, что мы всё контролируем.

Перове на что обращаешь внимание, это "утекает" мелкая детализация: зубы местами в кашу, глаза при моргании деформируются (см. видео 1). Лечить будем апскейлом на Wan2.2. В интернете схем полно, принцип один — аккуратно прошлифовать картинку Wan-ом на малых шагах и молиться, что сегодня ComfyUI будет работать. Можно взять схему, которой поделился Дмитрий @TuXoHoB в комментариях. Спасибки направляйте ему в ЛС, и лучше если это будут спасибки от Сбера😊. Что получилось см. видео 2.

Второе, что портит видео, — маленькое разрешение (720p… Google, серьёзно?). Есть несколько путей решить этот позор:
astra.app
www.topazlabs.com

Из опенсорса (если сможешь настроить)
https://huggingface.co/JunhaoZhuang/FlashVSR-v1.1
https://github.com/IceClear/SeedVR2

Я же решил воспользоваться новинкой https://fal.ai/models/fal-ai/bytedance-upscaler/upscale/video просто потому что она стоит 4 цента на Fal.ai. Результат средний, astra.app может лучше, но деньги я уже потратил, поэтом придется вам смотреть на это (см. видео 3).

Это ещё не всё, что можно улучшить, но я на сегодня закончился и пошёл спать.

P.S. И немного ночных рассуждений. Чтобы сделать базовый ролик, достаточно уметь работать в нескольких сервисах. Например, я люблю Google. Но чтобы «дотянуть» его до приемлемого качества, уже нужно лезть в дебри, расширять инструментарий и дружить с опенсорсом.
P.S.S. Если хотите еще поработать с этим видео, мне нужны сердечки под постом.
36👍10👏3
Кстати, помните ватермарку SynthID от Google. Она есть, но ее никто не видел. Вот в ai studio нашел следы. Кто хочет потестить?
👍6😁31❤‍🔥1🤔1