Подборка бесплатных онлайн нейронок для работы с фото.
PuLID for FLUX. При помощи данного инструмента вы можете сгенерировать как нейросетевое фото, так и арт с вашим лицом или лицом любого человека. Работает на базе Flux, по этому качество генераций весьма достойное.
Попробовать PuLID for FLUX
Expression Editor. Позволяет менять выражение лица и мимику на фото. Также можно поменять положение головы, направление взгляда. Работает достаточно быстро, но из минусов - кропает картинку до квадрата.
Попробовать Expression Editor
IC-Light V2. Данный инструмент позволяет сделать релайт фотографии - поменять освещение в кадре. Важный момент - также меняется фон, а также нормально работает только с изображениями в портретной ориентации.
Попробовать IC-Light V2
Diffusers Image Outpaint. Позволяет дорисовать фон на изображении, тем самым расширяя его.
Попробовать Diffusers Image Outpaint
Neurogen - подпишись, тут рассказывают про нейросети
PuLID for FLUX. При помощи данного инструмента вы можете сгенерировать как нейросетевое фото, так и арт с вашим лицом или лицом любого человека. Работает на базе Flux, по этому качество генераций весьма достойное.
Попробовать PuLID for FLUX
Expression Editor. Позволяет менять выражение лица и мимику на фото. Также можно поменять положение головы, направление взгляда. Работает достаточно быстро, но из минусов - кропает картинку до квадрата.
Попробовать Expression Editor
IC-Light V2. Данный инструмент позволяет сделать релайт фотографии - поменять освещение в кадре. Важный момент - также меняется фон, а также нормально работает только с изображениями в портретной ориентации.
Попробовать IC-Light V2
Diffusers Image Outpaint. Позволяет дорисовать фон на изображении, тем самым расширяя его.
Попробовать Diffusers Image Outpaint
Neurogen - подпишись, тут рассказывают про нейросети
Обновленная версия портативной версии программы DeepFaceLive.
Особенности сборки:
- Cuda 12.4
- Torch 2.4.1 Cuda 12.4
- CuDNN 9.5.1
- onnxruntime-gpu 1.19.2
В целом, благодаря обновлению наиболее важных библиотек и пакетов, DeepFaceLive стал намного шустрее работать на видеокартах серии RTX.
Сборка доступна для патронов канала на следующих ресурсах:
Скачать с Boosty | Скачать с TG
RopeMod Portable by Neurogen v 2.7.1 | Nvidia
Небольшое обновление сборки. Был обновлен код до самой актуальной версии, а также были обновлены библиотеки и пакеты:
- torch 2.5.0 Cuda 12.4
- CuDNN 9.5.1
- FFMPEG 7.1
А также были обновлены все модели до актуальных версий.
Скачать с Boosty
Также работаю над ускорением и обновлением DeepFaceLab. Первая версия будет выложена на Boosty в ближайшее время.
#rope #deepfacelive #deepfake #portable
Особенности сборки:
- Cuda 12.4
- Torch 2.4.1 Cuda 12.4
- CuDNN 9.5.1
- onnxruntime-gpu 1.19.2
В целом, благодаря обновлению наиболее важных библиотек и пакетов, DeepFaceLive стал намного шустрее работать на видеокартах серии RTX.
Сборка доступна для патронов канала на следующих ресурсах:
Скачать с Boosty | Скачать с TG
RopeMod Portable by Neurogen v 2.7.1 | Nvidia
Небольшое обновление сборки. Был обновлен код до самой актуальной версии, а также были обновлены библиотеки и пакеты:
- torch 2.5.0 Cuda 12.4
- CuDNN 9.5.1
- FFMPEG 7.1
А также были обновлены все модели до актуальных версий.
Скачать с Boosty
Также работаю над ускорением и обновлением DeepFaceLab. Первая версия будет выложена на Boosty в ближайшее время.
#rope #deepfacelive #deepfake #portable
boosty.to
DeepFaceLive Cuda 12.4 Portable | Nvidia | Speed boost on RTX 40XX - Neurogen
Cuda 12.4, CuDNN 9.5.1, Speed Boost on RTX 40XX.
DeepFaceLab Universal Optimized
Добрались руки до DFL. Обновленная сборка DeepFaceLive уже была, теперь подошла очередь до самого интересного, а именно до сборки для обучения DFL моделей.
DeepFaceLab - инструмент, позволяющий создавать DFL модели лиц. В процессе тренировки модели составляется модель головы человека в нескольких проекциях, что позволяет сохранять степень сходства во время замены лица при активных поворотах головы и т.п.
Особенности сборки:
- Используется оптимизированная версия DFL. В конечном итоге было получено повышение производительности от 2 до 10 раз на разных этапах работы.
- Построена на базе DirectML, поэтому совместима со всеми видеокартами - Nvidia, AMD и Intel.
При этом, на видеокартаx Nvidia скорость выше, чем при использовании CUDA.
- Возможность тренировки на видеокартах среднего сегмента, имеющих от 8 гигабайт видеопамяти.
- Графический интерфейс, позволяющий понятно и поэтапно произвести тренировку модели.
DeepFaceLab Optimized доступен на Boosty.
В ближайшее время сделаю детальный обзор, где расскажу от начала и до конца как обучить модель, как подготовить датасет и как использовать ее на практике.
Добрались руки до DFL. Обновленная сборка DeepFaceLive уже была, теперь подошла очередь до самого интересного, а именно до сборки для обучения DFL моделей.
DeepFaceLab - инструмент, позволяющий создавать DFL модели лиц. В процессе тренировки модели составляется модель головы человека в нескольких проекциях, что позволяет сохранять степень сходства во время замены лица при активных поворотах головы и т.п.
Особенности сборки:
- Используется оптимизированная версия DFL. В конечном итоге было получено повышение производительности от 2 до 10 раз на разных этапах работы.
- Построена на базе DirectML, поэтому совместима со всеми видеокартами - Nvidia, AMD и Intel.
При этом, на видеокартаx Nvidia скорость выше, чем при использовании CUDA.
- Возможность тренировки на видеокартах среднего сегмента, имеющих от 8 гигабайт видеопамяти.
- Графический интерфейс, позволяющий понятно и поэтапно произвести тренировку модели.
DeepFaceLab Optimized доступен на Boosty.
В ближайшее время сделаю детальный обзор, где расскажу от начала и до конца как обучить модель, как подготовить датасет и как использовать ее на практике.
Forwarded from Psy Eyes
This media is not supported in your browser
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
Мучаем Mochi.
В прошлом году Genmo не раз мелькали в новостях со своим генератором видео, но в последнее время от них ничего не было слышно.
Недавно они выпустили в опенсорс модель Mochi 1, которую чтобы гонять нужно было 4 H100 или иди к ним на сайт, где фришные генерации уже висят неделю. Следом подтянулись пожатые GGUF версии и vid-2-vid варики.
И вот теперь команды Comfy и Genmo объединись и оптимизировали базовую Mochi 1 для запуска в Comfy на пользовательском железе.
Чтобы начать обновите Comfy, или скачайте последнюю версию с гитхаба. Если у вас Comfy стоит через Pinokio, в боковой панели при старте нажимаете update —> перезагрузите Pinokio —> запустите Comfy —> в боковой панели появится Quick Installers —> выбираете вариант Mochi на 17 ГБ VRAM или 22 ГБ VRAM. Дальше скрипт сам скачает все модели.
Воркфлоу (отсюда или отсюда) в виде видео формата webp сохраняете к себе на комп и вкидываете в открытый интерфейс Comfy. Если делали через Pinokio, все ноды сами встанут как нужно — вам останется только вписать промт и поиграться с настройками. Если через гитхаб, то вручную укажите модель, энкодер, VAE как написано тут.
bf16 версия наиболее качественная и во время генерации будет кушать 21-22 ГБ VRAM при дефолтных настройках: 848х480, 24 fps, 30 шагов, cfg 4.5, качестве 80, и длительности в 37 кадров. На одно видео при этом уходит примерно 1 мин 45 сек на 4090.
fp8 при тех же настройках даёт качество похуже, но занимает 17-18 ГБ при генерации. Однако на последнем этапе, во время декода VAE, потребление VRAM стрельнёт резко вверх, и по факту 24 гигов и то с трудом хватит, может и зависнуть (кратко или с концами). Так что закрывайте все приложения по максимуму, или если у вас 2 GPU юзайте ту, что не подключена к дисплею. Хотя не факт, что это поможет ибо после генерации VRAM целиком не освобождается и для следующего захода памяти остаётся меньше, чем для предыдущего. Время на генерацию кстати меньше особо не становится: ~1 мин 30 сек.
Причём нынешняя модель генерит в 480p, а в конце года обещают выложить веса для вывода в HD... воет по 2х5090'ньи
Про качество: Mochi очень хорошо понимает промт и грамотно выстраивает композицию, что особенно важно с моделью, где на одну генерацию уходят минуты. Ползунок Quality как по мне выкрученный на 100 мало что меняет, максимум видеоряд становится менее шумным и плавнее (но при этом и зависнуть может). Кипение и нестабильность тут есть, но это 480p, а если глянуть HD у них на гитхабе, то там всё красиво. На сайте, кстати, заявленного качества как-то не выцепил (раз и два, остальное зависло).
Если сравнивать с Allegro, который по умолчанию генерит в HD, то у Mochi чувствуется под капотом high quality датасет с киношными кадрами, игровыми синематиками, рекламой, итд, а с Allegro такого нет. Причём по кадрам нередко кажется, что это не генерация, а рандомный выбор видео из каталога, и кто-то вот-вот скажет "Да это же моё видео!". Также в Allegro сложнее промтом добиться нужной и стабильной картинки, а времени на генерацию уходит больше.
Таким образом Mochi 1 это лучший опенсорсный видеогенератор на данный момент.
PS, ещё пара наблюдений: генерация в Comfy с гитхаба занимает 1:45 сек, а в Pinokio 1:55. При этом энергопотребление в родном Comfy доходит до 521 Вт, а в Pinokio значительно ниже, в районе 430 Вт, и я это не раз замечал и с другими моделями. Скорее всего дело в паках-библиотеках-зависимостях, где с Comfy используется что ты сам поставишь в систему и папку с прилой, а Pinokio сам подбирает.
UPDATE: при установке длительности в 25 кадров, вообще никаких проблем не наблюдается на bf16, в том числе и надекоде VAE. Генерация при этом занимает ~1 мин 13 сек или ~2.43s/it на дефолтных настройках. А, да, я ещё качество до 100 поднял.
Анонс
Гитхаб Mochi 1
Comfy воркфлоу
Блогпост про Mochi 1
В прошлом году Genmo не раз мелькали в новостях со своим генератором видео, но в последнее время от них ничего не было слышно.
Недавно они выпустили в опенсорс модель Mochi 1, которую чтобы гонять нужно было 4 H100 или иди к ним на сайт, где фришные генерации уже висят неделю. Следом подтянулись пожатые GGUF версии и vid-2-vid варики.
И вот теперь команды Comfy и Genmo объединись и оптимизировали базовую Mochi 1 для запуска в Comfy на пользовательском железе.
Чтобы начать обновите Comfy, или скачайте последнюю версию с гитхаба. Если у вас Comfy стоит через Pinokio, в боковой панели при старте нажимаете update —> перезагрузите Pinokio —> запустите Comfy —> в боковой панели появится Quick Installers —> выбираете вариант Mochi на 17 ГБ VRAM или 22 ГБ VRAM. Дальше скрипт сам скачает все модели.
Воркфлоу (отсюда или отсюда) в виде видео формата webp сохраняете к себе на комп и вкидываете в открытый интерфейс Comfy. Если делали через Pinokio, все ноды сами встанут как нужно — вам останется только вписать промт и поиграться с настройками. Если через гитхаб, то вручную укажите модель, энкодер, VAE как написано тут.
bf16 версия наиболее качественная и во время генерации будет кушать 21-22 ГБ VRAM при дефолтных настройках: 848х480, 24 fps, 30 шагов, cfg 4.5, качестве 80, и длительности в 37 кадров. На одно видео при этом уходит примерно 1 мин 45 сек на 4090.
fp8 при тех же настройках даёт качество похуже, но занимает 17-18 ГБ при генерации. Однако на последнем этапе, во время декода VAE, потребление VRAM стрельнёт резко вверх, и по факту 24 гигов и то с трудом хватит, может и зависнуть (кратко или с концами). Так что закрывайте все приложения по максимуму, или если у вас 2 GPU юзайте ту, что не подключена к дисплею. Хотя не факт, что это поможет ибо после генерации VRAM целиком не освобождается и для следующего захода памяти остаётся меньше, чем для предыдущего. Время на генерацию кстати меньше особо не становится: ~1 мин 30 сек.
Причём нынешняя модель генерит в 480p, а в конце года обещают выложить веса для вывода в HD... воет по 2х5090'ньи
Про качество: Mochi очень хорошо понимает промт и грамотно выстраивает композицию, что особенно важно с моделью, где на одну генерацию уходят минуты. Ползунок Quality как по мне выкрученный на 100 мало что меняет, максимум видеоряд становится менее шумным и плавнее (но при этом и зависнуть может). Кипение и нестабильность тут есть, но это 480p, а если глянуть HD у них на гитхабе, то там всё красиво. На сайте, кстати, заявленного качества как-то не выцепил (раз и два, остальное зависло).
Если сравнивать с Allegro, который по умолчанию генерит в HD, то у Mochi чувствуется под капотом high quality датасет с киношными кадрами, игровыми синематиками, рекламой, итд, а с Allegro такого нет. Причём по кадрам нередко кажется, что это не генерация, а рандомный выбор видео из каталога, и кто-то вот-вот скажет "Да это же моё видео!". Также в Allegro сложнее промтом добиться нужной и стабильной картинки, а времени на генерацию уходит больше.
Таким образом Mochi 1 это лучший опенсорсный видеогенератор на данный момент.
PS, ещё пара наблюдений: генерация в Comfy с гитхаба занимает 1:45 сек, а в Pinokio 1:55. При этом энергопотребление в родном Comfy доходит до 521 Вт, а в Pinokio значительно ниже, в районе 430 Вт, и я это не раз замечал и с другими моделями. Скорее всего дело в паках-библиотеках-зависимостях, где с Comfy используется что ты сам поставишь в систему и папку с прилой, а Pinokio сам подбирает.
UPDATE: при установке длительности в 25 кадров, вообще никаких проблем не наблюдается на bf16, в том числе и надекоде VAE. Генерация при этом занимает ~1 мин 13 сек или ~2.43s/it на дефолтных настройках. А, да, я ещё качество до 100 поднял.
Анонс
Гитхаб Mochi 1
Comfy воркфлоу
Блогпост про Mochi 1
Forwarded from Denis Sexy IT 🤖
Please open Telegram to view this post
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
Зачем хакерам данные о движении глаз? Как отличить реальный подкаст, от записанного нейросетью? Безопасно ли добавлять паспортные данные в Google Wallet?
Ответы в новом выпуске «Пункта Выдачи Новостей» — подкаст-шоу от Ozon Tech, в котором обсуждаются новости про IT, технологии, людей и роботов, которые это всё создают.
Слушайте на любимой платформе:
📱 YouTube
📱 VK Видео
🎧 Аудиосервисы
Ответы в новом выпуске «Пункта Выдачи Новостей» — подкаст-шоу от Ozon Tech, в котором обсуждаются новости про IT, технологии, людей и роботов, которые это всё создают.
Слушайте на любимой платформе:
Please open Telegram to view this post
VIEW IN TELEGRAM
GPT4FREE Portable by Neurogen - Бесплатный доступ к ChatGPT 4o, Claude-3.5 и к моделям генерации изображений, таким как Flux, SD 3, SD XL.
Данная сборка основана на базе проекта gpt4free, который позволяет путем реверс-инжиниринга получать бесплатный доступ к различным нейросетям. Проект поддерживает множество моделей, таких как:
GPT-4o
GPT-4o-mini
Claude-3.5
LLaMa-3.1 и 3.2
Qwen-2.5
а также моделей для генерации изображений, таких как Flux, Stable Diffusion XL и Stable Diffusion 3.
Что нового в обновлении, по сравнению с прошлой версией:
- Обновлен код до актуального
- Добавлена поддержка новых моделей:
claude-3.5-sonnet
gemini-flash
llama-3.1-405B
Flux
И ряда других различных моделей.
Скачать сборку GPT4FREE Portable by Neurogen
Запуск программы:
- Распакуйте архив. Важно, в пути не должно быть кириллицы, иначе возможны ошибки
- Запустите файл start.bat
- Дождитесь загрузки программы. Если система запросит разрешение на доступ в интернет для Python - то предоставьте его.
- После этого открывшаяся страница в браузере должна обновиться. Если этого не произошло, то попробуйте обновить вручную.
Стоит сразу отметить, что так доступ получается «обходными путями», то работа может быть нестабильной. В случае ошибок иногда помогает перегенерация запроса.
#chatgpt #llm #portable
Neurogen - подпишись, тут рассказывают про нейросети
Данная сборка основана на базе проекта gpt4free, который позволяет путем реверс-инжиниринга получать бесплатный доступ к различным нейросетям. Проект поддерживает множество моделей, таких как:
GPT-4o
GPT-4o-mini
Claude-3.5
LLaMa-3.1 и 3.2
Qwen-2.5
а также моделей для генерации изображений, таких как Flux, Stable Diffusion XL и Stable Diffusion 3.
Что нового в обновлении, по сравнению с прошлой версией:
- Обновлен код до актуального
- Добавлена поддержка новых моделей:
claude-3.5-sonnet
gemini-flash
llama-3.1-405B
Flux
И ряда других различных моделей.
Скачать сборку GPT4FREE Portable by Neurogen
Запуск программы:
- Распакуйте архив. Важно, в пути не должно быть кириллицы, иначе возможны ошибки
- Запустите файл start.bat
- Дождитесь загрузки программы. Если система запросит разрешение на доступ в интернет для Python - то предоставьте его.
- После этого открывшаяся страница в браузере должна обновиться. Если этого не произошло, то попробуйте обновить вручную.
Стоит сразу отметить, что так доступ получается «обходными путями», то работа может быть нестабильной. В случае ошибок иногда помогает перегенерация запроса.
#chatgpt #llm #portable
Neurogen - подпишись, тут рассказывают про нейросети
Qwen2.5-Coder - лучше чем GPT-4o для кодинга
Qwen2.5-Coder это целое семейство моделей:
Qwen2.5-Coder-0.5B
Qwen2.5-Coder-1.5B
Qwen2.5-Coder-3B
Qwen2.5-Coder-7B
Qwen2.5-Coder-14B
Qwen2.5-Coder-32B
При этом, в большинстве тестов и бенчмарков, старшая модель на 32B параметров обходит GPT-4o и Claude-3.5-Sonnet.
Что касаемо ключевых характеристик, то младшие модели (0.5B-3B) имеют контекстное окно в 32К токенов, в то время как все остальные уже 123К токенов.
Квантованные GGUF версии для локального запуска уже доступны для загрузки:
Qwen2.5-Coder-32B-Instruct-Q4_K_M.gguf (потребуется примерно 20
GB видео или оперативной памяти)
Qwen2.5-Coder-14B-Instruct-Q4_K_M.gguf (потребуется примерно 9 GB видео или оперативной памяти)
Qwen2.5-Coder-7B-Instruct-Q6_K.gguf (потребуется примерно 6,5 GB видео или оперативной памяти)
Qwen2.5-Coder-3B-Q6_K.gguf (потребуется примерно 2,5 GB видео или оперативной памяти)
#llm #code #qwen
Qwen2.5-Coder это целое семейство моделей:
Qwen2.5-Coder-0.5B
Qwen2.5-Coder-1.5B
Qwen2.5-Coder-3B
Qwen2.5-Coder-7B
Qwen2.5-Coder-14B
Qwen2.5-Coder-32B
При этом, в большинстве тестов и бенчмарков, старшая модель на 32B параметров обходит GPT-4o и Claude-3.5-Sonnet.
Что касаемо ключевых характеристик, то младшие модели (0.5B-3B) имеют контекстное окно в 32К токенов, в то время как все остальные уже 123К токенов.
Квантованные GGUF версии для локального запуска уже доступны для загрузки:
Qwen2.5-Coder-32B-Instruct-Q4_K_M.gguf (потребуется примерно 20
GB видео или оперативной памяти)
Qwen2.5-Coder-14B-Instruct-Q4_K_M.gguf (потребуется примерно 9 GB видео или оперативной памяти)
Qwen2.5-Coder-7B-Instruct-Q6_K.gguf (потребуется примерно 6,5 GB видео или оперативной памяти)
Qwen2.5-Coder-3B-Q6_K.gguf (потребуется примерно 2,5 GB видео или оперативной памяти)
#llm #code #qwen