Neurogen
21.4K subscribers
480 photos
166 videos
17 files
519 links
Популяризатор нейросетей, разработчик-энтузиаст, ментор.

СEO NeuroIMG.ART

По вопросам сотрудничества и рекламы: @roman_neurogen

Портативные сборки: https://boosty.to/neurogen

Live канал: @neurogen_blog
Реестр РКН: №4777528086
Download Telegram
Подборка бесплатных онлайн нейронок для работы с фото.

PuLID for FLUX. При помощи данного инструмента вы можете сгенерировать как нейросетевое фото, так и арт с вашим лицом или лицом любого человека. Работает на базе Flux, по этому качество генераций весьма достойное.
Попробовать PuLID for FLUX

Expression Editor. Позволяет менять выражение лица и мимику на фото. Также можно поменять положение головы, направление взгляда. Работает достаточно быстро, но из минусов - кропает картинку до квадрата.
Попробовать Expression Editor

IC-Light V2. Данный инструмент позволяет сделать релайт фотографии - поменять освещение в кадре. Важный момент - также меняется фон, а также нормально работает только с изображениями в портретной ориентации.
Попробовать IC-Light V2

Diffusers Image Outpaint. Позволяет дорисовать фон на изображении, тем самым расширяя его.
Попробовать Diffusers Image Outpaint

Neurogen - подпишись, тут рассказывают про нейросети
Обновленная версия портативной версии программы DeepFaceLive.

Особенности сборки:
- Cuda 12.4
- Torch 2.4.1 Cuda 12.4
- CuDNN 9.5.1
- onnxruntime-gpu 1.19.2

В целом, благодаря обновлению наиболее важных библиотек и пакетов, DeepFaceLive стал намного шустрее работать на видеокартах серии RTX.

Сборка доступна для патронов канала на следующих ресурсах:
Скачать с Boosty | Скачать с TG

RopeMod Portable by Neurogen v 2.7.1 | Nvidia

Небольшое обновление сборки. Был обновлен код до самой актуальной версии, а также были обновлены библиотеки и пакеты:

- torch 2.5.0 Cuda 12.4
- CuDNN 9.5.1
- FFMPEG 7.1

А также были обновлены все модели до актуальных версий.

Скачать с Boosty

Также работаю над ускорением и обновлением DeepFaceLab. Первая версия будет выложена на Boosty в ближайшее время.

#rope #deepfacelive #deepfake #portable
Please open Telegram to view this post
VIEW IN TELEGRAM
DeepFaceLab Universal Optimized

Добрались руки до DFL. Обновленная сборка DeepFaceLive уже была, теперь подошла очередь до самого интересного, а именно до сборки для обучения DFL моделей.

DeepFaceLab - инструмент, позволяющий создавать DFL модели лиц. В процессе тренировки модели составляется модель головы человека в нескольких проекциях, что позволяет сохранять степень сходства во время замены лица при активных поворотах головы и т.п.

Особенности сборки:

- Используется оптимизированная версия DFL. В конечном итоге было получено повышение производительности от 2 до 10 раз на разных этапах работы.
- Построена на базе DirectML, поэтому совместима со всеми видеокартами - Nvidia, AMD и Intel.
При этом, на видеокартаx Nvidia скорость выше, чем при использовании CUDA.
- Возможность тренировки на видеокартах среднего сегмента, имеющих от 8 гигабайт видеопамяти.
- Графический интерфейс, позволяющий понятно и поэтапно произвести тренировку модели.

DeepFaceLab Optimized доступен на Boosty.

В ближайшее время сделаю детальный обзор, где расскажу от начала и до конца как обучить модель, как подготовить датасет и как использовать ее на практике.
Forwarded from Psy Eyes
Мучаем Mochi.

В прошлом году Genmo не раз мелькали в новостях со своим генератором видео, но в последнее время от них ничего не было слышно.

Недавно они выпустили в опенсорс модель Mochi 1, которую чтобы гонять нужно было 4 H100 или иди к ним на сайт, где фришные генерации уже висят неделю. Следом подтянулись пожатые GGUF версии и vid-2-vid варики.

И вот теперь команды Comfy и Genmo объединись и оптимизировали базовую Mochi 1 для запуска в Comfy на пользовательском железе.

Чтобы начать обновите Comfy, или скачайте последнюю версию с гитхаба. Если у вас Comfy стоит через Pinokio, в боковой панели при старте нажимаете update —> перезагрузите Pinokio —> запустите Comfy —> в боковой панели появится Quick Installers —> выбираете вариант Mochi на 17 ГБ VRAM или 22 ГБ VRAM. Дальше скрипт сам скачает все модели.

Воркфлоу (отсюда или отсюда) в виде видео формата webp сохраняете к себе на комп и вкидываете в открытый интерфейс Comfy. Если делали через Pinokio, все ноды сами встанут как нужно — вам останется только вписать промт и поиграться с настройками. Если через гитхаб, то вручную укажите модель, энкодер, VAE как написано тут.

bf16 версия наиболее качественная и во время генерации будет кушать 21-22 ГБ VRAM при дефолтных настройках: 848х480, 24 fps, 30 шагов, cfg 4.5, качестве 80, и длительности в 37 кадров. На одно видео при этом уходит примерно 1 мин 45 сек на 4090.

fp8 при тех же настройках даёт качество похуже, но занимает 17-18 ГБ при генерации. Однако на последнем этапе, во время декода VAE, потребление VRAM стрельнёт резко вверх, и по факту 24 гигов и то с трудом хватит, может и зависнуть (кратко или с концами). Так что закрывайте все приложения по максимуму, или если у вас 2 GPU юзайте ту, что не подключена к дисплею. Хотя не факт, что это поможет ибо после генерации VRAM целиком не освобождается и для следующего захода памяти остаётся меньше, чем для предыдущего. Время на генерацию кстати меньше особо не становится: ~1 мин 30 сек.

Причём нынешняя модель генерит в 480p, а в конце года обещают выложить веса для вывода в HD... воет по 2х5090'ньи

Про качество: Mochi очень хорошо понимает промт и грамотно выстраивает композицию, что особенно важно с моделью, где на одну генерацию уходят минуты. Ползунок Quality как по мне выкрученный на 100 мало что меняет, максимум видеоряд становится менее шумным и плавнее (но при этом и зависнуть может). Кипение и нестабильность тут есть, но это 480p, а если глянуть HD у них на гитхабе, то там всё красиво. На сайте, кстати, заявленного качества как-то не выцепил (раз и два, остальное зависло).

Если сравнивать с Allegro, который по умолчанию генерит в HD, то у Mochi чувствуется под капотом high quality датасет с киношными кадрами, игровыми синематиками, рекламой, итд, а с Allegro такого нет. Причём по кадрам нередко кажется, что это не генерация, а рандомный выбор видео из каталога, и кто-то вот-вот скажет "Да это же моё видео!". Также в Allegro сложнее промтом добиться нужной и стабильной картинки, а времени на генерацию уходит больше.

Таким образом Mochi 1 это лучший опенсорсный видеогенератор на данный момент.

PS, ещё пара наблюдений: генерация в Comfy с гитхаба занимает 1:45 сек, а в Pinokio 1:55. При этом энергопотребление в родном Comfy доходит до 521 Вт, а в Pinokio значительно ниже, в районе 430 Вт, и я это не раз замечал и с другими моделями. Скорее всего дело в паках-библиотеках-зависимостях, где с Comfy используется что ты сам поставишь в систему и папку с прилой, а Pinokio сам подбирает.

UPDATE: при установке длительности в 25 кадров, вообще никаких проблем не наблюдается на bf16, в том числе и надекоде VAE. Генерация при этом занимает ~1 мин 13 сек или ~2.43s/it на дефолтных настройках. А, да, я ещё качество до 100 поднял.

Анонс
Гитхаб Mochi 1
Comfy воркфлоу
Блогпост про Mochi 1
Forwarded from Denis Sexy IT 🤖
Please open Telegram to view this post
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
Зачем хакерам данные о движении глаз? Как отличить реальный подкаст, от записанного нейросетью? Безопасно ли добавлять паспортные данные в Google Wallet?

Ответы в новом выпуске «Пункта Выдачи Новостей» — подкаст-шоу от Ozon Tech, в котором обсуждаются новости про IT, технологии, людей и роботов, которые это всё создают.

Слушайте на любимой платформе:
📱YouTube
📱VK Видео
🎧Аудиосервисы
Please open Telegram to view this post
VIEW IN TELEGRAM
GPT4FREE Portable by Neurogen - Бесплатный доступ к ChatGPT 4o, Claude-3.5 и к моделям генерации изображений, таким как Flux, SD 3, SD XL.

Данная сборка основана на базе проекта gpt4free, который позволяет путем реверс-инжиниринга получать бесплатный доступ к различным нейросетям. Проект поддерживает множество моделей, таких как:

GPT-4o
GPT-4o-mini
Claude-3.5
LLaMa-3.1 и 3.2
Qwen-2.5

а также моделей для генерации изображений, таких как Flux, Stable Diffusion XL и Stable Diffusion 3.

Что нового в обновлении, по сравнению с прошлой версией:

- Обновлен код до актуального
- Добавлена поддержка новых моделей:

claude-3.5-sonnet
gemini-flash
llama-3.1-405B
Flux

И ряда других различных моделей.

Скачать сборку GPT4FREE Portable by Neurogen

Запуск программы:

- Распакуйте архив. Важно, в пути не должно быть кириллицы, иначе возможны ошибки
- Запустите файл start.bat
- Дождитесь загрузки программы. Если система запросит разрешение на доступ в интернет для Python - то предоставьте его.
- После этого открывшаяся страница в браузере должна обновиться. Если этого не произошло, то попробуйте обновить вручную.

Стоит сразу отметить, что так доступ получается «обходными путями», то работа может быть нестабильной. В случае ошибок иногда помогает перегенерация запроса.

#chatgpt #llm #portable

Neurogen - подпишись, тут рассказывают про нейросети
Qwen2.5-Coder - лучше чем GPT-4o для кодинга

Qwen2.5-Coder это целое семейство моделей:

Qwen2.5-Coder-0.5B
Qwen2.5-Coder-1.5B
Qwen2.5-Coder-3B
Qwen2.5-Coder-7B
Qwen2.5-Coder-14B
Qwen2.5-Coder-32B

При этом, в большинстве тестов и бенчмарков, старшая модель на 32B параметров обходит GPT-4o и Claude-3.5-Sonnet.

Что касаемо ключевых характеристик, то младшие модели (0.5B-3B) имеют контекстное окно в 32К токенов, в то время как все остальные уже 123К токенов.

Квантованные GGUF версии для локального запуска уже доступны для загрузки:

Qwen2.5-Coder-32B-Instruct-Q4_K_M.gguf (потребуется примерно 20
GB видео или оперативной памяти)
Qwen2.5-Coder-14B-Instruct-Q4_K_M.gguf (потребуется примерно 9 GB видео или оперативной памяти)
Qwen2.5-Coder-7B-Instruct-Q6_K.gguf (потребуется примерно 6,5 GB видео или оперативной памяти)
Qwen2.5-Coder-3B-Q6_K.gguf (потребуется примерно 2,5 GB видео или оперативной памяти)

#llm #code #qwen