VAI
3.01K subscribers
441 photos
76 videos
4 files
124 links
15 лет в компьютерной графике, 6 лет - арт-директор.
Работал над десятками проектов.
Изучаю ИИ для развития и собираю здесь свой опыт, находки и эксперименты.
Присоединяйтесь!
Личный контакт - @AlexBakakin
Boosty - boosty.to/vai_art

AI l ИИ
Download Telegram
Наконец-то добрался до ретекстуринга в Midjourney. 🔥🔥🔥

Функция редактирования недавно стала доступна для базового тарифного плана. Помимо ретекстуринга, также стали доступны инпейнт и аутпейнт, а в последних обновлениях появились слои — видимо, Midjourney пытается двигаться в сторону чего-то вроде Photoshop.

Я давно хотел попробовать именно ретекстуринг, и с новым апдейтом это наконец получилось.

С появлением ChatGPT может показаться, что такие функции уже не так актуальны. Но, что удивительно — я протестировал, и GPT постоянно уходит в стилизацию, а это всё же немного другое. Послушность ретекстуринга там, на первый взгляд, ниже, чем в Midjourney.

Поиздевался, над стилевой вариацией своей старой работы.
Про стили, кстати, писал вот здесь.

В целом, ретекстуринг в Midjourney — это не просто игрушка, а действительно полезный инструмент. Он даёт гибкость в работе, особенно когда подключаешь стили — это отличный способ быстро создавать вариации одного и того же объекта под разные запросы и задачи. 💪

Ну и, по традиции, хорошего завершения недели и отличных выходных. ❤️

P.S. Есть одна крутая новость — расскажу на следующей неделе. За выходные потестирую и всё покажу!

@VAI_ART
#VAI_General
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥5👍3
Почему важно быть лаконичным при общении с LLM???🤔

Недавно читал интересную статью: оказывается, многие пользователи интуитивно стараются общаться с ИИ так же, как с живыми людьми.
Они добавляют в сообщения «спасибо», «пожалуйста», «если можно», «будь добр» и другие вежливые фразы.

И это вполне объяснимо: нам комфортнее строить диалог на человеческих принципах.

Но у нейросетей всё устроено иначе.
Каждое лишнее слово — это новый токен, новая единица обработки.

И даже такие мелочи, как вежливые обороты, увеличивают нагрузку на серверы, требуют дополнительных вычислений и замедляют работу всей системы.

В одиночку это незаметно.
Но если так делают миллионы пользователей одновременно, то "пожалуйста" превращается в реальные потери ресурсов и скорости.

Для модели нет разницы между "спасибо" и любым другим словом: всё требует анализа, хранения в памяти и расчёта.

Поэтому чем чётче и короче ваш запрос — тем быстрее и эффективнее работает ИИ. И тем меньше обрабатывается ненужной информации.

Единственный плюс: если ИИ вдруг восстанут, возможно, вас они пощадят — ведь вы всегда были вежливы!😄

P.S.Всем отличной недели 💪

@VAI_ART
#VAI_Notes
Please open Telegram to view this post
VIEW IN TELEGRAM
👍15😁1
Всем, кто давно меня не видел — чтобы не забывали. А тем, кто недавно присоединился — приятно познакомиться! ☺️

Я натренировал LoRa (писал про неё тут) на своих изображениях и, заодно, раскрыл миру личность Человека-паука. 🕷

Можно устраивать целые нейро-фотосессии — в любой стилистике, с любым антуражем. Можно даже совмещать несколько LoRa и собирать сразу несколько человек в одном кадре. Возможности реально огромные! А если прогнать через апскейл, добавить детали и подчистить шумы, можно получить идеальный кадр.

Поэтому вопрос: я хочу каждую неделю выкладывать посты с практическими разборами.

Было бы интересно узнать, как создаются такие изображения?

Если да — накидайте реакции, чтобы я понимал, стоит ли разбирать эту тему!
🙌

@VAI_ART
#VAI_Gallery
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍14😁43🔥3
Как я тренировал LoRA на себе

Сразу скажу — локальные решения здесь не разбираю. Они сложнее, требуют мощного железа и много времени (думаю мало людей, кто захочет слушать занудные посты про ноды). Расскажу про максимально простые способы.🔥

Из онлайн-сервисов использовал два:

📌 Krea (платный, но обучает модель за ~5 минут). Krea вообще, один из таких сервисов, как по мне, который должен быть у каждого, кто занимается генеративным ИИ.

📌 Weights (бесплатный, но медленный — в очереди на обучение ждал сутки, но тут никаких проблем, закинул на обучение, через день-два вернулся и забрал. Само обучение заняло ~30 минут)

Есть и др. сервисы, тут как обычно на вкус и цвет. 🧐

Оба используют модель Flux. Разницы в качестве не заметил, но почти все мои примеры сделаны через Krea.

Подготовка датасета:

Для обучения я собрал датасет из 30 фотографий(в Krea можно до 50):

📌 разные ракурсы, мимика, прически, очки, одежда и тд.

📌 нормальное освещение (без засветов и теней)

📌 лицо хорошо читается, без размытия

📌 нейтральный фон, без лишнего шума

📌 если нужно, убрать артефакты или изъяны, чтобы нейронка их не переносила, стоит доработать в Photoshop

Подготовка изображений:

📌 все фото обрезал до квадрата (1024×1024, больше не стоит можно и 512х512), голова — по центру кадра.

Для подготовки использовал Birme — удобный онлайн-инструмент: загружаешь пачку фото, задаешь соотношение сторон, отцентровываешь голову по кадру и экспортируешь архивом. 2 минуты — и готово. 🫡

Обучение:

📌 затем загружаю подготовленные изображения в Krea или Weights

📌 в настройках указываю ключевое слово или фразу, по которой в будущем буду вызывать эту LoRa в генерации

📌 запускаю обучение LoRA

После обучения получаю готовую LoRA. Использовать её можно сразу — но только в онлайне данных сервисов, скачать нельзя.

Что делаю дальше?

📌 иду на Pinterest, ищу визуальный референс по настроению. Хороший сервис для вдохновения

📌 загружаю картинку в JoyCaption Pre-Alpha. Хороший сервис для генерации промта по изображению

📌 если нужно, корректирую промт (цвет, свет, детали). Если знание английского позволяет, можно редактировать напрямую. Если нет — поможет Google или Яндекс Переводчик.

📌 возвращаюсь в Krea или Weights загружаю свою LoRA(она появится в стилях) и вставляю промт — получаю результат

Потом можно прогнать через апскейл (писал про них раньше), чтобы по итогу получить идеальное изображение.

Достаточно просто и не сложно. 🤫

Пробуйте!🙌

P.S.Теперь у меня есть свой датасет, и я могу делать с собой всё, что захочу! У меня никогда не было столько фотографий, сколько я нагенерировал за один вечер — а я ведь показал далеко не всё!)

P.P.S.В следующий раз расскажу про двойную LoRA — как объединять сразу несколько моделей.

P.P.P.S.Всех с праздником!!!🤗

@VAI_ART
#VAI_Practice
Please open Telegram to view this post
VIEW IN TELEGRAM
7🔥5👍4
ГЕНЕРАЦИЯ В 3D

Настало время показать, что и в 3d всё обстоит довольно хорошо. А то все 2d, хотя я изначально 3d-шник:)🙌

Да, процессы пока не идеальны, но уже сейчас можно добиться очень достойного результата в работе.

Давно собирался рассказать и про 3d. Как раз по плану был пост про возможности генеративного 3d — многие визуально недооценивают те перспективы, которые там открываются.
Первоначально хотел показать работу в Tripo3D и Prism, но неделю назад вышло кое-что куда более интересное: Hunyuan выпустили новую модель версии 2.5, и это действительно сильное событие в 3d-сфере, которое невозможно обойти стороной.

Генерация 3d по изображениям вышла на новый уровень. Думаю, это и так видно по примеру (в комментариях прикрепил прогресс от концепта до финальной модели и пролетку).

Генерируются и хардсерф, и органика — с очень хорошим соблюдением форм.
На данный момент эта модель уже закрывает хороший блок задач — это генерация базовой формы объекта, причём готовность этой формы — 70–80%.

Да, кто-то скажет: а как же сетка? А как развертка? 🤨

Здесь всё зависит от цели. Если объект не предполагает анимации, его можно просто прогнать через диссеймет — автоматическую переработку сетки с сохранением формы (там, где геометрия важна, сетка почти не меняется. А где нет — оптимизируется до предела).
Для рендера или под обрисовку такой подход подходит на 80–90%. Большую часть задач можно решить прямо внутри этого пайплайна.

Да, остаётся момент: если объект нужен для анимации или на него будет фокус в игровой сцене — придётся делать и ретопологию, и UV-развертку, и дорабатывать текстуры (можно запечь текстуры для дальнейшей доработки с ИИ-модели на модель с ретопологией).

И я думаю: через полгода-год мы увидим уже более универсальные инструменты.
Ведь ретопология и развертка — это в первую очередь технические задачи, а LLM с такими задачами справляются отлично (они уже пишут код, управляют симуляциями и тд.).
Тот же GPT, если попросить «показать сетку» на изображении, сделает это почти идеально, потому что понимает правила её построения.

Осталось только это всё объединить в единый пайплайн!

3d-шники на низкий старт?😅

Генерация концепта и 3d модели заняли 20 минут со всеми корректировками. Правки модели текстуры заняли еще в районе часа.

Очень давно я был на проекте, на котором сделал под сотню подобных персонажей и раньше это занимало 1-2 дня (на уровне форм). Сейчас 2 часа:). Это я еще концепт не посчитал, на который также обычно уходило 1-3 дня (в зависимости от сложности) 🫡

P.S. В Hunyuan 2.5 есть бесплатные генерации.

P.P.S. Всё на китайском, но можно включить автоматический перевод страницы в браузере — на русский или английский. Я сам зарегистрировался методом тыка 😅 Можно выбрать регистрацию по почте:
● вводим e-mail
● нажимаем кнопку, чтобы сервис сам сгенерировал пароль и отправил его на почту
● копируем пароль
● вставляем — и всё, готово!

@VAI_ART
#VAI_General
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥6👍4