Наконец-то добрался до ретекстуринга в Midjourney. 🔥 🔥 🔥
Функция редактирования недавно стала доступна для базового тарифного плана. Помимо ретекстуринга, также стали доступны инпейнт и аутпейнт, а в последних обновлениях появились слои — видимо, Midjourney пытается двигаться в сторону чего-то вроде Photoshop.
Я давно хотел попробовать именно ретекстуринг, и с новым апдейтом это наконец получилось.
С появлением ChatGPT может показаться, что такие функции уже не так актуальны. Но, что удивительно — я протестировал, и GPT постоянно уходит в стилизацию, а это всё же немного другое. Послушность ретекстуринга там, на первый взгляд, ниже, чем в Midjourney.
Поиздевался, над стилевой вариацией своей старой работы.
Про стили, кстати, писал вот здесь.
В целом, ретекстуринг в Midjourney — это не просто игрушка, а действительно полезный инструмент. Он даёт гибкость в работе, особенно когда подключаешь стили — это отличный способ быстро создавать вариации одного и того же объекта под разные запросы и задачи.💪
Ну и, по традиции, хорошего завершения недели и отличных выходных.❤️
P.S. Есть одна крутая новость — расскажу на следующей неделе. За выходные потестирую и всё покажу!
@VAI_ART
#VAI_General
Функция редактирования недавно стала доступна для базового тарифного плана. Помимо ретекстуринга, также стали доступны инпейнт и аутпейнт, а в последних обновлениях появились слои — видимо, Midjourney пытается двигаться в сторону чего-то вроде Photoshop.
Я давно хотел попробовать именно ретекстуринг, и с новым апдейтом это наконец получилось.
С появлением ChatGPT может показаться, что такие функции уже не так актуальны. Но, что удивительно — я протестировал, и GPT постоянно уходит в стилизацию, а это всё же немного другое. Послушность ретекстуринга там, на первый взгляд, ниже, чем в Midjourney.
Поиздевался, над стилевой вариацией своей старой работы.
Про стили, кстати, писал вот здесь.
В целом, ретекстуринг в Midjourney — это не просто игрушка, а действительно полезный инструмент. Он даёт гибкость в работе, особенно когда подключаешь стили — это отличный способ быстро создавать вариации одного и того же объекта под разные запросы и задачи.
Ну и, по традиции, хорошего завершения недели и отличных выходных.
P.S. Есть одна крутая новость — расскажу на следующей неделе. За выходные потестирую и всё покажу!
@VAI_ART
#VAI_General
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥5👍3
Почему важно быть лаконичным при общении с LLM???🤔
Недавно читал интересную статью: оказывается, многие пользователи интуитивно стараются общаться с ИИ так же, как с живыми людьми.
Они добавляют в сообщения «спасибо», «пожалуйста», «если можно», «будь добр» и другие вежливые фразы.
И это вполне объяснимо: нам комфортнее строить диалог на человеческих принципах.
Но у нейросетей всё устроено иначе.
Каждое лишнее слово — это новый токен, новая единица обработки.
И даже такие мелочи, как вежливые обороты, увеличивают нагрузку на серверы, требуют дополнительных вычислений и замедляют работу всей системы.
В одиночку это незаметно.
Но если так делают миллионы пользователей одновременно, то "пожалуйста" превращается в реальные потери ресурсов и скорости.
Для модели нет разницы между "спасибо" и любым другим словом: всё требует анализа, хранения в памяти и расчёта.
Поэтому чем чётче и короче ваш запрос — тем быстрее и эффективнее работает ИИ. И тем меньше обрабатывается ненужной информации.
Единственный плюс: если ИИ вдруг восстанут, возможно, вас они пощадят — ведь вы всегда были вежливы!😄
P.S.Всем отличной недели💪
@VAI_ART
#VAI_Notes
Недавно читал интересную статью: оказывается, многие пользователи интуитивно стараются общаться с ИИ так же, как с живыми людьми.
Они добавляют в сообщения «спасибо», «пожалуйста», «если можно», «будь добр» и другие вежливые фразы.
И это вполне объяснимо: нам комфортнее строить диалог на человеческих принципах.
Но у нейросетей всё устроено иначе.
Каждое лишнее слово — это новый токен, новая единица обработки.
И даже такие мелочи, как вежливые обороты, увеличивают нагрузку на серверы, требуют дополнительных вычислений и замедляют работу всей системы.
В одиночку это незаметно.
Но если так делают миллионы пользователей одновременно, то "пожалуйста" превращается в реальные потери ресурсов и скорости.
Для модели нет разницы между "спасибо" и любым другим словом: всё требует анализа, хранения в памяти и расчёта.
Поэтому чем чётче и короче ваш запрос — тем быстрее и эффективнее работает ИИ. И тем меньше обрабатывается ненужной информации.
Единственный плюс: если ИИ вдруг восстанут, возможно, вас они пощадят — ведь вы всегда были вежливы!
P.S.Всем отличной недели
@VAI_ART
#VAI_Notes
Please open Telegram to view this post
VIEW IN TELEGRAM
👍15😁1
Всем, кто давно меня не видел — чтобы не забывали. А тем, кто недавно присоединился — приятно познакомиться! ☺️
Я натренировал LoRa (писал про неё тут) на своих изображениях и, заодно, раскрыл миру личность Человека-паука. 🕷
Можно устраивать целые нейро-фотосессии — в любой стилистике, с любым антуражем. Можно даже совмещать несколько LoRa и собирать сразу несколько человек в одном кадре. Возможности реально огромные! А если прогнать через апскейл, добавить детали и подчистить шумы, можно получить идеальный кадр.
Поэтому вопрос: я хочу каждую неделю выкладывать посты с практическими разборами.
Было бы интересно узнать, как создаются такие изображения?
Если да — накидайте реакции, чтобы я понимал, стоит ли разбирать эту тему!🙌
@VAI_ART
#VAI_Gallery
Я натренировал LoRa (писал про неё тут) на своих изображениях и, заодно, раскрыл миру личность Человека-паука. 🕷
Можно устраивать целые нейро-фотосессии — в любой стилистике, с любым антуражем. Можно даже совмещать несколько LoRa и собирать сразу несколько человек в одном кадре. Возможности реально огромные! А если прогнать через апскейл, добавить детали и подчистить шумы, можно получить идеальный кадр.
Поэтому вопрос: я хочу каждую неделю выкладывать посты с практическими разборами.
Было бы интересно узнать, как создаются такие изображения?
Если да — накидайте реакции, чтобы я понимал, стоит ли разбирать эту тему!
@VAI_ART
#VAI_Gallery
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍14😁4❤3🔥3
Как я тренировал LoRA на себе
Сразу скажу — локальные решения здесь не разбираю. Они сложнее, требуют мощного железа и много времени (думаю мало людей, кто захочет слушать занудные посты про ноды). Расскажу про максимально простые способы.🔥
Из онлайн-сервисов использовал два:
📌 Krea (платный, но обучает модель за ~5 минут). Krea вообще, один из таких сервисов, как по мне, который должен быть у каждого, кто занимается генеративным ИИ.
📌 Weights (бесплатный, но медленный — в очереди на обучение ждал сутки, но тут никаких проблем, закинул на обучение, через день-два вернулся и забрал. Само обучение заняло ~30 минут)
Есть и др. сервисы, тут как обычно на вкус и цвет.🧐
Оба используют модель Flux. Разницы в качестве не заметил, но почти все мои примеры сделаны через Krea.
Подготовка датасета:
Для обучения я собрал датасет из 30 фотографий(в Krea можно до 50):
📌 разные ракурсы, мимика, прически, очки, одежда и тд.
📌 нормальное освещение (без засветов и теней)
📌 лицо хорошо читается, без размытия
📌 нейтральный фон, без лишнего шума
📌 если нужно, убрать артефакты или изъяны, чтобы нейронка их не переносила, стоит доработать в Photoshop
Подготовка изображений:
📌 все фото обрезал до квадрата (1024×1024, больше не стоит можно и 512х512), голова — по центру кадра.
Для подготовки использовал Birme — удобный онлайн-инструмент: загружаешь пачку фото, задаешь соотношение сторон, отцентровываешь голову по кадру и экспортируешь архивом. 2 минуты — и готово.🫡
Обучение:
📌 затем загружаю подготовленные изображения в Krea или Weights
📌 в настройках указываю ключевое слово или фразу, по которой в будущем буду вызывать эту LoRa в генерации
📌 запускаю обучение LoRA
После обучения получаю готовую LoRA. Использовать её можно сразу — но только в онлайне данных сервисов, скачать нельзя.
Что делаю дальше?
📌 иду на Pinterest, ищу визуальный референс по настроению. Хороший сервис для вдохновения
📌 загружаю картинку в JoyCaption Pre-Alpha. Хороший сервис для генерации промта по изображению
📌 если нужно, корректирую промт (цвет, свет, детали). Если знание английского позволяет, можно редактировать напрямую. Если нет — поможет Google или Яндекс Переводчик.
📌 возвращаюсь в Krea или Weights загружаю свою LoRA(она появится в стилях) и вставляю промт — получаю результат
Потом можно прогнать через апскейл (писал про них раньше), чтобы по итогу получить идеальное изображение.
Достаточно просто и не сложно.🤫
Пробуйте!🙌
P.S.Теперь у меня есть свой датасет, и я могу делать с собой всё, что захочу! У меня никогда не было столько фотографий, сколько я нагенерировал за один вечер — а я ведь показал далеко не всё!)
P.P.S.В следующий раз расскажу про двойную LoRA — как объединять сразу несколько моделей.
P.P.P.S.Всех с праздником!!!🤗
@VAI_ART
#VAI_Practice
Сразу скажу — локальные решения здесь не разбираю. Они сложнее, требуют мощного железа и много времени (думаю мало людей, кто захочет слушать занудные посты про ноды). Расскажу про максимально простые способы.🔥
Из онлайн-сервисов использовал два:
📌 Krea (платный, но обучает модель за ~5 минут). Krea вообще, один из таких сервисов, как по мне, который должен быть у каждого, кто занимается генеративным ИИ.
📌 Weights (бесплатный, но медленный — в очереди на обучение ждал сутки, но тут никаких проблем, закинул на обучение, через день-два вернулся и забрал. Само обучение заняло ~30 минут)
Есть и др. сервисы, тут как обычно на вкус и цвет.
Оба используют модель Flux. Разницы в качестве не заметил, но почти все мои примеры сделаны через Krea.
Подготовка датасета:
Для обучения я собрал датасет из 30 фотографий(в Krea можно до 50):
📌 разные ракурсы, мимика, прически, очки, одежда и тд.
📌 нормальное освещение (без засветов и теней)
📌 лицо хорошо читается, без размытия
📌 нейтральный фон, без лишнего шума
📌 если нужно, убрать артефакты или изъяны, чтобы нейронка их не переносила, стоит доработать в Photoshop
Подготовка изображений:
📌 все фото обрезал до квадрата (1024×1024, больше не стоит можно и 512х512), голова — по центру кадра.
Для подготовки использовал Birme — удобный онлайн-инструмент: загружаешь пачку фото, задаешь соотношение сторон, отцентровываешь голову по кадру и экспортируешь архивом. 2 минуты — и готово.
Обучение:
📌 затем загружаю подготовленные изображения в Krea или Weights
📌 в настройках указываю ключевое слово или фразу, по которой в будущем буду вызывать эту LoRa в генерации
📌 запускаю обучение LoRA
После обучения получаю готовую LoRA. Использовать её можно сразу — но только в онлайне данных сервисов, скачать нельзя.
Что делаю дальше?
📌 иду на Pinterest, ищу визуальный референс по настроению. Хороший сервис для вдохновения
📌 загружаю картинку в JoyCaption Pre-Alpha. Хороший сервис для генерации промта по изображению
📌 если нужно, корректирую промт (цвет, свет, детали). Если знание английского позволяет, можно редактировать напрямую. Если нет — поможет Google или Яндекс Переводчик.
📌 возвращаюсь в Krea или Weights загружаю свою LoRA(она появится в стилях) и вставляю промт — получаю результат
Потом можно прогнать через апскейл (писал про них раньше), чтобы по итогу получить идеальное изображение.
Достаточно просто и не сложно.
Пробуйте!
P.S.Теперь у меня есть свой датасет, и я могу делать с собой всё, что захочу! У меня никогда не было столько фотографий, сколько я нагенерировал за один вечер — а я ведь показал далеко не всё!)
P.P.S.В следующий раз расскажу про двойную LoRA — как объединять сразу несколько моделей.
P.P.P.S.Всех с праздником!!!
@VAI_ART
#VAI_Practice
Please open Telegram to view this post
VIEW IN TELEGRAM
❤7🔥5👍4
ГЕНЕРАЦИЯ В 3D
Настало время показать, что и в 3d всё обстоит довольно хорошо. А то все 2d, хотя я изначально 3d-шник:)🙌
Да, процессы пока не идеальны, но уже сейчас можно добиться очень достойного результата в работе.
Давно собирался рассказать и про 3d. Как раз по плану был пост про возможности генеративного 3d — многие визуально недооценивают те перспективы, которые там открываются.
Первоначально хотел показать работу в Tripo3D и Prism, но неделю назад вышло кое-что куда более интересное: Hunyuan выпустили новую модель версии 2.5, и это действительно сильное событие в 3d-сфере, которое невозможно обойти стороной.
Генерация 3d по изображениям вышла на новый уровень. Думаю, это и так видно по примеру (в комментариях прикрепил прогресс от концепта до финальной модели и пролетку).
Генерируются и хардсерф, и органика — с очень хорошим соблюдением форм.
На данный момент эта модель уже закрывает хороший блок задач — это генерация базовой формы объекта, причём готовность этой формы — 70–80%.
Да, кто-то скажет: а как же сетка? А как развертка?🤨
Здесь всё зависит от цели. Если объект не предполагает анимации, его можно просто прогнать через диссеймет — автоматическую переработку сетки с сохранением формы (там, где геометрия важна, сетка почти не меняется. А где нет — оптимизируется до предела).
Для рендера или под обрисовку такой подход подходит на 80–90%. Большую часть задач можно решить прямо внутри этого пайплайна.
Да, остаётся момент: если объект нужен для анимации или на него будет фокус в игровой сцене — придётся делать и ретопологию, и UV-развертку, и дорабатывать текстуры (можно запечь текстуры для дальнейшей доработки с ИИ-модели на модель с ретопологией).
И я думаю: через полгода-год мы увидим уже более универсальные инструменты.
Ведь ретопология и развертка — это в первую очередь технические задачи, а LLM с такими задачами справляются отлично (они уже пишут код, управляют симуляциями и тд.).
Тот же GPT, если попросить «показать сетку» на изображении, сделает это почти идеально, потому что понимает правила её построения.
Осталось только это всё объединить в единый пайплайн!
3d-шники на низкий старт?😅
Генерация концепта и 3d модели заняли 20 минут со всеми корректировками. Правки модели текстуры заняли еще в районе часа.
Очень давно я был на проекте, на котором сделал под сотню подобных персонажей и раньше это занимало 1-2 дня (на уровне форм). Сейчас 2 часа:). Это я еще концепт не посчитал, на который также обычно уходило 1-3 дня (в зависимости от сложности)🫡
P.S. В Hunyuan 2.5 есть бесплатные генерации.
P.P.S. Всё на китайском, но можно включить автоматический перевод страницы в браузере — на русский или английский. Я сам зарегистрировался методом тыка 😅 Можно выбрать регистрацию по почте:
● вводим e-mail
● нажимаем кнопку, чтобы сервис сам сгенерировал пароль и отправил его на почту
● копируем пароль
● вставляем — и всё, готово!
@VAI_ART
#VAI_General
Настало время показать, что и в 3d всё обстоит довольно хорошо. А то все 2d, хотя я изначально 3d-шник:)
Да, процессы пока не идеальны, но уже сейчас можно добиться очень достойного результата в работе.
Давно собирался рассказать и про 3d. Как раз по плану был пост про возможности генеративного 3d — многие визуально недооценивают те перспективы, которые там открываются.
Первоначально хотел показать работу в Tripo3D и Prism, но неделю назад вышло кое-что куда более интересное: Hunyuan выпустили новую модель версии 2.5, и это действительно сильное событие в 3d-сфере, которое невозможно обойти стороной.
Генерация 3d по изображениям вышла на новый уровень. Думаю, это и так видно по примеру (в комментариях прикрепил прогресс от концепта до финальной модели и пролетку).
Генерируются и хардсерф, и органика — с очень хорошим соблюдением форм.
На данный момент эта модель уже закрывает хороший блок задач — это генерация базовой формы объекта, причём готовность этой формы — 70–80%.
Да, кто-то скажет: а как же сетка? А как развертка?
Здесь всё зависит от цели. Если объект не предполагает анимации, его можно просто прогнать через диссеймет — автоматическую переработку сетки с сохранением формы (там, где геометрия важна, сетка почти не меняется. А где нет — оптимизируется до предела).
Для рендера или под обрисовку такой подход подходит на 80–90%. Большую часть задач можно решить прямо внутри этого пайплайна.
Да, остаётся момент: если объект нужен для анимации или на него будет фокус в игровой сцене — придётся делать и ретопологию, и UV-развертку, и дорабатывать текстуры (можно запечь текстуры для дальнейшей доработки с ИИ-модели на модель с ретопологией).
И я думаю: через полгода-год мы увидим уже более универсальные инструменты.
Ведь ретопология и развертка — это в первую очередь технические задачи, а LLM с такими задачами справляются отлично (они уже пишут код, управляют симуляциями и тд.).
Тот же GPT, если попросить «показать сетку» на изображении, сделает это почти идеально, потому что понимает правила её построения.
Осталось только это всё объединить в единый пайплайн!
3d-шники на низкий старт?
Генерация концепта и 3d модели заняли 20 минут со всеми корректировками. Правки модели текстуры заняли еще в районе часа.
Очень давно я был на проекте, на котором сделал под сотню подобных персонажей и раньше это занимало 1-2 дня (на уровне форм). Сейчас 2 часа:). Это я еще концепт не посчитал, на который также обычно уходило 1-3 дня (в зависимости от сложности)
P.S. В Hunyuan 2.5 есть бесплатные генерации.
P.P.S. Всё на китайском, но можно включить автоматический перевод страницы в браузере — на русский или английский. Я сам зарегистрировался методом тыка 😅 Можно выбрать регистрацию по почте:
● вводим e-mail
● нажимаем кнопку, чтобы сервис сам сгенерировал пароль и отправил его на почту
● копируем пароль
● вставляем — и всё, готово!
@VAI_ART
#VAI_General
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥6👍4