Вспомнил, что уже сто лет не было легендарной рубрики #мешалка 🔄 . Для недавно подписавшихся, это рубрика, в которой мы открыли режим image blending в #Midjourney всему миру (о чем даже есть статья на KnowYourMeme).
Тема новой мешалки — легендарные напарники. Да, Том и Джерри на самом деле разыгрывают конфликт, чтобы кота не выгнали из дома.
Тема новой мешалки — легендарные напарники. Да, Том и Джерри на самом деле разыгрывают конфликт, чтобы кота не выгнали из дома.
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
В #Midjourney завезли долгожданный inpainting!
Теперь можно поменять любую часть генерации без запуска нейрофотошопа или стейбла! Это очень облегчает процесс, потому что раньше можно было уйти в долгую генеративную петлю, в попытке исправить какую-то деталь на изображении, добавить шляпу, например. Но теперь достаточно нажать Vary (Region) над увеличенной картинкой, выделить область, написать что там должно быть и все, дело в шляпе.
Несколько советов от команды Midjourney:
Эта функция работает лучше на больших областях изображения (20-50% изображения).
Изменение запроса сработает лучше, если это изменение более соответствует этому изображению (добавление шляпы персонажу), а не что-то совсем неуместное (дельфин в лесу).
Теперь можно поменять любую часть генерации без запуска нейрофотошопа или стейбла! Это очень облегчает процесс, потому что раньше можно было уйти в долгую генеративную петлю, в попытке исправить какую-то деталь на изображении, добавить шляпу, например. Но теперь достаточно нажать Vary (Region) над увеличенной картинкой, выделить область, написать что там должно быть и все, дело в шляпе.
Несколько советов от команды Midjourney:
Эта функция работает лучше на больших областях изображения (20-50% изображения).
Изменение запроса сработает лучше, если это изменение более соответствует этому изображению (добавление шляпы персонажу), а не что-то совсем неуместное (дельфин в лесу).
Как и предсказывал, #Midjourney пошли в сторону файн-тюнинга! Так что теперь можно его ТРЕНИРОВАТЬ на свои картинках.
Здесь вся инструкция: https://docs.midjourney.com/docs/style-tuner. А я побежал скорей раскидываться с делами, чтобы полноценно потестировать.
UPD: FAKENEWS, ниже детали.
Здесь вся инструкция: https://docs.midjourney.com/docs/style-tuner. А я побежал скорей раскидываться с делами, чтобы полноценно потестировать.
UPD: FAKENEWS, ниже детали.
Midjourney
Tune
Personalize the appearance of your Midjourney images using the Style Tuner. Use the /tune command to generate a range of sample images showing different visual styles based on your prompt. Choose your favorite images, and you'll receive a unique code you…
Киллер-фича #Midjourney V6 🤔
За всем потоком новостей я её пропустил, а вы не пропускайте. Style Transfer - возможность использовать любую картинку как стилевой референс. То есть, вы можете написать промпт, кинуть URL изображения, и на выходе получится генерация, учитывающая стилистику этого изображения.
Сделал несколько примеров с промптом: CAT WITH KNIFE + (стилевой референс).
Чем это отличается от обычного добавления картинок в промпт?🤨
По классической схеме с картинки бралось и смешивалось всё. То есть, если бы я кинул Марго Робби как обычный референс, то на выходе получилась бы розовая женщина-кошка с ножом.
Стилевой референс - про стиль, эстетику, но не конкретный объект или сюжет.
Почему это круто?😋
Больший контроль и возможность сохранения стилевой последовательности, чего сейчас приходится добиваться танцами с бубном. Midjourney плавно переходит от "сделать капец красиво" к "сделать капец красиво и как надо".
Как использовать стилевые референсы?
После вашего промпта введите --sref вместе с URL изображения
Что еще?
Можно использовать НЕСКОЛЬКО изображений, например --sref urlA urlB urlC
Можно установить ВЕС каждого стиля, например --sref urlA::2 urlB::3 urlC::5
Можно установить СИЛУ стиля через --sw 100 (100 - это по умолчанию, 0 - выключено, 1000 - максимум).
Я пойду дальше проводить эксперименты, а вы кидайте в комментарии свои.🍴
За всем потоком новостей я её пропустил, а вы не пропускайте. Style Transfer - возможность использовать любую картинку как стилевой референс. То есть, вы можете написать промпт, кинуть URL изображения, и на выходе получится генерация, учитывающая стилистику этого изображения.
Сделал несколько примеров с промптом: CAT WITH KNIFE + (стилевой референс).
Чем это отличается от обычного добавления картинок в промпт?
По классической схеме с картинки бралось и смешивалось всё. То есть, если бы я кинул Марго Робби как обычный референс, то на выходе получилась бы розовая женщина-кошка с ножом.
Стилевой референс - про стиль, эстетику, но не конкретный объект или сюжет.
Почему это круто?
Больший контроль и возможность сохранения стилевой последовательности, чего сейчас приходится добиваться танцами с бубном. Midjourney плавно переходит от "сделать капец красиво" к "сделать капец красиво и как надо".
Как использовать стилевые референсы?
После вашего промпта введите --sref вместе с URL изображения
Что еще?
Можно использовать НЕСКОЛЬКО изображений, например --sref urlA urlB urlC
Можно установить ВЕС каждого стиля, например --sref urlA::2 urlB::3 urlC::5
Можно установить СИЛУ стиля через --sw 100 (100 - это по умолчанию, 0 - выключено, 1000 - максимум).
Я пойду дальше проводить эксперименты, а вы кидайте в комментарии свои.
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
Я тут ушел с основной работы, чтобы играть в плойку, отдыхать и набираться сил для своих проектов. Поэтому появилось некоторое количество времени, чтобы возродить некоторые рубрики канала. Это дайджест новостей/какие-то штуки, которые мне показались интересными на этой неделе.
Назовем это #ЧтоТоИнтересное (4-10 марта 2024)
1. #Claude (главный конкурент ChatGPT) прокачался до третьей версии, поумнел, освоил мультимодальность и вообще держится молодцом. Главное преимущество на данный момент перед GPT4 — возможность подавать на вход большой объем данных (можно закинуть договора или небольшую книжку). Как это остроумно можно использовать в пайплайнах, можно посмотреть у Дениса.
2.Также клодовцы выпустили коллекцию промптов для разнообразных задач — от создания сайтов до генерации игр. Бывалых промтовиков не удивишь, но какие-то заходы можно подсмотреть.
3. #Midjourney круто обновили функцию /describe, которая позволяет превращать вашу картинку в промт и теперь, в комбинации с V6, работает отлично. Надеюсь на этой неделе выкатят обещанных последовательных персонажей.
4. Также Midjourney заблокировали доступ к сервису для сотрудников Stability AI после сбоя, связанного с интенсивным сбором данных. Эмад (глава Stability) пообещал разобраться в хулиганстве.
5. Ну и еще скандал. OpenAI публично пропесочила Илона Маска за лицемерие и судебные иски, указывая (с пруфами) на его прошлые попытки контролировать компанию.
6. Google обновили свой генератор музыки MusicFX — добавили режим DJ. Кидаете запросы, из них генерятся треки, а дальше регулируете их на ходу. Для серьезного продакшена не сгодится, но поиграться можно (только нужен хороший интернет, у меня работает через раз).
7. Ну и красивое. Кто-то смонтировал 75 видео из #SORA в одно большое, нарядное видео. Это мы смотрим и ждем.
Стэй тюнед🍎
Назовем это #ЧтоТоИнтересное (4-10 марта 2024)
1. #Claude (главный конкурент ChatGPT) прокачался до третьей версии, поумнел, освоил мультимодальность и вообще держится молодцом. Главное преимущество на данный момент перед GPT4 — возможность подавать на вход большой объем данных (можно закинуть договора или небольшую книжку). Как это остроумно можно использовать в пайплайнах, можно посмотреть у Дениса.
2.Также клодовцы выпустили коллекцию промптов для разнообразных задач — от создания сайтов до генерации игр. Бывалых промтовиков не удивишь, но какие-то заходы можно подсмотреть.
3. #Midjourney круто обновили функцию /describe, которая позволяет превращать вашу картинку в промт и теперь, в комбинации с V6, работает отлично. Надеюсь на этой неделе выкатят обещанных последовательных персонажей.
4. Также Midjourney заблокировали доступ к сервису для сотрудников Stability AI после сбоя, связанного с интенсивным сбором данных. Эмад (глава Stability) пообещал разобраться в хулиганстве.
5. Ну и еще скандал. OpenAI публично пропесочила Илона Маска за лицемерие и судебные иски, указывая (с пруфами) на его прошлые попытки контролировать компанию.
6. Google обновили свой генератор музыки MusicFX — добавили режим DJ. Кидаете запросы, из них генерятся треки, а дальше регулируете их на ходу. Для серьезного продакшена не сгодится, но поиграться можно (только нужен хороший интернет, у меня работает через раз).
7. Ну и красивое. Кто-то смонтировал 75 видео из #SORA в одно большое, нарядное видео. Это мы смотрим и ждем.
Стэй тюнед
Please open Telegram to view this post
VIEW IN TELEGRAM
claude.ai
Talk with Claude, an AI assistant from Anthropic
Под покровом ночи #Midjourney выкатили долгожданную функцию Character Reference, позволяющую создавать изображения последовательных персонажей на основе вашего референсного изображения. Вот основные моменты из анонса:
Сделал пару тестов со своей фоткой и... Ну, дримбус может спокойно дрим дальше. Самый частый сценарий применения подобной функции — это использование реальных фото. И здесь как раз слабо. Хорошо забирает основные черты, но полное сходство получится примерно никогда. Но если отходить от фотореализма в стилистическую абстракцию, то вполне может быть полезным инструментом для сторителлинга.
В приложении один пример из тестов —
Используйте --cref URL после вашего запроса с URL-адресом изображения персонажа.
--cw изменяет "силу" совпадения от 0 до 100 (по умолчанию 100 - копирует лицо, волосы и одежду).
Функция лучше работает с персонажами, созданными Midjourney, а не с реальными фото.
Можно комбинировать несколько URL для смешивания персонажей.
Также можно комбинировать с --sref для ссылки на стиль.
Сделал пару тестов со своей фоткой и... Ну, дримбус может спокойно дрим дальше. Самый частый сценарий применения подобной функции — это использование реальных фото. И здесь как раз слабо. Хорошо забирает основные черты, но полное сходство получится примерно никогда. Но если отходить от фотореализма в стилистическую абстракцию, то вполне может быть полезным инструментом для сторителлинга.
В приложении один пример из тестов —
character sheet
— довольно показателен.Уже, кажется, все написали, что генерация #Midjourney теперь работает не только в дискорде, но и на удобном, обновленном Midjourney.com.
Если вы не подписаны на всех, теперь вы тоже знаете. И то, что он дает около ~25 генераций бесплатно.
Картинка с котом - моя реакция, так как уже полгода сижу на веб-версии (доступ раздавали с n-тысяч генераций). По своему опыту, интерфейс получился действительно удобный и избивает опыт дискорда ногами. В который теперь захожу только для гейминга.
Если вы не подписаны на всех, теперь вы тоже знаете. И то, что он дает около ~25 генераций бесплатно.
Картинка с котом - моя реакция, так как уже полгода сижу на веб-версии (доступ раздавали с n-тысяч генераций). По своему опыту, интерфейс получился действительно удобный и избивает опыт дискорда ногами. В который теперь захожу только для гейминга.
1. Новый Ideogram 2.0 - внезапно круто. Понимание запроса от #Flux, эстетика (почти) от #Midjourney. Очень ровный и качественный результат из коробки. Даже взял подписку минимальную. Можете попробовать бесплатно потыкать и написать свое мнение (upd: из комментов выяснилось, что он немного умеет в кириллицу).
2. Часто вижу в комментах тэйки "Зачем нужна нейросеть A, если нейросеть B". Это из серии кто победит — Шварц или Сталлоне. У каждого есть свои плюсы и минусы. Соберите команду из них, а не стравливайте. Потому что лучшая нейросеть (или их связка) — та, которая выполняет ваши задачи.
2. Часто вижу в комментах тэйки "Зачем нужна нейросеть A, если нейросеть B". Это из серии кто победит — Шварц или Сталлоне. У каждого есть свои плюсы и минусы. Соберите команду из них, а не стравливайте. Потому что лучшая нейросеть (или их связка) — та, которая выполняет ваши задачи.
Бу, это тест нового инструмента Editor в веб-версии #Midjourney, который (наконец-то) позволяет:
а) расширять или инпейтить загруженные изображения.
б) переделывать их, сохраняя контуры (по сути ControlNet с Depth). Картинки с котом посвящены этому пункту, как самому интересному.
Вроде все это уже давно есть в других инструментах, но тут MJ наваливает свое традиционное КАЧЕСТ-ВО👍 .
Ну и вроде бы работает со всеми старыми настройками и приемчиками, что обеспечивает некоторую гибкость (тут закадровый смех фанатов Stable/Flux).
Потестить пока только можно если у вас от 10к генераций (у меня оказалось больше).
а) расширять или инпейтить загруженные изображения.
б) переделывать их, сохраняя контуры (по сути ControlNet с Depth). Картинки с котом посвящены этому пункту, как самому интересному.
Вроде все это уже давно есть в других инструментах, но тут MJ наваливает свое традиционное КАЧЕСТ-ВО
Ну и вроде бы работает со всеми старыми настройками и приемчиками, что обеспечивает некоторую гибкость (тут закадровый смех фанатов Stable/Flux).
Потестить пока только можно если у вас от 10к генераций (у меня оказалось больше).
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM