VAI
3K subscribers
441 photos
76 videos
4 files
124 links
15 лет в компьютерной графике, 6 лет - арт-директор.
Работал над десятками проектов.
Изучаю ИИ для развития и собираю здесь свой опыт, находки и эксперименты.
Присоединяйтесь!
Личный контакт - @AlexBakakin
Boosty - boosty.to/vai_art

AI l ИИ
Download Telegram
Когда начал писать про Flux Kontext (тут), показал на примере бутылки, как её можно перенести куда угодно, не теряя сути. Классная фишка, особенно для маркетологов.

В этом посте — немного за дизайнеров интерьеров/экстерьеров 🙂

С помощью Flux Kontext можно работать с экстерьерами и интерьерами: точечно добавлять и убирать объекты, менять окружение, освещение, время суток. Конечно, это не заменит полноценную работу дизайнеров, но может сильно ускорить процесс и помочь на этапе идей и презентаций.

Не устали ещё от Flux Kontext?
А то там еще есть интересные фишки.

@VAI_ART
#VAI_Gallery
6👍3
🟥🟥🟥 Итак, в конце прошлой недели у меня сломался VPN, и я его так и не починил. Решил воспринять это как знак, что пора отдохнуть. 😁 Лето, солнце… Но сегодня-завтра всё починю и в ближайшие дни продолжу выкладывать контент по плану.

А пока хочу спросить: вам было бы интересно понаблюдать за процессом создания продукта через ИИ?

Думаю, важно развиваться и двигаться вперёд — это касается всего. И сейчас я чувствую, что созрел для небольшого проекта. Например, можно сделать что-то с максимальным использованием ИИ, чтобы на практике показать, как уже сегодня в одиночку можно создавать что-то интересное.

Полноценную игру делать не буду, но, скажем, небольшую техно демку на один уровень (на Unity или Unreal) — вполне реалистичная задача.

Каждую неделю или две буду делиться прогрессом, и мы сможем обсуждать как инструменты, так и сам проект.

Как вам такая идея? Было бы интересно следить за этим?🧐

Конечно, всё остальное на канале останется (плюс со временем добавятся и другие темы), просто появится ещё одна точка притяжения.
Please open Telegram to view this post
VIEW IN TELEGRAM
5👍1
Интересно или нет?
Anonymous Poll
78%
Да
5%
Нет
29%
Лёха, где материалы по ИИ?
Авторского права на «чистый» AI-контент нет. 🤷‍♂️

AI-генерация поставила под сомнение привычные нормы авторского права: по закону объектом охраны может быть только то, что создано человеком. В 2023 году Бюро авторских прав США заявило, что полностью сгенерированный ИИ контент не охраняется, например был случай и изображения из Midjourney в зарегистрированном графическом романе — автору признали право только на текст. В ЕС и РФ прямых норм пока нет, но в целом требуется творческий вклад человека. Но, например в Китае уже появились первые судебные иски об AI-арте, и хотя некоторые решения допускают частичную охрану, вопрос остается открытым. Без участия человека ИИ-контент не получает защиты, а правила его использования определяются условиями конкретного сервиса.

Общие правила по лицензиям.🤓

Лицензионные права зависят от конкретного сервиса, поэтому перед коммерческим использованием материалов важно внимательно изучить условия использования.

Во многих случаях контент, созданный в рамках пробного периода или на бесплатных тарифах, не разрешается использовать в коммерческих целях, тогда как на платных тарифах такое использование, допускается.

Однако даже при платной подписке платформы часто оставляют за собой право использовать сгенерированные материалы для обучения своих моделей.

Есть и исключения:

- OpenAI «обещает», что на платных тарифах не использует пользовательские данные для обучения
- Runway разрешает коммерческое использование даже на бесплатных генерациях.
- Adobe Firefly заявляет о юридической защите от возможных исков со стороны правообладателей
- Stable Diffusion — открытая модель, которая разрешает использование генеративных изображений в коммерческих целях

И это далеко не все.

Важно помнить, что при использовании генеративного контента есть риски.

Например:

- Чисто AI-контент не всегда можно защитить авторским правом — это значит, что кто-то может взять вашу работу и тоже использовать
- AI может случайно сгенерировать чужие элементы — например, логотип или стиль художника. За это отвечаете вы, а не сервис

Риски можно снизить:

- Добавляйте свой креатив: редактируйте, дорабатывайте — тогда результат можно считать совместным и охраняемым
- Не копируйте чужое напрямую
- Проверяйте контент на логотипы и узнаваемые фрагменты
- Для текстов – желательно прогонять через анти-плагиат
- Храните промпты и прогресс — пригодится, если надо будет доказать авторство.
- Можно написать, что результат сгенерирован, тем самым, частично сняв с себя ответственность

ИИ — это мощный инструмент, и вы имеете полное право использовать его результаты. Главное — знать условия сервиса, соблюдать законы и проявлять немного внимательности. Тогда AI станет не источником риска, а вашим конкурентным преимуществом. 🔥🔥🔥

@VAI_ART
#VAI_Notes
Please open Telegram to view this post
VIEW IN TELEGRAM
👍73🤷‍♂1
Год продолжается серией запусков новых видео-генераторов. За последние несколько дней вышло много интересных обновлений, и думаю, стоит с вами ими поделиться:

🔹Seedance — новая видео модель
🔹Minimax — обновился до версии Hailuo 02
🔹Midjourney — решился двигаться дальше и запустил свою видео модель
🔹Higgsfield — добавили поддержку Flux.Kontext

Видео с каждой моделью прикреплены к посту и расставлены по порядку(относительно описания выше), чтобы вам было понятно, какое видео к какой модели относится.

На деле, пока не понятно, нужно будет оценить их эффективность после тестов.

Скорее всего, каждая из них займёт свою нишу и будет выполнять свой набор задач. Это, в принципе, уже происходит с множеством других видео-генераторов и ИИ-инструментов.

Основная проблема сегодняшнего времени — огромное количество ИИ, но ни один из них не может закрыть весь стэк задач в своей нише. Все эти модели обучались по-разному и на различных датасетах, каждая имеет свои плюсы и минусы. Это касается не только видео-генераторов, но и всех ИИ-сетей в целом.

Сейчас важно иметь базу ИИ-сетей и чёткое понимание, что каждая из них умеет. Это позволит максимально эффективно использовать их.

В будущем мы, конечно, получим много крутых моделей, но пока что ситуация выглядит так.

Может составить топ ИИ-сетей, где и как их можно использовать?

@VAI_ART
#VAI_News
👍107
Слушай, а ловко ты это придумал, я даже в начале и не понял. ©

Или история о том, как сжечь месячную подписку в Midjourney за час. 😅

Решил немного сделать быстрых тестов. Получилось достаточно неплохо. Особенно хорошо работает с художественными стилями: как-то разбирает всю кашу в изображениях и даже не теряет суть.

Старт очень хороший, несмотря на то, что пока 480p и 5 секунд хронометража. Точно будет интересно понаблюдать за развитием данного ИИ.

По традиции, всем хороших и тёплых выходных. ❤️

@VAI_ART
#VAI_Gallery
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
6👍2
Наконец то добрался до Eleven labs, которая специализируется на генеративном аудио и голосовом синтезе с помощью ИИ.😎

Большое количество функций, таких как:

- Text-to-Speech. Создает реалистичные голосовые озвучки с естественной интонацией и эмоциями. Поддержка более 70 языков и тысячи голосов
- Voice Cloning. Копирует даже уникальные голоса по короткому аудиосэмплу — от простого до профессионального качества
- Speech-to-Text. Преобразует речь в текст с высокой точностью (~98 %) и умеет определять разных говорящих .
- Conversational AI & Dubbing. Голосовые ассистенты, дубляж и озвучка видео с сохранением эмоций и смысла исходного материала.
- Sound Effects. Генерация звуковых эффектов по описанию.

Получается достаточно хорошо. Я раньше скидывал аналогичный сервис от Google, но в Eleven Labs, например, озвучка текста выглядит лучше. Есть звуковые растяжки, ускорение или замедление речи и т.д., что делает голос ещё более естественным. Ну и у них также есть расстановка акцентов по типу смеха, страха, шёпота, крика и т.д. Работает не всегда — бывает, что не реагирует на такие вставки. Делается это просто: в квадратных скобках указывается эмоция, например [смех] или [laughter]. Полный список доступен в руководстве.

Многие функции работают в бесплатном режиме.

Также на днях Minimax выпустили свою модель — со всеми функциями, которые перечислял выше у Eleven Labs.

Спектр применения довольно широк — от копирования любого голоса, до генерации звуков и озвучки роликов и подкастов. Думаю, каждый найдёт для себя способ использования такого типа ИИ.

В общем, достаточно хороший инструмент для работы с голосом и звуками. Пользуйтесь! 🔥

В комментариях пример генерации голоса. Как по мне, очень выразительный и органичный и уже практически не различимый с человеческим.

P.S. ElevenLabs и Google работают только через VPN, а вот Minimax не выпендривается и заводится без всего.

@VAI_ART
#VAI_General
Please open Telegram to view this post
VIEW IN TELEGRAM
👍54
Forwarded from Нейронично
День на генерацию 2д-концептов предметов и модульного окружения в ChatGPT и Sora.
Полтора дня на генерацию 3д в нейронке Hunyuan 2.5.
Полтора дня на сборку и свет в анриле.

Я в шоке, что 4 дня назад гуляла по этой локации у себя в голове, а теперь вот гуляю в анриле.

Из-за очень плотной сетки такой способ пока работает для превиза в геймдеве и стиллов под дальнейшую анимацию в нейронках. И ещё как новый инструмент для концепт-арта, потому что собрать такой драфтовый уровень в анриле теперь быстрее, чем нарисовать. Проблемы с сеткой скорее всего будут решены или значительно оптимизированы в течение года.

Всего было сгенерено 150 пропсов, в самой сцене использовано примерно 130. Руками правились только текстура на портрете Теслы и ковры, всё остальное - чистые 3д-генерации из хуньяня.

#3d_Aironically
👍4🔥32
Способы генерация изображений 🔥🔥🔥

При генерации изображений до сих пор не получается получить нужный результат с первого прохода. Чаще всего это комбинация разных ИИ и подходов, и, конечно, доработки руками. Даже так это в разы ускоряет работу.

Получить что-то абстрактное или близкое к нужному — да, но конкретную идею приходится добивать.

Существует несколько способов генерации изображений. По сути различается только начальная стадия, все зависит от задачи и исходных материалов.

1. Генерация изначально около подходящего изображения:

- я ищу подходящий референс или использую уже найденный (у меня есть база изображений, которые мне нравятся). Загружаю это изображение в языковую модель, которая умеет считывать изображения, и прошу её составить промпт. Дальше дорабатываю его, чтобы получить нужный результат.

- ChatGPT или Sora (работают только по подписке). Почему я использую именно их? Эти модели поддерживают русский язык, и не нужно думать, как бы это написать на английском. Мне важно делать всё максимально просто, и модели позволяют это. Иногда помогает грубый скетч, иногда можно просто общаться с моделью — всё ситуативно и зависит от задачи.

- так же через ChatGPT составляю промпт и иду в Midjourney. Это всё ещё лучший инструмент в плане художественности и понимания стилей. С его помощью получаю нужный результат в плане общего вида, настроения и стиля. Но, как обычно, результат получается не идеальным — тут цвет нужно поправить, здесь форма не такая, как хотелось бы и тд.

2. Доработка с помощью inpaint/outpaint

В итоге обычно получается результат, близкий к нужному, но всё равно требующий доработки. Дальше в ход обычно шли инструменты inpaint или outpaint, о которых я уже писал. Почему раньше? С появлением Flux Kontext, про который я тоже упоминал, игра изменилась. С его консистентностью править изображения стало гораздо проще.

3. Ручная доработка

Подправить косяки или совместить элементы из разных получившихся вариантов.

4. Апскейлеры

В конце — апскейлеры. Всё зависит от результата: можно попросить увеличить качество изображения или добавить немного креативности. Также он помогает соединить и зашлифовать стыки, если до этого не сильно прорабатывались детали.

Этот пайплайн нужен, если нужно получить хороший и контролируемый результат для дальнейшей работы. Если просто хочется красивую случайную картинку, то можно так не заморачиваться.

Опять же все зависит от того что требуется. Если нужно что-то с нашими локальными особенностями (панельки, балалайки, матрешки и т.д.), то можно использовать Reve, она отлично работает с советскими/российскими деталями. Если нужно вставить что-то конкретное, можно использовать Gen-4 References в Runway. Например, если у вас есть фото машины, человека и окружения, этот инструмент комбинирует все три изображения и создаёт из них одно, также используя описание, которое добавляется.

Как и говорил все зависит от ситуации.

А как вы делаете? Буду рад услышать новые решения 🙂

@VAI_ART
#VAI_Practice
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍71
Некоторые сны — как плохая генерация? 🧐

На днях снилась такая дичь, проснулся с мыслью — а не работает ли наш мозг во сне как нейросеть, у которой не хватает «мощности» и данных?

Да, это происходит не всегда. А что, если "качество самой картинки" зависит от ресурсов, которые мозг выделяет на конкретный сон?

У каждого бывали такие сны, в которых происходят абсурдные, нелогичные вещи. Сюжеты скачут. Люди превращаются в других. Пространства сливаются.
А потом ты смотришь видео, сгенерированное какой-нибудь ИИ-моделью, и ловишь себя на том же ощущении.

Ведь мозг во время сна отключен от внешнего мира, но продолжает перерабатывать внутренние переживания, мысли, воспоминания.
И делает это, в своем латентном (скрытом) пространстве.

Он берёт фрагменты из памяти, складывает их, дополняет, интерпретирует.
В результате и получаются те самые сны, в которых сюжеты, пространства, объекты сливаются и перемешиваются.

Может быть, сны — это и есть биологическая генерация, основанная на внутренних промптах: "что я чувствовал", "о чём думал", "что не успел пережить".
Мозг собирает из этого сюжет — так же, как генератор собирает видео из текста.

Подумалось, что это интересная точка для размышлений. Ведь чисто на математическом уровне нейросети копируют поведение нейронов в мозгу.

Есть над чем подумать. 😀

@VAI_ART
#VAI_Notes
Please open Telegram to view this post
VIEW IN TELEGRAM
😁6💯21🦄1