VAI
2.77K subscribers
441 photos
75 videos
4 files
124 links
15 лет в компьютерной графике, 6 лет - арт-директор.
Работал над десятками проектов.
Изучаю ИИ для развития и собираю здесь свой опыт, находки и эксперименты.
Присоединяйтесь!
Личный контакт - @AlexBakakin
Boosty - boosty.to/vai_art

AI l ИИ
Download Telegram
На этой неделе ничего очень значительного не произошло, но вышли улучшенные версии уже существующих инструментов.

🔹 Qwen3 обновился. Они выкатили свежий апдейт своего флагмана Qwen3-235B-A22B.Параметров стало большое (235B), но за один проход по архитектуре задействуют только 22B, отсюда название.
По сути Qwen3 сейчас одна из самых технологически продвинутых и открытых моделей на рынке, но мы с вами уже привыкли, что первенство может перехватываться иногда даже ежедневно. Даже Kimi K2 про который писал недавно обходит, причем достаточно неплохо.

🔹 RunWay. Анонсировал инструмент Aleph, который должен появиться на днях. Aleph - это современная модель контекстного видео, открывающая новые горизонты многозадачной генерации визуальных эффектов, позволяющая выполнять широкий спектр операций редактирования исходного видео, таких как добавление, удаление и преобразование объектов, получение новых ракурсов сцены, изменение стиля и освещения, а также множество других задач. Прикрепил презентацию в комментарии.

🔹 Kling AI. Про который уже писал ранее. Kling AI Elements получил обновление. Позволяет генерировать видео на основе 1–4 изображений, автоматически объединяя их в единую динамическую сцену на основе вашей подсказки. Возможность добавлять, удалять или заменять элементы напрямую в интерактивном редакторе без использования внешних инструментов. Значительно улучшены согласованность сюжета, динамика и качество визуального рендеринга.

🔹 Midjourney. Недавно во всеми любимом генераторе ИИ изображений появилась возможность генерировать видео. Писал про него тут. Видео генератор понемногу развивается и обрастает интересными фишками. На этой неделе сделали возможность добавления последнего кадра. Теперь контролировать видео стало легче.

🔹Magnific AI. Новый тип апскейла – Precision (точность) – предлагает настройки для улучшения качества изображений. Уровень резкости, улучшает края и текстуры, повышая визуальную ясность, но высокие значения могут сделать изображение искусственным. Умные края с низкими значениями (7% - 12%) сохраняют оригинальное зерно, подходящее для фотографий или пленки, а высокие значения добавляют художественный или экспериментальный эффект. Настройка Ультра детализация повышает фокусировку и четкость, но при высоких значениях могут появляться артефакты, такие как гало или сдвиги контрастности, что делает изображение более искусственным. В данный момент апскейл работает в 2X, с возможностью увеличения изображения несколько раз.

🔹 Hedra запустили Live Avatars — это технология, позволяющая анимировать 3D-аватары в реальном времени прямо в браузере без установки. Система синхронизирует мимику и движения головы по видео с камеры, работает быстро и точно, поддерживает реалистичные и стилизованные лица, и легко интегрируется через LiveKit API. Это решение идеально для ассистентов и онлайн-презентаций — при этом стоит всего ~$0.05 за минуту, что делает его в десятки раз дешевле аналогов.

🔹ChatGPT. Новость, скорее всего, не новая, но в GPT при редактировании изображений наконец-то улучшили консистентность. Раньше, если просил добавить усы на фото (как пример), то система помимо усов сильно меняла само лицо. Сейчас работает гораздо лучше и практически не изменяет исходное изображение.

Что у вас? Может что - то пропустил? 🧐

@VAI_ART
#VAI_News
Please open Telegram to view this post
VIEW IN TELEGRAM
👍101
Последнее время зарылся в какие-то эксперименты, которые не получается довести до конца.
И тут либо показывать то, что есть — потому что даже на этом этапе ИИ реально помогают в работе, либо ждать, пока инструменты доведут до рабочего состояния и уже показать в полную силу. 🧐
Я выбрал второй вариант. Там реально неплохие штуки, и хочется показать их во всей красе.

Поэтому пачка постов уезжает на неопределённое время в стол.

Нормально. Едем дальше! 💪

Чтобы немного перебить пустоту, покажу интересный способ, как сделать свой пак стикеров (в данном случае на основе своей фотографии).

Делается быстро и без особых проблем.

В Sora пишу такой промпт:

Серия стикеров в пиксель-арт стиле на основе референса. Туда войдут:
– шлёт поцелуй
– влюблённый
– злой
– задумчивый
– показывает язык
– смеётся
Расположи их в виде чёткой сетки с достаточными отступами по вертикали и горизонтали, чтобы стикеры не были обрезаны. Убедись, что стиль стикеров един для всего сета.
Сделай это всё на одном изображении и на прозрачном фоне.


Этим мне Sora и нравится — можно просто писать как техническое задание, а не извращаться с промтингом.

Дальше прогнал через апскейлер. Мне нравится, как работает небольшая программка Upscayl, которая ставится на комп.
Чтобы вытащить что-то не очень шакальное — быстро, очень помогает.

В итоге получаем любой стикерпак за 10 минут.

Помню, как-то на один из проектов надо было делать стикеры для чата — на пак уходило пару дней. Сейчас, с ручными доработками, можно уложиться в полчаса - час.

Пользуйтесь! 🔥🔥🔥

@VAI_ART
#VAI_Gallery
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
28👍6🔥2👌2
Эксперименты с фактурами. Навязал вам иконок на выходных.

Промпт для Sora
Создай изображение с набором иконок для мобильных приложений, расположенных в сетке 3 на 3. Каждая иконка должна быть выполнена в виде квадратного значка с закруглёнными углами, визуально имитирующего вязаную текстуру (как крючком или спицами).
Сами иконки — это классические символы: фотоаппарат, чат, человек, письмо, WhatsApp, напоминание, облачность, солнце и дождь.
Иконки должны выглядеть как вязанные — с явно видимой структурой петель.
Фон — белый, иконки яркие, но приглушённые, с аккуратными отступами между ними.
Стилизация должна быть единой для всего сета.


@VAI_ART
#VAI_Gallery
8🔥4👍2
Конец июля немного разродился на релизы.

🔹Wan 2.2 - Новое обновление включает улучшенную реалистичность визуальных деталей, таких как кожа и текстуры, а также более точную стилизацию с настройкой насыщенности и мазков. В видео добавлены плавные переходы, улучшенная временная согласованность и оптимизация памяти для длительных роликов. Спецэффекты нового уровня включают глобальное освещение, динамические частицы и автоматический подбор фильтров. В обучении LoRA ускорена тренировка до 50% быстрее, а также поддерживается few-shot обучение и интеллектуальное объединение моделей. Кросс-модальное творчество позволяет генерировать видео из изображений и извлекать кадры для создания новых изображений с сохранением единой стилистики. В интерфейсе добавлены шаблоны для различных жанров и возможность настройки параметров в реальном времени. Можно протестировать тут. Скинул презентацию в комментарии.

🔹ChatGPT - режим для учёбы.Он не просто даёт ответ, а помогает разбирать задачи по шагам, с вопросами и пояснениями. Работает через диалог, как репетитор. Уже доступен всем, даже в бесплатной версии. OpenAI делали вместе с учителями, чтобы ИИ реально помогал учиться, а не просто подсказывал.

🔹RunWay - про который писал на прошлой неделе. Выпустил свой инструмент Aleph.

🔹Dream Machine - представили свою версию инструмента наподобие RunWay Aleph. Eстественный язык для управления изменениями в рабочих процессах создания визуальных эффектов, рекламы, фильмов и дизайна. Удаление и замена нативных объектов, виртуальные декорации, уточнение персонажей и изменение стиля скоро станут доступны всем подписчикам.

🔹Ideogram представили Ideogram Character — модель согласованности , работающую с одним референсным изображением. На основе которого можно сделать другие изображения, например с тем же лицом и тд. Доступно 10 бесплатных генераций. Это по типу того же Omni Reference в Midjourney. Писал тут.

🔹Photoshop наконец то сделал кнопку сделать хорошо. Добавили функцию Harmonize — функция берет и вписывает объект в сцену. Вот такого ждешь от всех инструментов. Скинул презентацию в комментарии.

🔹NotebookLM теперь можно генерировать анимированные слайды с озвучкой. Выглядит это так: загружаете любые источники, а агент генерирует по ним презентацию + сопроводительный рассказ.Доступно бесплатно. Лимиты такие же, как и для тех самых ИИ-подкастов: 3 в день.

🔹FLUX.1 Krea [dev] - это открытая модель генерации изображений, разработанная Black Forest Labs в сотрудничестве с Krea AI, основанная на архитектуре FLUX.1 [dev] с 12 миллиардами параметров. Модель ориентирована на создание фотореалистичных изображений с уникальной эстетикой, которая включает в себя более естественные текстуры, детализированное освещение и отражения, а также особенности визуального стиля, которые делают изображения отличными от стандартных моделей ИИ. Она минимизирует типичные артефакты, такие как неправильные пропорции или неестественные элементы, и предлагает более выразительные и атмосферные результаты, что выделяет её среди других генеративных моделей.

OpenAI - анонсировали выход GPTGhat 5 и модель с открытыми весами (открытая модель, которую можно поставить локально и бесплатно). Релизы запланированы на ближайшие месяцы.

@VAI_ART
#VAI_News
👍5
Forwarded from эйай ньюз
Genie 3 — SOTA World Model от Google

World Model — это по сути нейронные игровые движки, позволяющие двигатся и взаимодействовать с миром.существующим исключительно в воображении нейросетки. Прошлое поколение — Genie 2, позволяло создать по текстовому промпту окружение, в котором можно было походить 10-20 секунд в 360p. В этом поколении разрешение уже 720p, а длится взаимодействие с ней может уже несколько минут.

Но делает особенной эту модель возможность хорошо помнить эти несколько минут симуляции, даже взаимодействия пользователя с миром. Одно из демонстрационных вдиео — как пользователь красит сцену, потом отходит и немного крутится по комнате, а краска на стене остаётся. А ведь меньше года назад в нейронном майнкрафте достаточно было просто отвернутся чтобы модель совсем забыла всё об окружающей среде.

Крайне сильно выросла и возможность симулировать живой мир — промпты позволяют сгенерировать не просто окружение, но и события в этом окружении. Такая эволюция позволяет уже запускать симуляцию для тренировки полноценных агентов для реального мира, которым можно тренировать выполнять разные задачи. Я, правда, очень смутно представляю как такое окружение сделать верифицируемым.

А вот игры на такой технологии представляются куда проще — ведь не просто так игровой гигант Tencent настолько сильно инвестирует в world models. Кстати, многие не знают что глава Google DeepMind, Демис Хассабис, начинал с игровой индустрии. До DeepMind он основал свою студию, которая выпустила несколько игр, например Evil Genius.

Блогпост

@ai_newz
👍4🔥3
Давненько не писал основные посты. Исправляюсь.

Одна тема — захват движения по видео, как по мне, остается неоправданно в тени. А ведь данные ИИ сервисы прокачались не хуже остальных. 💪

Суть простая, закидываешь видео с персонажем → нейросеть считывает движение → получаешь готовую анимацию, которую можно использовать в своём проекте.
И всё это — без motion capture-сессий, трекеров и костюмов.

Зачем это вообще нужно:

🔹 экономит часы (а то и дни) рутинной анимации
🔹 дает отличную базу, которую можно доработать руками
🔹 подходит и для реалистичных проектов, и для стилизованных
🔹 помогает тестировать идеи быстрее — особенно на этапе концепта

Также из того, что нужно знать, для того, чтобы анимация хорошо перенеслась:

🔹 движения должны быть хорошо различимы
🔹 человек должен быть полностью в кадре
🔹 качество исходного видео должно быть нормальным

Я протестил некоторое количество подобных сервисов — и могу точно сказать, что можно с нуля собрать неплохой результат.

По моему личному топу могу выделить топ 2 сервисов, которые как по мне выдают неплохой результат:

- QuickMagic
- Meshcapade

И там и там есть бесплатные попытки для захвата движения.

Сервисов много, так что, возможно, есть что-то, что я упустил.
Если знаете — пишите! Буду рад посмотреть и протестировать.

Пока инструменты ещё развиваются, но уже сейчас экономят массу времени.

Как перенести анимацию на свой скелет — расписывать не буду.
Достаточно вбить запрос на YouTube или RuTube — там ребята подробно рассказывают, как это делается.
Думаю, любой аниматор без проблем справится с этим.

Как по мне крутая тема! 🔥🔥🔥

P.S. Закинул в комментарии пример.

P.P.S. Я тут в отпуск ушел. Так что могу пропадать 😁. Вернусь с новыми силами и новыми постами. Не теряйте! И сами не пропадайте😁. Может получится написать пачку постов, пока будет побольше свободного времени от основных проектов.

P.P.P.S. Обложка, кстати, сгенерирована в Sora. И такое может ИИ. Главное правильно описать.

@VAI_ART
#VAI_General
Please open Telegram to view this post
VIEW IN TELEGRAM
1🔥7👍51👌1
Forwarded from Tips AI | IT & AI
Media is too big
VIEW IN TELEGRAM
💫 Вышла GPT-5 [блог]

• Гораздо точнее и быстрее отвечает, умеет думать сложнее, глубже понимает контекст.
• Сильно прокачан в программировании, может создавать красивые и работающие веб-приложения и игры
• Писать тексты стал не просто лучше, а с душой: стихи, рассказы, даже сложные структуры без шаблонов.
• В медицине теперь точнее, умнее, предупреждает о проблемах и помогает разбираться в сложных вопросах, но не заменяет врача.
• Может работать с картинками, видео и другими типами данных, понимает не только текст.
• Есть лёгкий режим для большинства задач и глубокое мышление для сложных вопросов. GPT сам решает, когда что использовать.
• Контекст до миллиона токенов
• Меньше галлюцинаций и не пытается угодить, а даёт честные ответы.

Важное:
• Бесплатные пользователи: базовый доступ, с ограничениями.
• Plus: больше запросов и возможностей.
• Pro: расширенное мышление, точные и глубокие ответы.
• Так же доступ через API.

GPT-5 доступен уже сегодня.

@tips_ai #news
Please open Telegram to view this post
VIEW IN TELEGRAM
👍65
Век живи — век учись! 🧐

Сейчас такое большое количество инструментов, что не успеваешь понять, куда их можно применить. Появилось что-то новое, а ты ещё и со старым не успел всё протестировать. Поэтому некоторые вещи, даже лежащие на поверхности, могут просто не замечаться.

Я периодически занимаюсь поиском людей на проект, и иногда это может занимать больше времени, чем хотелось бы. Сидишь вручную, перебираешь ArtStation, Behance и тд. в поисках кандидатов.

Так было и с последней вакансией. Сел я вечером поискать сотрудника на задачи и подумал: а почему бы не попробовать сделать это через ChatGPT? Написал запрос с определёнными условиями. Скинул ссылки сайтов где искать, чтобы получить список подходящих кандидатов. И на моё удивление — получилось! Через минуту у меня был список из 30 человек, подходящих под заданные условия. Отобрал тех, кто точно подходит, и написал сразу пятерым. Итого — 10 минут и 5 писем. А обычно на это уходили часы. 🔥

Как же круто, что при должном подходе сейчас можно оптимизировать очень многие процессы! Нужно лишь понимать инструменты и иногда включать голову. 🙃

Ну и речь не только про поиск кандидатов. Такой подход можно применить к чему угодно: хотите что-то купить на Avito или Ozon — задаёте условия поиска, и через минуту у вас уже есть отсортированный список нужного. Это может экономить часы, а порой и целые дни вашего времени. 🔥

P.S. Обложка была сгенерирована в GPT-5, по первым тестам он стал лучше генерировать изображения, но дольше раза в 2-3.

@VAI_ART
#VAI_Notes
Please open Telegram to view this post
VIEW IN TELEGRAM
👍8🔥31
Я вернулся! Отдохнул, надеюсь сил теперь хватит надолго! За 2 недели накопилось некоторое количество новостей. Давайте пройдемся по ним!

🔹Genie 3. Искусственный интеллект от Google, создающий интерактивные миры по текстовому описанию.
Google DeepMind представило третье поколение своей революционной модели искусственного интеллекта – Genie 3.
Эта модель способна генерировать полноценные интерактивные трехмерные миры на основе простого текстового запроса, открывая новые горизонты для создания игр, симуляций и виртуального опыта. В комментарии закинул как сгенерированные люди внутри симуляции мира гуляют по симуляции внутри симуляции (в которой вы можете погулять сидя в своей симуляции).

🔹Midjourney запустили режим HD Video для подписчиков Pro и Mega. Продолжают развивать свой видеогенератор и пополнять его новыми фишками.

🔹GPT-5 уже здесь. Делился ссылкой на него ранее.

🔹Также OpenAI разродились двумя опенсорсными моделями, на 120b и 20b параметров. Модели рассуждающие, но нет мультимодальности, картинки и тем более звук модели не воспринимают.

🔹Suno. Скоро запустит Suno–Studio. Многодорожечное создание, экспорт в MIDI и многое другое. Становится более гибким и делает вектор на профессионалов и управляемость.

🔹ElevenLabs. Запустили Eleven Music. Заходят на поляну Suno. Инструмент, который позволяет создавать музыкальные композиции по текстовому описанию.

🔹Minimax Speech 2.5. Генератор речи от Минимакс(TTS):
По сравнению с версией Speech 02, выпущенной в мае, Speech 2.5 обладает тремя новыми фишками:
более высокой выразительностью речи на нескольких языках, более реалистичным воспроизведением голоса и широким охватом 40 языков.

🔹Grok 4, видимо на фоне появления GPT-5 также открыл доступ для бесплатных пользователей. Одна из самых сильных языковых моделей, которая может так же в редактирование и генерацию изображений.

🔹Matrix-Game 2.0 - опенсорс ответочка на Genie 3 от Google. Генерирует контент в 25 фпс, про разрешение и качество скромно умалчивают.
Можно обучать на своих видосах и получать на выходе миры, размером под 7-8 гиг, по которым можно бегать.

🔹Wonder Studio. Облачная платформа для нейро мокапа, снова появился бесплатный тариф с 300 кредитами/мес, которых хватит на 15 секунд обработки живых кадров/анимации или 30 сек нейро мокапа.

🔹Rodin Gen-2. Пока не дали, но обещают что-то интересное в 3d генерации. Сегментацию геометрии, неплохие детали и полноценные текстуры.

🔹Tripo3d. Давно туда не заходил так как появились неплохо работающие 3d генераторы. Появилось много нового, например ретопология модели, но я тестил ретоп в Hunyuan 3d и там было пока все не очень. Тут же надо тестировать. А так значительно прокачал качество генерации 3D — теперь модели стали детальнее, особенно в лицах и сложной геометрии. В обновлении появилась возможность загружать собственные модели (glb, obj, fbx, stl), использовать улучшенный инструмент Pro-Refine для доработки геометрии и текстур.

🔹В Google добавили эксперементальный AI Mode
Теперь там есть Canvas: можно прямо внутри поиска собирать планы, списки дел, готовиться к поездкам и тд. Пишете промпт, жмете Create Canvas, и получаете набор структурированных карточек. Можно загружать свои файлы расписания, PDF, фотки.
Также появился Search Live: теперь можно показывать модели фотки, видео или сразу транслировать с камеры. Плюс система умеет делить сложные вопросы на подтемы и искать по каждому лучшие ответы с источниками.
Пока все тестируют в Штатах через Labs, но скоро будет доступно всем. В будущем обещают добавить интеграцию с Google Drive, рисовать графики по запросу и помогать с бронированиями.

🔹Higgsfield набирает обороты: ребята выкатили функцию Draw-to-Video — по сути видео-фотошоп, где можно загрузить картинку, нарисовать поверх стрелки и детали, а система сама оживит сцену. Плюс появился Product-to-Video: достаточно показать предмет и задать действие, и он превращается в кинематографичный ролик без лишних промптов. Работает со всеми топ-моделями (MiniMax, Veo 3 и тд). Скинул в комментарии пример.

И в конце будет небольшой опрос.

@VAI_ART
#VAI_News
4👍3
Нашёл небольшую шпаргалку по свету для генераций. В комментариях прикрепил гугл-таблицу — можно просто скопировать и вставить себе в промпт.🔥

@VAI_ART
#VAI_Notes
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥11👌43