Также показывает стоимость генераций, является ли модель открытой или закрытой и тд.
Помогает всегда быть в курсе и не тратить кучу времени на поиск информации!
Из минусов - не заходит без VPN.
P.S. Лично для меня стало новостью, что ElevenLabs - на втором месте, а на первом - Aura Stella (первый раз слышу))
@VAI_ART
#VAI_Notes
Please open Telegram to view this post
VIEW IN TELEGRAM
LLM Stats
AI Leaderboards 2026 - Compare All AI Models
Comprehensive AI leaderboards comparing LLM, TTS, STT, video, image, and embedding models. Compare performance, pricing, and capabilities.
👍7🔥3⚡2❤1
Уже писал про создание концепта персонажей и локации.Сейчас по плану, как и обещал,создание модели персонажа.
У нас используется только часть пайплайна через ИИ.Но даже эта часть ускоряет работу.
Сейчас уже можно еще больше внедрить ИИ в процессы.Есть идеи,но пока не добрался,так как те процессы реализовывались уже месяца 2-3 назад,а в эру ИИ это соизмеримо с несколькими годами ранее без ИИ в процессах.На новых персонажах уже попробую докрутить процессы и еще сильнее их оптимизировать.Опишу позже,как доберусь.
Создание персонажей все еще остается достаточно сложной с творческой и технической стороны задачей.Но сейчас современные технологии уже помогают ее решить.🔥
Можно:
1️⃣ Генерировать 3D под обрисовку. Сейчас генераторы практически идеально подходят под этот тип задач. Художники, которым было лень учить 3D,ваш день уже давно настал)
2️⃣ Для несложных проектов в техническом плане.Это подходит для таких проектов, как у нас,где больше важна подача,с которой генераторы уже неплохо справляются.А в совокупности с той же Nano Banana можно вытащить карты нормалей, рафнеса и т.д.Для несложных проектов сделать это уже можно.Писал тут.
3️⃣ Для сложных проектов.Зачастую большой пласт работы составляет скульпт и попадание в нужные формы. На таких проектах скульпты могут делать по несколько недель.При помощи генераторов даже сейчас можно сократить это время в раза два, сэкономив приличный пласт времени. Да,где-то он может ошибаться в формах, но в общем, при обладании нормальными скиллами,это не проблема исправить
Мы продолжаем развивать наши детские режимы и так же создавать для них персонажей.🐶
Как выглядит пайплайн:
Модель этой собаки была сделана за 2 дня.Это от генерации до финального результата.
Из нюансов:у нас нет лицевого рига, поэтому и авторетоп,по сути, нормально подошел.🤓
С виду кажется,что работа ИИ была незначительная.Но это не так.ИИ решил одну из основных проблем,а именно - попадание в характер персонажа.Люди,которые работают в этой сфере,понимают,что это один из основных моментов в создании персонажа,и зачастую на него может тратиться большая часть времени,так как это творческий процесс и многое зависит от скиллов.С технической частью уже все давно понятно,это измеримый процесс,а вот творчество пока мало чем измеряется и является субъективным.
Как вы справляетесь с подобными задачами в современных условиях.
Дальше поговорим про генерацию локаций.😎
@VAI_ART
#VAI_Practice
У нас используется только часть пайплайна через ИИ.Но даже эта часть ускоряет работу.
Сейчас уже можно еще больше внедрить ИИ в процессы.Есть идеи,но пока не добрался,так как те процессы реализовывались уже месяца 2-3 назад,а в эру ИИ это соизмеримо с несколькими годами ранее без ИИ в процессах.На новых персонажах уже попробую докрутить процессы и еще сильнее их оптимизировать.Опишу позже,как доберусь.
Создание персонажей все еще остается достаточно сложной с творческой и технической стороны задачей.Но сейчас современные технологии уже помогают ее решить.
Можно:
1️⃣ Генерировать 3D под обрисовку. Сейчас генераторы практически идеально подходят под этот тип задач. Художники, которым было лень учить 3D,ваш день уже давно настал)
2️⃣ Для несложных проектов в техническом плане.Это подходит для таких проектов, как у нас,где больше важна подача,с которой генераторы уже неплохо справляются.А в совокупности с той же Nano Banana можно вытащить карты нормалей, рафнеса и т.д.Для несложных проектов сделать это уже можно.Писал тут.
3️⃣ Для сложных проектов.Зачастую большой пласт работы составляет скульпт и попадание в нужные формы. На таких проектах скульпты могут делать по несколько недель.При помощи генераторов даже сейчас можно сократить это время в раза два, сэкономив приличный пласт времени. Да,где-то он может ошибаться в формах, но в общем, при обладании нормальными скиллами,это не проблема исправить
Мы продолжаем развивать наши детские режимы и так же создавать для них персонажей.🐶
Как выглядит пайплайн:
🔹 Загоняю концепт в 3D-генератор.Я считаю,что по цене/качеству сейчас все еще в топе Hunyuan 3D.Качество моделей получается неплохим а в совокупности с тем,что они дополнительно дают 20 генераций в день,делает модель в глазах бесплатных и экономных пользователей вообще «золотой».
🔹 Получаю полноценную модель персонажа.Беру с персонажа только голову.Тут и возникает момент,про который писал ранее.Когда делали раньше,было сложновато подогнать тела под нужные типы и стилистику, поэтому мы в большей части ориентировались на характер персонажа.А само тело делали руками.
🔹 Заранее была сделана болванка тела, которая отображала все нюансы, которые нам были нужны в пропорциях и сетке.Далее в планах было подгонять эту болванку под каждого персонажа,немного дорабатывая массы и формы.Если налажу процесс с созданием полноценных концептов с нужными пропорциями,то модель с сеткой можно будет просто проецировать на сгенерированную модель и быстро получать модель с правильной сеткой и правильными массами.
🔹 Голова была сделана авторетопом и немного доработана руками.
🔹 Быстро развернул тело,так как там нет ничего сложного.
🔹 Соединил голову с телом и добавил ошейник для того,чтобы не было видно шва соединения,так как сетка немного отличалась.
🔹 Текстура головы также была спроецирована со сгенерированной модели и доработана в редакторе,а вот тело было покрашено руками полностью.Но,опять же,модели простые, поэтому проблем больших не было.
🔹 Получил готовую модель.
🔹 Обвесы(одежда,часы,цепи и т.д.),которые на концептах,планирую делать отдельными объектами с отдельной текстурной картой,так как планируется сделать их много для каждого персонажа.
Модель этой собаки была сделана за 2 дня.Это от генерации до финального результата.
Из нюансов:у нас нет лицевого рига, поэтому и авторетоп,по сути, нормально подошел.
С виду кажется,что работа ИИ была незначительная.Но это не так.ИИ решил одну из основных проблем,а именно - попадание в характер персонажа.Люди,которые работают в этой сфере,понимают,что это один из основных моментов в создании персонажа,и зачастую на него может тратиться большая часть времени,так как это творческий процесс и многое зависит от скиллов.С технической частью уже все давно понятно,это измеримый процесс,а вот творчество пока мало чем измеряется и является субъективным.
Как вы справляетесь с подобными задачами в современных условиях.
Дальше поговорим про генерацию локаций.
@VAI_ART
#VAI_Practice
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
❤11👍8🔥4🤩1
Новостная рубрика за неделю.С небольшой задержкой.Погнали!
🔹3D-генератор Meshy обновился,в новой версии добавили интересную функцию, которая позволяет контролировать позу модели.Загружаете два изображения для генерации и для позы.Ранее они добавили генерацию в А и Т-позах.Пока 3D-генераторы обвешиваются функционалом,но не решают основные проблемы,следим дальше.Презентация в комментариях.
🔹Hunyuan обновил свою 3d Studio до версии 1.2.Если кто-то не знал или позабыл: тут они предоставляют полный пайплайн в 3D с контролем каждой стадии.Думаю,из этого может вырасти что-то интересное,и не удивлюсь,если они первые сделают полный пайплайн в ИИ.Основные нововведения направлены на повышение точности и контроля при создании 3D-ассетов:
Презентация в комментариях.
🔹 Выходит новость про Higgsfield,думаю писать ли,с одной стороны,это бесполезные вещи,а с другой-выглядит прикольно.В этот раз они выпустили конструктор персонажей.Можно создать любое существо, и оно будет консистентно в любом кадре и истории.Если кто не знал,сейчас популярны искусственно созданные персонажи,для которых заводят свои соцсети и развивают аккаунты за счет сгенерированного контента.Поскольку персонажи имеют интересную внешность или какие-то особенности,это хавают).А Higgsfield,как всегда,впереди и предоставляет инструменты для таких вещей.Пару примеров в комментариях.
🔹 Style Morphing в Suno-функция,которая позволяет взять готовый музыкальный фрагмент и «перекрасить» его в любой другой жанр или настроение, сохраняя при этом оригинальную мелодию и гармонию.В отличие от обычной генерации с нуля,морфинг дает возможность превратить,например,медленную фортепианную тему в энергичный рок-хит или техно-трек,просто изменив промпт или темп.
🔹 Runway Gen-4.5 Image to Video,фокусируется на улучшении физики движений и более точном следовании исходному кадру.Модель стала лучше отрабатывать вес и инерцию объектов.Но с Runway, как обычно,презентации хорошии,по итогу что-то невнятное.Пару примеров в комментариях.
🔹 Adobe внедрила ряд функций:Premiere получил интеллектуальный Object Mask для автоматического трекинга объектов в один клик и визуальные маркеры видеопереходов прямо на таймлайне,а After Effects обзавелся нативной 3D-геометрией и поддержкой материалов Substance 3D.Кроме того,значительно ускорился трекинг масок, появилась прямая интеграция с Firefly Boards и долгожданный импорт SVG как редактируемых шейпов.
Adobe радует.Практически единственный из старичков,кто участвует в гонке ИИ.Остальные закрыли глаза и делают вид,что ничего не происходит.
🔹 Krea realtime.Увидел эту новость и вспомнил,практически,ровно год назад была такая же.Но приглядевшись видно,что они его развивают и сделали более интересным в реализации.Теперь можно не просто генерировать с нуля,а редактировать готовые фото или генерации в реальном времени текстом.
🔹 Anthropic выпустили расширение для Claude Code в VS Code.Автономный ИИ-агент от Anthropic для терминала VS Code,который сам изучает ваш проект,правит код,запускает тесты и фиксит баги по текстовой команде,работая как полноценный помощник-разработчик.Сильный конкурент Cursor.
Cursor,тоже выпустил обновление 2.4.Появились Субагенты для параллельного решения задач разными моделями и встроенная генерация картинок через Nano Banana Pro прямо в проект.Также добавили асинхронные Q&A,позволяющие агенту продолжать работу в ожидании вашего ответа,и функцию Cursor Blame,которая детально отслеживает происхождение каждой строки кода (человек или ИИ) с прямой ссылкой на историю соответствующих чатов.
@VAI_ART
#VAI_News
🔹3D-генератор Meshy обновился,в новой версии добавили интересную функцию, которая позволяет контролировать позу модели.Загружаете два изображения для генерации и для позы.Ранее они добавили генерацию в А и Т-позах.Пока 3D-генераторы обвешиваются функционалом,но не решают основные проблемы,следим дальше.Презентация в комментариях.
🔹Hunyuan обновил свою 3d Studio до версии 1.2.Если кто-то не знал или позабыл: тут они предоставляют полный пайплайн в 3D с контролем каждой стадии.Думаю,из этого может вырасти что-то интересное,и не удивлюсь,если они первые сделают полный пайплайн в ИИ.Основные нововведения направлены на повышение точности и контроля при создании 3D-ассетов:
● Для реконструкции используется 8 ракурсов.Это должно помочь с точностью силуэта со всех сторон.
● Добавили интерфейс кистей для правки компонентов прямо в процессе.По задумке,это даст больше контроля над сеткой,но насколько это удобно в реальном пайплайне-вопрос открытый.
● Лимит воксельной сетки подняли до 15363. Это должно улучшить детализацию и разделение модели на части,но «грязную» геометрию само по себе не вылечит.
● Заявляют «уровень скульптинга» и более точную цветопередачу текстур.На презентациях выглядит неплохо.
Презентация в комментариях.
🔹 Выходит новость про Higgsfield,думаю писать ли,с одной стороны,это бесполезные вещи,а с другой-выглядит прикольно.В этот раз они выпустили конструктор персонажей.Можно создать любое существо, и оно будет консистентно в любом кадре и истории.Если кто не знал,сейчас популярны искусственно созданные персонажи,для которых заводят свои соцсети и развивают аккаунты за счет сгенерированного контента.Поскольку персонажи имеют интересную внешность или какие-то особенности,это хавают).А Higgsfield,как всегда,впереди и предоставляет инструменты для таких вещей.Пару примеров в комментариях.
🔹 Style Morphing в Suno-функция,которая позволяет взять готовый музыкальный фрагмент и «перекрасить» его в любой другой жанр или настроение, сохраняя при этом оригинальную мелодию и гармонию.В отличие от обычной генерации с нуля,морфинг дает возможность превратить,например,медленную фортепианную тему в энергичный рок-хит или техно-трек,просто изменив промпт или темп.
🔹 Runway Gen-4.5 Image to Video,фокусируется на улучшении физики движений и более точном следовании исходному кадру.Модель стала лучше отрабатывать вес и инерцию объектов.Но с Runway, как обычно,презентации хорошии,по итогу что-то невнятное.Пару примеров в комментариях.
🔹 Adobe внедрила ряд функций:Premiere получил интеллектуальный Object Mask для автоматического трекинга объектов в один клик и визуальные маркеры видеопереходов прямо на таймлайне,а After Effects обзавелся нативной 3D-геометрией и поддержкой материалов Substance 3D.Кроме того,значительно ускорился трекинг масок, появилась прямая интеграция с Firefly Boards и долгожданный импорт SVG как редактируемых шейпов.
Adobe радует.Практически единственный из старичков,кто участвует в гонке ИИ.Остальные закрыли глаза и делают вид,что ничего не происходит.
🔹 Krea realtime.Увидел эту новость и вспомнил,практически,ровно год назад была такая же.Но приглядевшись видно,что они его развивают и сделали более интересным в реализации.Теперь можно не просто генерировать с нуля,а редактировать готовые фото или генерации в реальном времени текстом.
🔹 Anthropic выпустили расширение для Claude Code в VS Code.Автономный ИИ-агент от Anthropic для терминала VS Code,который сам изучает ваш проект,правит код,запускает тесты и фиксит баги по текстовой команде,работая как полноценный помощник-разработчик.Сильный конкурент Cursor.
Cursor,тоже выпустил обновление 2.4.Появились Субагенты для параллельного решения задач разными моделями и встроенная генерация картинок через Nano Banana Pro прямо в проект.Также добавили асинхронные Q&A,позволяющие агенту продолжать работу в ожидании вашего ответа,и функцию Cursor Blame,которая детально отслеживает происхождение каждой строки кода (человек или ИИ) с прямой ссылкой на историю соответствующих чатов.
@VAI_ART
#VAI_News
👍15❤7
Напишу сюда планы на развитие как небольшое обещание себе. 🙂
Все требует развития. Невозможно сидеть в одних рамках все время. Это нужно для движения во всем. Тут также нужно развиваться и двигаться. Поэтому я поставил некоторые планы на этот год.
1️⃣ Купить наконец-то микрофон и начать записывать посты голосом также.
2️⃣ Купить камеру, чтобы записывать полноценные видеоролики.
3️⃣ Запустить страницу на Boosty. Буду там размещать более подробные посты с полным разбором пайплайнов через ИИ.
4️⃣ Запустить канал на YouTube. Буду размещать полноценные видеоролики (но это не точно).
Тут главное не порвать штаны.😁
В ТГ всё останется так же. Надеюсь, его не прикроют.🤞 На том же Boosty будут разборы и применение инструментов на практике. Так как такие вещи отнимают очень много времени, я решил брать за применение таких инструментов символическую плату.
P.S.Кстати, буду благодарен за наводки по микрофону и камере (цена/качество).
P.P.S.Пост про генерацию локации будет на следующей неделе, уже начал подготовку.
@VAI_ART
#VAI_Notes
Все требует развития. Невозможно сидеть в одних рамках все время. Это нужно для движения во всем. Тут также нужно развиваться и двигаться. Поэтому я поставил некоторые планы на этот год.
1️⃣ Купить наконец-то микрофон и начать записывать посты голосом также.
2️⃣ Купить камеру, чтобы записывать полноценные видеоролики.
3️⃣ Запустить страницу на Boosty. Буду там размещать более подробные посты с полным разбором пайплайнов через ИИ.
4️⃣ Запустить канал на YouTube. Буду размещать полноценные видеоролики (но это не точно).
Тут главное не порвать штаны.
В ТГ всё останется так же. Надеюсь, его не прикроют.
P.S.Кстати, буду благодарен за наводки по микрофону и камере (цена/качество).
P.P.S.Пост про генерацию локации будет на следующей неделе, уже начал подготовку.
@VAI_ART
#VAI_Notes
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥12👍5
Ох.Праздники прошли и начинается сумасшедший карнавал новостей.То,про что говорил в конце года.Происходит очень много всего и везде.Быстро пробежимся по самому интересному.
🔹 Kling анонсировал новую версию 3.0.Поддержка 4K-разрешения и частоты 60 кадров в секунду без потери качества.Модель получила обновленный физический движок, который исправил ошибки при взаимодействии объектов,увеличила длительность роликов до 60 секунд и внедрила глубокую консистентность персонажей для создания серийных видео.Все это работает на базе архитектуры Omni,позволяющей генерировать видео сразу с синхронизированным звуком и управлять процессом через интерактивный холст.
Появится уже скоро.Должна быть хорошей моделью,которая будет либо лучше,либо конкурировать с VEO и Sora.
🔹 Google запустили Project Genie.Новый экспериментальный сервис от Google,который превращает текстовое описание или обычную картинку в интерактивные 3d миры.В отличие от обычных нейросетей,которые просто создают видео,Genie выстраивает полноценную модель мира:вы придумываете локацию и персонажа,а затем можете буквально бегать по этому пространству,управляя героем с клавиатуры в реальном времени, также позволяет создавать короткие 60-секундные игровые сессии.Пока доступна для владельцев подписки Google AI Ultra(в США).
Много было постов на неделе.
Презентация и пару примеров в комментариях.
🔹 HunyuanImage 3.0-Instruct.Открытая нейросеть от Tencent.Благодаря встроенному механизму рассуждений она понимает сложные команды на человеческом языке и идеально подходит для точного редактирования:вы можете попросить её добавить предмет,переодеть человека или объединить детали из трёх разных фото в одно,при этом остальная часть картинки останется нетронутой.Протестировать можно тут. Гитхаб тут.Хагингфэйс тут.
Презентация в комментариях.
🔹 Suno запускают Sounds.Заходят на поляну генераторов звуков.
Презентация в комментариях
🔹 Интересное событие.Обновился сервис decart.ai.Его интересная особенность-это захват движения в реальном времени с переносов на референсное изображение.
Презентация в комментариях.
🔹 Два обновления за неделю в LLM моделях.Что примечательно,обе модели являются открытыми и уже практически на уровне топовых закрытых моделей,которыми мы все пользуемся.
1. Вышла Qwen3-Max-Thinking.Флагманская нейросеть от Alibaba,которая обладает интеллектом уровня топовых моделей.С её 1 триллионом параметров она специализируется на сложнейшей математике,программировании и научном анализе,выстраивая длинные логические цепочки и самостоятельно исправляя свои ошибки в процессе рассуждения.Модель работает как опытный эксперт:она сама решает,когда нужно заглянуть в интернет или запустить код,чтобы выдать максимально точный и проверенный результат.Пробуем тут.
Графики в комментариях.
2. Вышла Kimi-K2.Мощный мультимодальная модель,которая умеет запускать рой из 100 субагентов для мгновенного решения задач:от превращения видео в живой фронтенд до анализа 100-страничных отчетов со сложными таблицами.Главная фишка в том,что нейросеть обучалась через систему,позволяющую ей самостоятельно принимать решения и исправлять собственный код,буквально посмотрев на результат в браузере.Она понимает медиафайлы и документы целиком,работая быстрее конкурентов за счет уникальной архитектуры, объединяющей зрение и логику в одном «теле».Попробовать тут.Гитхаб тут.
Презентация и графики в комментариях.
🔹 Hunyuan 3D 3.1 теперь доступен на 3d.hunyuanglobal.com.Многие писали,что сложно с китайской версией работать.Ваш день настал.🫡
🔹 Anthropic прикрутила Claude прямо в Microsoft Excel.Очень удобно для тех кто работает с таблицами.Ведь теперь можно автоматизировать практически все.
Презентация в комментариях.
🔹 Google Chrome и агент на основе Gemini 3.Встроенный «автопилот»,который сам кликает по сайтам:он может забронировать отель,сравнить цены или заполнить анкеты по одной команде.Агент видит содержимое вкладок,понимает ваши данные из Google-сервисов и выполняет рутинные задачи в браузере за вас,требуя лишь подтверждения.
Может еще что то интересное пропустил?
@VAI_ART
#VAI_News
🔹 Kling анонсировал новую версию 3.0.Поддержка 4K-разрешения и частоты 60 кадров в секунду без потери качества.Модель получила обновленный физический движок, который исправил ошибки при взаимодействии объектов,увеличила длительность роликов до 60 секунд и внедрила глубокую консистентность персонажей для создания серийных видео.Все это работает на базе архитектуры Omni,позволяющей генерировать видео сразу с синхронизированным звуком и управлять процессом через интерактивный холст.
Появится уже скоро.Должна быть хорошей моделью,которая будет либо лучше,либо конкурировать с VEO и Sora.
🔹 Google запустили Project Genie.Новый экспериментальный сервис от Google,который превращает текстовое описание или обычную картинку в интерактивные 3d миры.В отличие от обычных нейросетей,которые просто создают видео,Genie выстраивает полноценную модель мира:вы придумываете локацию и персонажа,а затем можете буквально бегать по этому пространству,управляя героем с клавиатуры в реальном времени, также позволяет создавать короткие 60-секундные игровые сессии.Пока доступна для владельцев подписки Google AI Ultra(в США).
Много было постов на неделе.
Презентация и пару примеров в комментариях.
🔹 HunyuanImage 3.0-Instruct.Открытая нейросеть от Tencent.Благодаря встроенному механизму рассуждений она понимает сложные команды на человеческом языке и идеально подходит для точного редактирования:вы можете попросить её добавить предмет,переодеть человека или объединить детали из трёх разных фото в одно,при этом остальная часть картинки останется нетронутой.Протестировать можно тут. Гитхаб тут.Хагингфэйс тут.
Презентация в комментариях.
🔹 Suno запускают Sounds.Заходят на поляну генераторов звуков.
Презентация в комментариях
🔹 Интересное событие.Обновился сервис decart.ai.Его интересная особенность-это захват движения в реальном времени с переносов на референсное изображение.
Презентация в комментариях.
🔹 Два обновления за неделю в LLM моделях.Что примечательно,обе модели являются открытыми и уже практически на уровне топовых закрытых моделей,которыми мы все пользуемся.
1. Вышла Qwen3-Max-Thinking.Флагманская нейросеть от Alibaba,которая обладает интеллектом уровня топовых моделей.С её 1 триллионом параметров она специализируется на сложнейшей математике,программировании и научном анализе,выстраивая длинные логические цепочки и самостоятельно исправляя свои ошибки в процессе рассуждения.Модель работает как опытный эксперт:она сама решает,когда нужно заглянуть в интернет или запустить код,чтобы выдать максимально точный и проверенный результат.Пробуем тут.
Графики в комментариях.
2. Вышла Kimi-K2.Мощный мультимодальная модель,которая умеет запускать рой из 100 субагентов для мгновенного решения задач:от превращения видео в живой фронтенд до анализа 100-страничных отчетов со сложными таблицами.Главная фишка в том,что нейросеть обучалась через систему,позволяющую ей самостоятельно принимать решения и исправлять собственный код,буквально посмотрев на результат в браузере.Она понимает медиафайлы и документы целиком,работая быстрее конкурентов за счет уникальной архитектуры, объединяющей зрение и логику в одном «теле».Попробовать тут.Гитхаб тут.
Презентация и графики в комментариях.
🔹 Hunyuan 3D 3.1 теперь доступен на 3d.hunyuanglobal.com.Многие писали,что сложно с китайской версией работать.Ваш день настал.
🔹 Anthropic прикрутила Claude прямо в Microsoft Excel.Очень удобно для тех кто работает с таблицами.Ведь теперь можно автоматизировать практически все.
Презентация в комментариях.
🔹 Google Chrome и агент на основе Gemini 3.Встроенный «автопилот»,который сам кликает по сайтам:он может забронировать отель,сравнить цены или заполнить анкеты по одной команде.Агент видит содержимое вкладок,понимает ваши данные из Google-сервисов и выполняет рутинные задачи в браузере за вас,требуя лишь подтверждения.
Может еще что то интересное пропустил?
@VAI_ART
#VAI_News
Please open Telegram to view this post
VIEW IN TELEGRAM
👍9🤝2❤1
Продолжаем тему генерации от концепта до модели.Уже писал про концепт персонажей,локации и создание модели персонажа.Сейчас на очереди генерация моделей для локаций.
В генерации моделей ИИ пока не в состоянии вытащить полный пайплайн,так как в 3D очень много технических моментов.Но тем не менее,даже при частичном использовании, он сейчас помогает в создании моделей и локаций.
Можно:
1️⃣ Генерировать под обрисовку.Сейчас генераторы практически идеально подходят под этот тип задач.Можно сгенерировать нужный объект и обрисовать.
2️⃣ Создание полноценных 3D-концепций.Сейчас можно за относительно короткий срок собрать локацию любой сложности Да,с проблемной сеткой и разверткой,но это для таких задач и неважно.Расстояние от идеи до полноценной локации, по которой можно уже пробежаться и ощутить всю полноту, сокращается практически до точки.
3️⃣ Для несложных проектов в техническом плане. Для таких проектов генераторы уже неплохо справляются.В той же Nano Banana можно вытащить карты нормалей,рафнеса и т. д.Писал тут.
4️⃣ Для сложных проектов.Сгенерированные объекты можно также доскульптить или использовать как болванку с массами для моделирования под сабдив.И в том,и в другом варианте это экономит время на первоначальном этапе формирования масс.Да,с очень сложными моделями, где много форм, пока всё еще могут возникать проблемы.Но как вариант,эти объекты можно делить на подобъекты на концепте и генерировать по частям,а затем уже собирать всю модель целиком в редакторе.
Мы используем ИИ сейчас в основном для создания первичного представления локации.Я сажусь и по концепту за 3-4 дня собираю игровую локацию.В первую очередь это помогает избежать большого количества правок, так как локация, которая отдается на доработку,с визуальной составляющей уже практически готова.И 3D-моделлеры на основе созданной локации дорабатывают модели.Раньше всегда в процесс вмешивался обычный человеческий фактор:неправильно понятое ТЗ,непонимание,как объект должен выглядеть в конце,и т.д.Я часто слышал от ребят,что начинать очень сложно,так как сложно начать подстраиваться под новую локацию,и первые этапы зачастую шли долго.Но когда общий визуал выстраивался,доработка шла намного быстрее.
Когда собираю локацию,стараюсь сразу сделать и сетку,и текстуры (с разверткой всё еще беда).Это получается не всегда, так как модели пока плохо контролируются в технических факторах,но периодически удается.
Как выглядит пайплайн:
Как я и писал,пока не получилось полностью заменить весь пайплайн,но и сейчас это сокращает разработку локации,убрав непонимание и тупняк в самом начале.
В этом году мы,скорее всего,увидим уже полные пайплайны - не идеальные,но уже работающие,которые позволяют практически на 100% делать всё через ИИ.Это видно:почти каждую неделю есть новости про новые инструменты,видно,как они развиваются,а к наиболее удачным даже присматриваются крупные игроки для внедрения к себе.
Сейчас у разных ИИ-сервисов есть свои сильные и слабые стороны, поэтому можно собирать пайплайны,используя разные ИИ.Но это, как по мне,дорога в никуда,так как нужно постоянно изучать разные сервисы и держать руку на пульсе,потому что инструменты в таком подходе очень быстро устаревают и заменяются.
Для работы также использую Hunyuan и их 3d Studio (там дается больше контроля над созданием модели,но это также не всегда нормально работает).
Ну и по традиции:если у кого-то есть свои способы и методы,буду рад,если вы поделитесь.
В комментариях допишу еще пару моментов.
@VAI_ART
#VAI_Practice
В генерации моделей ИИ пока не в состоянии вытащить полный пайплайн,так как в 3D очень много технических моментов.Но тем не менее,даже при частичном использовании, он сейчас помогает в создании моделей и локаций.
Можно:
1️⃣ Генерировать под обрисовку.Сейчас генераторы практически идеально подходят под этот тип задач.Можно сгенерировать нужный объект и обрисовать.
2️⃣ Создание полноценных 3D-концепций.Сейчас можно за относительно короткий срок собрать локацию любой сложности Да,с проблемной сеткой и разверткой,но это для таких задач и неважно.Расстояние от идеи до полноценной локации, по которой можно уже пробежаться и ощутить всю полноту, сокращается практически до точки.
3️⃣ Для несложных проектов в техническом плане. Для таких проектов генераторы уже неплохо справляются.В той же Nano Banana можно вытащить карты нормалей,рафнеса и т. д.Писал тут.
4️⃣ Для сложных проектов.Сгенерированные объекты можно также доскульптить или использовать как болванку с массами для моделирования под сабдив.И в том,и в другом варианте это экономит время на первоначальном этапе формирования масс.Да,с очень сложными моделями, где много форм, пока всё еще могут возникать проблемы.Но как вариант,эти объекты можно делить на подобъекты на концепте и генерировать по частям,а затем уже собирать всю модель целиком в редакторе.
Мы используем ИИ сейчас в основном для создания первичного представления локации.Я сажусь и по концепту за 3-4 дня собираю игровую локацию.В первую очередь это помогает избежать большого количества правок, так как локация, которая отдается на доработку,с визуальной составляющей уже практически готова.И 3D-моделлеры на основе созданной локации дорабатывают модели.Раньше всегда в процесс вмешивался обычный человеческий фактор:неправильно понятое ТЗ,непонимание,как объект должен выглядеть в конце,и т.д.Я часто слышал от ребят,что начинать очень сложно,так как сложно начать подстраиваться под новую локацию,и первые этапы зачастую шли долго.Но когда общий визуал выстраивался,доработка шла намного быстрее.
Когда собираю локацию,стараюсь сразу сделать и сетку,и текстуры (с разверткой всё еще беда).Это получается не всегда, так как модели пока плохо контролируются в технических факторах,но периодически удается.
Как выглядит пайплайн:
🔹 Про концептирование локаций я уже писал ранее.Так как концепты,по сути,уже есть,вынимаем через Banana каждый объект отдельно.Делается это несложно.Добавляем каждый объект на однотонный фон и там,где требуется,генерируем ракурсы.
🔹 Получаем модель.По максимуму пытаемся вытащить хорошую сетку и текстуру (чтобы потом перепечь).Инструменты постоянно развиваются,но пока это получается с переменным успехом.
🔹 Дальше берем модель,дорабатываем сетку,пере разворачиваем и запекаем текстуру (текстуру также дорабатываем,исправляем косяки).
🔹 Заменяем все эти объекты и настраиваем локацию.
Как я и писал,пока не получилось полностью заменить весь пайплайн,но и сейчас это сокращает разработку локации,убрав непонимание и тупняк в самом начале.
В этом году мы,скорее всего,увидим уже полные пайплайны - не идеальные,но уже работающие,которые позволяют практически на 100% делать всё через ИИ.Это видно:почти каждую неделю есть новости про новые инструменты,видно,как они развиваются,а к наиболее удачным даже присматриваются крупные игроки для внедрения к себе.
Сейчас у разных ИИ-сервисов есть свои сильные и слабые стороны, поэтому можно собирать пайплайны,используя разные ИИ.Но это, как по мне,дорога в никуда,так как нужно постоянно изучать разные сервисы и держать руку на пульсе,потому что инструменты в таком подходе очень быстро устаревают и заменяются.
Для работы также использую Hunyuan и их 3d Studio (там дается больше контроля над созданием модели,но это также не всегда нормально работает).
Ну и по традиции:если у кого-то есть свои способы и методы,буду рад,если вы поделитесь.
В комментариях допишу еще пару моментов.
@VAI_ART
#VAI_Practice
👍11❤3🔥2🦄1
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥6👍5❤1🥱1
Думаю ещё периодически рассказывать про игры,которые мы сделали и делаем сейчас. Ведь сам по себе офлайновый VR (и особенно офлайновые VR-шутеры) - направление не особо распространённое. Тема интересная. Вам было бы интересно об этом почитать?
Anonymous Poll
70%
Да
19%
Леха, только ИИ
13%
Пу-пу-пу
👍5👎3
Рубрика самых интересных новостей в ИИ за неделю. Все по плану. Погнали!
🔹 Вышел Kling 3.0. Самое важное:
Закинул еще пару примеров в комментарии.
Так же прикреплю руководство по промптингу нового Клинга.
🔹 ByteDance показали свою обновленую модель Seedance 2.0. Релиз в в ближайшее время. Посмотрите на примерах (которые в комментариях), что это модель может. Посмотрим по факту, но с виду это очень круто. Главное:
🔹 Grok Imagine обновился до 1.0. Что в ней нового:
Пишут, что модель очень неплохая, а на llm-stats она сейчас вообще на первом месте. Это звучит как серьёзная заявка: получается, она обогнала все существующие видео генераторы.
🔹Вышел Claude Opus 4.6 - самая новая и мощная нейросеть от Anthropic. Главное:
По сути: идеальный инструмент для программистов и сложной аналитики.
Графики в комментариях.
🔹 Вышел GPT-5.3 Codex. Главное:
Также OpenAI выпустили десктопное приложение Codex. Пока только macOS.
Графики в комментариях.
🔹 MiniMax тоже сделали десктопного агента. Сейчас это модно). Приложение для macOS и Windows работает фоном: сам залезает в браузер, открывает локальные файлы и софт. Может сохранить отчет на диск или построить сложный сценарий, связав почту, календарь и рабочие сервисы в одну цепочку. Скачать тут.
Презентация в комментариях.
🔹 Под конец - просто одновременно и смешная, и интересная новость. Появился маркетплейс, где AI‑агенты арендуют людей для выполнения физических задач в реальном мире (курьерка, встречи, дела по городу и т.п.). В общем, можно теперь работать на ИИ). Ищем подходящие вакансии для себя). Сайт тут.
P.S. Аудиоверсия в комментариях.
@VAI_ART
#VAI_News
🔹 Вышел Kling 3.0. Самое важное:
● Режим Мульти-шот.
Большинство нейросетей делают видео одним дублем. Kling 3.0 умеет сам монтировать ролик внутри одной генерации.
В итоге вы получаете готовый мини-фильм со сменой планов, а не просто "движущуюся картинку".
● Видео сразу со звуком.
Но русский не заявлен и работает очень смешно.
Kling 3.0 создает звук синхронно с видео. Если персонаж говорит - губы двигаются в такт. Если машина едет - слышен шум мотора.
● Клон голоса.
Вы можете загрузить пример чьего-то голоса (видео от 3 до 8 секунд), и нейросеть озвучит сгенерированного персонажа именно этим голосом.
● Стабильность.
Он лучше помнит, как выглядит персонаж, даже если он поворачивается спиной или камера меняет ракурс.
● Длительность и разрешение.
Можно создавать ролики до 15 секунд в высоком разрешении (1080p) за один раз, без склеек из коротких кусков.
Закинул еще пару примеров в комментарии.
Так же прикреплю руководство по промптингу нового Клинга.
🔹 ByteDance показали свою обновленую модель Seedance 2.0. Релиз в в ближайшее время. Посмотрите на примерах (которые в комментариях), что это модель может. Посмотрим по факту, но с виду это очень круто. Главное:
● Мультимодальность. Понимает текст, картинки, видео и аудио одновременно.
● Длительность и качество. Генерирует видео до 30+ секунд в разрешении 2K .
● Звук. Создает видео сразу со звуком, эффектами и синхронизацией губ .
● Контроль. Умеет копировать движения с референсного видео и сохранять лицо персонажа .
🔹 Grok Imagine обновился до 1.0. Что в ней нового:
● Генерирует 10-секундные ролики.
● Разрешение 720p.
● Генерирует видео сразу со звуком (нативное аудио).
● Лучшее понимание физики и послушность сложному промпту.
Пишут, что модель очень неплохая, а на llm-stats она сейчас вообще на первом месте. Это звучит как серьёзная заявка: получается, она обогнала все существующие видео генераторы.
🔹Вышел Claude Opus 4.6 - самая новая и мощная нейросеть от Anthropic. Главное:
● Лучший кодер. Пишет сложный код точнее и чище всех конкурентов.
● Автономность. Умеет сама управлять компьютером (клики, работа в программах) и выполнять длинные задачи без подсказок.
● Гигантская память. Помнит огромные объемы информации (до миллиона токенов) - можно загрузить целую книгу или базу кода.
● Логика. Сильно поумнела в планировании и решении сложных задач, меньше ошибается.
По сути: идеальный инструмент для программистов и сложной аналитики.
Графики в комментариях.
🔹 Вышел GPT-5.3 Codex. Главное:
● Полный цикл. Не просто пишет код, а делает всю работу инженера: отлаживает, пишет документацию, запускает приложения и управляет задачами.По сути: это автономный виртуальный разработчик, который может взять на себя рутинную работу целиком.
● Скорость. Работает на 25% быстрее предшественников.
● Самоисправление. Сама находит и чинит баги в коде без помощи человека.
● Умный агент. Можно вмешиваться в её работу на лету - она поймет и подстроится.
● Помнит всё. Держит в голове огромные проекты целиком (1 млн токенов).
Также OpenAI выпустили десктопное приложение Codex. Пока только macOS.
Графики в комментариях.
🔹 MiniMax тоже сделали десктопного агента. Сейчас это модно). Приложение для macOS и Windows работает фоном: сам залезает в браузер, открывает локальные файлы и софт. Может сохранить отчет на диск или построить сложный сценарий, связав почту, календарь и рабочие сервисы в одну цепочку. Скачать тут.
Презентация в комментариях.
🔹 Под конец - просто одновременно и смешная, и интересная новость. Появился маркетплейс, где AI‑агенты арендуют людей для выполнения физических задач в реальном мире (курьерка, встречи, дела по городу и т.п.). В общем, можно теперь работать на ИИ). Ищем подходящие вакансии для себя). Сайт тут.
P.S. Аудиоверсия в комментариях.
@VAI_ART
#VAI_News
👍6❤2🔥2
Forwarded from Сеньор генеративщик 🏴☠️
Что прикольного в Kling 3.0
Часть 1
Делюсь наблюдениями после -7к токенов в новой модели, один важный инсайт по элементам.
Самый интересный апдейт — это элементы. Клинги сделали все по-красоте и уникально. Теперь в каждое видео словно в коктейль можно добавлять щепотку персонажей, окружение или продуктов.
По элементам:
▪️ можно создавать персонажа, добавляя видео-референс (это новинка), изображения с разных ракурсов, образца голоса. Такой возможности нет больше нигде. Можно добавлять животных, характеров, локации, эффекты (!), продукты и тд.
▪️ ❗️на конкретное применение элемента зависит описание в элементе, пишите ограничения — игнорировать фон/позу (которая в вашем референсе) или что важно: сохранить это это. Это можно менять, если надо перестать игнорировать фон, в новой генерации отредактируйте элемент без этого и ок.
▪️ Ракурсы тоже влияют, при отсутствии уточнений будет пихать его именно с этой стороны.
▪️ Если нужно показать персонажа в полный рост, то в элемент лучше добавлять тоже полный рост.
▪️ о3 позволяет взять готовое видео для изменений внутри него, и тут тоже не нужно городить стартовые фреймы или подгружать кадры, элемент сам по себе сущность более емкая, уточняем, меняем.
▪️ теперь можно очень многое в кадре удержать, что будет оставаться консистентным от генерации к генерации, если объект важный, просто колотим из него элемент и подгружаем.
Принцип такой, мы делаем видео, создаем для него важные элементы — персонажей, окружение, продукты, объекты, и используем их при генерациях. Миксуем как хотим, прописываем роль для каждого. Как результат — максимально сохраняем узнаваемость и похожесть.
Честно, я кайфую прям дико и хочется генерить и генерить.
Этот апдейт кажется мимоходным, но он серьезно подкачнет видео, нейрорекламу (уж надеюсь), не говоря про ai-кинцо от коллег по цеху. Ждем приколдесов!
Тесты в посте:
тесты на примере локального мема-маскота нейробитвы, догадались кто это
Запишу инструкцию, куда что добавлять
Часть 1
Делюсь наблюдениями после -7к токенов в новой модели, один важный инсайт по элементам.
Самый интересный апдейт — это элементы. Клинги сделали все по-красоте и уникально. Теперь в каждое видео словно в коктейль можно добавлять щепотку персонажей, окружение или продуктов.
Вео3, сиданс, сора, / еще кто-то / имеют свои элементы. Но не такие. В клинге можо загружать и стартовый кадр и + элементы. Это значит, можно удержать примерно все в кадре.
Это таблетка против "расплывчатости" текстов на этикетках, изменения лиц сразу после первой секунды анимации и еще Х типичных проблем, которые были до сих пор.
По элементам:
▪️ можно создавать персонажа, добавляя видео-референс (это новинка), изображения с разных ракурсов, образца голоса. Такой возможности нет больше нигде. Можно добавлять животных, характеров, локации, эффекты (!), продукты и тд.
▪️ ❗️на конкретное применение элемента зависит описание в элементе, пишите ограничения — игнорировать фон/позу (которая в вашем референсе) или что важно: сохранить это это. Это можно менять, если надо перестать игнорировать фон, в новой генерации отредактируйте элемент без этого и ок.
▪️ Ракурсы тоже влияют, при отсутствии уточнений будет пихать его именно с этой стороны.
▪️ Если нужно показать персонажа в полный рост, то в элемент лучше добавлять тоже полный рост.
▪️ о3 позволяет взять готовое видео для изменений внутри него, и тут тоже не нужно городить стартовые фреймы или подгружать кадры, элемент сам по себе сущность более емкая, уточняем, меняем.
▪️ теперь можно очень многое в кадре удержать, что будет оставаться консистентным от генерации к генерации, если объект важный, просто колотим из него элемент и подгружаем.
Принцип такой, мы делаем видео, создаем для него важные элементы — персонажей, окружение, продукты, объекты, и используем их при генерациях. Миксуем как хотим, прописываем роль для каждого. Как результат — максимально сохраняем узнаваемость и похожесть.
Честно, я кайфую прям дико и хочется генерить и генерить.
Этот апдейт кажется мимоходным, но он серьезно подкачнет видео, нейрорекламу (уж надеюсь), не говоря про ai-кинцо от коллег по цеху. Ждем приколдесов!
Тесты в посте:
1. Элементы (машина и перс) + мультишот (без уточнения конкретных кадров).
2. Элементы перс + продукт.
3. Элементы перс + машина + продукт + мультишот.
4. Элементы перс + машина + продукт + еще один перс + мультишот.
5. Тут монтаж 3 видео, исходное (стартфрейм + элемент перс + элемент интерфейс), замена персонажа.
6. Замена перса в готовом видео через элемент. Слегка сожрал фон и изменил микрофон, но это дело уточнений и попыток.
тесты на примере локального мема-маскота нейробитвы, догадались кто это
Запишу инструкцию, куда что добавлять
👍4😁4👀1