Media is too big
VIEW IN TELEGRAM
Ладно, воспользуюсь правом админа и размещу тут вакансию. Частить не буду, но какие-то вакансии, которые сложно закрываются, буду через свои каналы дублировать.
Нам требуется FX-артист в Unity. Знаю, что тут много ребят с геймдева или около него. Может, кто-то захочет или посоветует хорошего знакомого за шоколадку😀 .
У нас на проекте накопился стек задач, которые нужно выполнить, и внутренними силами не справляемся с объёмом. Пока работа на фрилансе, условия и оплату давайте обговорим в личке.
Спасибо за внимание!
P.S. Заодно посмотрите трейлер, который делали 2 года назад и который мало кто видел, но это не дело🤓 .
UPD. Вакансию закрыл. Всем спасибо за отклики!❤️
@VAI_ART
#Vacancies
Нам требуется FX-артист в Unity. Знаю, что тут много ребят с геймдева или около него. Может, кто-то захочет или посоветует хорошего знакомого за шоколадку
У нас на проекте накопился стек задач, которые нужно выполнить, и внутренними силами не справляемся с объёмом. Пока работа на фрилансе, условия и оплату давайте обговорим в личке.
Спасибо за внимание!
P.S. Заодно посмотрите трейлер, который делали 2 года назад и который мало кто видел, но это не дело
UPD. Вакансию закрыл. Всем спасибо за отклики!
@VAI_ART
#Vacancies
Please open Telegram to view this post
VIEW IN TELEGRAM
👍4🔥4❤3
Создание концептов становится всё проще и проще с каждым днём. Любая вариация, уже практически любой сложности, делается за считанные минуты. Это вы ещё концепты объектов и локаций не видели. Сделаю немного позже.
Сделано в Nano Banana Pro. Чем мне нравятся эти модели - что уже не нужно извращаться с промптом, всё делается и пишется очень просто.
Например:
Очень просто, а результат очень крутой!🔥 🔥 🔥
В следующем году 3D догонит тоже, сделают какие-нибудь комбайны (нормально работающие). Будем просто писать основную идею или прикладывать концепт, а на выходе получать готовую модель. Думаю, до этого осталось уже недолго. 🚀
@VAI_ART
#VAI_Gallery
Сделано в Nano Banana Pro. Чем мне нравятся эти модели - что уже не нужно извращаться с промптом, всё делается и пишется очень просто.
Например:
Сделай из изображения детскую вязаную игрушку. Упрости детали, но образ должен быть узнаваем. Не порти качество изначального изображения.
Очень просто, а результат очень крутой!
В следующем году 3D догонит тоже, сделают какие-нибудь комбайны (нормально работающие). Будем просто писать основную идею или прикладывать концепт, а на выходе получать готовую модель. Думаю, до этого осталось уже недолго. 🚀
@VAI_ART
#VAI_Gallery
Please open Telegram to view this post
VIEW IN TELEGRAM
👍10🔥3👌1
Одна из тех недель, когда тратишь больше времени, чтобы ужать все в один пост, чем собрать информацию. 🫡
Быстренько пробежимся.
🔹 Новые модели DeepSeek-V3.2 и DeepSeek-V3.2-Speciale.
Позиционируются как модели для агентов. DeepSeek-V3.2-Speciale – с акцентом на сложный долгий ризонинг и планирование.
Первая в общем доступе. Вторая, на данный момент, только по API.
Уровень GPT-5 и Gemini 3.0.Это очень круто, что есть модели, которые на опенсорсе дают уровень топовых платных моделей! Модели хорошие!
Взять как всегда можно на Hugging Face.
Графики в комментариях.
🔹Kling выдал марафон. Практически каждый день выкладывали интересные инструменты:
- Kling O1. Позволяет редактировать видео. Нужно заменить объект, человека, время суток и т. д. в видео - модель может с этим помочь.Всё ещё не идеально, но достаточно неплохо.
- Kling IMAGE O1. Ответ Nano Banana. Также можно редактировать изображения.Но вот все эти ребята типа Kling и Seedream (ниже в новостях) и тд. Что они могут противопоставить Gemini 3 Pro? Ничего, а значит, что в управляемости и простоте они даже и близко не могут быть рядом с Banana. Но модель неплохая.
- Kling 2.6. Новая версия достаточно неплохого видео генератора. Модель генерирует видео до 10 секунд в 1080p с синхронизированной речью, звуковыми эффектами, музыкой. Поддерживаются два режима: text-to-video и image-to-video, с возможностью указать характер голоса, стиль речи и звуковое окружение прямо в промпте.
- KlingAI Avatar 2.0. Обновлённая модель для создания говорящих аватаров, которая генерирует видео до 5 минут из одной фотографии и аудио.Главные улучшения: естественная мимика с микродвижениями глаз и головы, улучшенный липсинк без рывков, эмоциональная выразительность и поддержка пения с движениями тела в такт музыке. Модель работает с реальными людьми, AI-персонажами и даже животными/мультяшными героями, выдаёт 1080p при 30–48 FPS.
- Kling Element Library. Функция в Kling AI, которая позволяет загружать до 4 изображений (персонажи, объекты, фоны).Вы загружаете изображения элементов, описываете в промпте, как они должны взаимодействовать или двигаться, и модель создаёт видео, где все объекты выглядят точно так же, как на загруженных картинках.
Презентации инструментов в комментариях.
🔹 Опенсорсное семейство моделей Ministral 3.Небольшие модели, с хорошими показателями.На уровне DeepSeek-V3.1. Но, на этой неделе вышел DeepSeek-V3.2.Который уже обходит эту модель. Для локальных запусков, также, кому то может быть интересно.
Попробовать можно тут.
Графики также в комментариях.
🔹Google выпустили Gemini 3 Deep Think - модель показывает значительное превосходит Gemini 3 Pro и другие модели.Она использует технологию параллельных рассуждений, изучая одновременно несколько гипотез и объединяя результаты.
Пока доступна только подписчикам Ultra.
Графики в комментариях.
🔹 Seedream v4.5.Новая версия улучшила четыре ключевых области: сохраняет мелкие детали и текстуры объектов при редактировании вместо их размытия, значительно лучше работает с текстами на изображениях, генерирует более реалистичные портреты с чёткими чертами лица и правильной текстурой кожи даже на небольших объектах, и может обрабатывать до 10 референсных изображений одновременно с сохранением согласованности персонажей, стиля и композиции. Всё это может в 4K разрешении.
Попробовать можно тут и тут.
🔹 RunWay 4.5. Новая модель для генерации видео, которая заняла первое место в рейтинге Video Arena, обойдя Sora и Veo (сомнительно). Главные улучшения: реалистичная физика, лучшее следование промпту и высокая визуальная точность. Модель работает с разными стилями от фотореализма до анимации, поддерживает режимы text-to-video, image-to-video, video-to-video и работу с ключевыми кадрами.
Это одна из моделей, к которой я отношусь очень осторожно, так как зачастую их рекламные материалы имеют «небольшую» разницу с реальными результатами.Но то, что модель улучшается и становится лучше, вопросов нет.
Презентация в комментариях.
🔹 Grok Imagine. Так же идут за модой и прикручивают редактирование изображений к своей модели.
@VAI_ART
#VAI_News
Быстренько пробежимся.
🔹 Новые модели DeepSeek-V3.2 и DeepSeek-V3.2-Speciale.
Позиционируются как модели для агентов. DeepSeek-V3.2-Speciale – с акцентом на сложный долгий ризонинг и планирование.
Первая в общем доступе. Вторая, на данный момент, только по API.
Уровень GPT-5 и Gemini 3.0.Это очень круто, что есть модели, которые на опенсорсе дают уровень топовых платных моделей! Модели хорошие!
Взять как всегда можно на Hugging Face.
Графики в комментариях.
🔹Kling выдал марафон. Практически каждый день выкладывали интересные инструменты:
- Kling O1. Позволяет редактировать видео. Нужно заменить объект, человека, время суток и т. д. в видео - модель может с этим помочь.Всё ещё не идеально, но достаточно неплохо.
- Kling IMAGE O1. Ответ Nano Banana. Также можно редактировать изображения.Но вот все эти ребята типа Kling и Seedream (ниже в новостях) и тд. Что они могут противопоставить Gemini 3 Pro? Ничего, а значит, что в управляемости и простоте они даже и близко не могут быть рядом с Banana. Но модель неплохая.
- Kling 2.6. Новая версия достаточно неплохого видео генератора. Модель генерирует видео до 10 секунд в 1080p с синхронизированной речью, звуковыми эффектами, музыкой. Поддерживаются два режима: text-to-video и image-to-video, с возможностью указать характер голоса, стиль речи и звуковое окружение прямо в промпте.
- KlingAI Avatar 2.0. Обновлённая модель для создания говорящих аватаров, которая генерирует видео до 5 минут из одной фотографии и аудио.Главные улучшения: естественная мимика с микродвижениями глаз и головы, улучшенный липсинк без рывков, эмоциональная выразительность и поддержка пения с движениями тела в такт музыке. Модель работает с реальными людьми, AI-персонажами и даже животными/мультяшными героями, выдаёт 1080p при 30–48 FPS.
- Kling Element Library. Функция в Kling AI, которая позволяет загружать до 4 изображений (персонажи, объекты, фоны).Вы загружаете изображения элементов, описываете в промпте, как они должны взаимодействовать или двигаться, и модель создаёт видео, где все объекты выглядят точно так же, как на загруженных картинках.
Презентации инструментов в комментариях.
🔹 Опенсорсное семейство моделей Ministral 3.Небольшие модели, с хорошими показателями.На уровне DeepSeek-V3.1. Но, на этой неделе вышел DeepSeek-V3.2.Который уже обходит эту модель. Для локальных запусков, также, кому то может быть интересно.
Попробовать можно тут.
Графики также в комментариях.
🔹Google выпустили Gemini 3 Deep Think - модель показывает значительное превосходит Gemini 3 Pro и другие модели.Она использует технологию параллельных рассуждений, изучая одновременно несколько гипотез и объединяя результаты.
Пока доступна только подписчикам Ultra.
Графики в комментариях.
🔹 Seedream v4.5.Новая версия улучшила четыре ключевых области: сохраняет мелкие детали и текстуры объектов при редактировании вместо их размытия, значительно лучше работает с текстами на изображениях, генерирует более реалистичные портреты с чёткими чертами лица и правильной текстурой кожи даже на небольших объектах, и может обрабатывать до 10 референсных изображений одновременно с сохранением согласованности персонажей, стиля и композиции. Всё это может в 4K разрешении.
Попробовать можно тут и тут.
🔹 RunWay 4.5. Новая модель для генерации видео, которая заняла первое место в рейтинге Video Arena, обойдя Sora и Veo (сомнительно). Главные улучшения: реалистичная физика, лучшее следование промпту и высокая визуальная точность. Модель работает с разными стилями от фотореализма до анимации, поддерживает режимы text-to-video, image-to-video, video-to-video и работу с ключевыми кадрами.
Это одна из моделей, к которой я отношусь очень осторожно, так как зачастую их рекламные материалы имеют «небольшую» разницу с реальными результатами.Но то, что модель улучшается и становится лучше, вопросов нет.
Презентация в комментариях.
🔹 Grok Imagine. Так же идут за модой и прикручивают редактирование изображений к своей модели.
@VAI_ART
#VAI_News
Please open Telegram to view this post
VIEW IN TELEGRAM
❤6👍4🔥1
Я как-то писал пост о том, как LLM‑модели могут быть полезны художникам, вот писал про это тут. Тогда уже казалось классным, что не нужно ждать обновлений программ: любую проблему, которая мешает работать, или задачу по автоматизации процесса можно решить или реализовать за пару минут. 🧐
Но смотришь на развитие всего этого сейчас и понимаешь, что помимо того, что устранить любую проблему стало еще проще, с выходом новых LLM‑моделей можно практически в один запрос (с небольшими корректировками) описать и собрать почти любое приложение.
Сейчас множество LLM хорошо справляются с подобными задачами:
Достаточно большое количество инструментов, которые очень сильно бустят и помогают.
- хотите сделать приложение, которое организует всю вашу кучу референсов и создает структуру по папкам? Вы можете задать папки сами, или ИИ‑инструмент проанализирует контент и отсортирует его автоматически - без проблем.
- может быть, вы хотите создать рандомайзер текстур - запускаете скрипт, который генерирует 10 вариаций одной текстуры за раз.
- или более базовый сценарий: диск C переполнен, и нужно быстро что‑то удалить. Можно сделать скрипт, который проанализирует самые большие или наименее используемые файлы и выведет список - берете и удаляете.
Сделать можно всё, на что хватает фантазии.
Часто, конечно, нужно будет докачать библиотеки, установить тот же Python (язык программирования, который позволяет создавать приложения, скрипты, анализировать данные и автоматизировать задачи). Но можно попросить детальную инструкцию по каждому шагу - и всё пройдет без проблем. Это вообще не сложно.
Сейчас уже идет смещение ролей: программисты генерируют изображения, художники создают приложения и т.д. Конечно, и там, и там нужны навыки и понимание процессов. Но какое‑то базовое представление уже не требует длительного обучения.
Я как‑то писал, что учился на программиста, но, несмотря на 5 лет в университете, хорошим программистом так и не стал.🙃 Зато нашел себя в графике. И каждый раз радуюсь как ребенок, когда нужно написать скрипт или небольшое приложение для автоматизации и при этом практически ничего не делать вручную.
Для примера сделал приложение, работающее в браузере. Загружаете любое изображение, и оно его оформляет и выводит основные цветовые коды, которые использовались в изображении. Потратил 5 минут. Закинул в комментарии. Может кому то пригодится.
Как уже писал раньше, всё больше на первый план выходит мысль и идея, а реализация занимает минимальное количество времени. Конечно, пока еще не всё можно сделать, и система далека от идеала, но уже сейчас это впечатляет.
Читаешь статьи о том, как большие компании отдают 30 - 40% написания кода ИИ‑моделям, и немного офигеваешь. И при этом понимаешь, что мы только в начале пути развития ИИ. С одной стороны - немного страшно, с другой - безумно интересно посмотреть, к чему всё это приведет.🤤
@VAI_ART
#VAI_General
Но смотришь на развитие всего этого сейчас и понимаешь, что помимо того, что устранить любую проблему стало еще проще, с выходом новых LLM‑моделей можно практически в один запрос (с небольшими корректировками) описать и собрать почти любое приложение.
Сейчас множество LLM хорошо справляются с подобными задачами:
● GPTChat 5.1
● Gemini 3 Pro
● Claude Opus/Sonnet
● Grok 4.1
● DeepSeek‑V3.2
Достаточно большое количество инструментов, которые очень сильно бустят и помогают.
- хотите сделать приложение, которое организует всю вашу кучу референсов и создает структуру по папкам? Вы можете задать папки сами, или ИИ‑инструмент проанализирует контент и отсортирует его автоматически - без проблем.
- может быть, вы хотите создать рандомайзер текстур - запускаете скрипт, который генерирует 10 вариаций одной текстуры за раз.
- или более базовый сценарий: диск C переполнен, и нужно быстро что‑то удалить. Можно сделать скрипт, который проанализирует самые большие или наименее используемые файлы и выведет список - берете и удаляете.
Сделать можно всё, на что хватает фантазии.
Часто, конечно, нужно будет докачать библиотеки, установить тот же Python (язык программирования, который позволяет создавать приложения, скрипты, анализировать данные и автоматизировать задачи). Но можно попросить детальную инструкцию по каждому шагу - и всё пройдет без проблем. Это вообще не сложно.
Сейчас уже идет смещение ролей: программисты генерируют изображения, художники создают приложения и т.д. Конечно, и там, и там нужны навыки и понимание процессов. Но какое‑то базовое представление уже не требует длительного обучения.
Я как‑то писал, что учился на программиста, но, несмотря на 5 лет в университете, хорошим программистом так и не стал.
Для примера сделал приложение, работающее в браузере. Загружаете любое изображение, и оно его оформляет и выводит основные цветовые коды, которые использовались в изображении. Потратил 5 минут. Закинул в комментарии. Может кому то пригодится.
Как уже писал раньше, всё больше на первый план выходит мысль и идея, а реализация занимает минимальное количество времени. Конечно, пока еще не всё можно сделать, и система далека от идеала, но уже сейчас это впечатляет.
Читаешь статьи о том, как большие компании отдают 30 - 40% написания кода ИИ‑моделям, и немного офигеваешь. И при этом понимаешь, что мы только в начале пути развития ИИ. С одной стороны - немного страшно, с другой - безумно интересно посмотреть, к чему всё это приведет.
@VAI_ART
#VAI_General
Please open Telegram to view this post
VIEW IN TELEGRAM
👍10❤1🔥1
Давайте рассмотрим ещё одну полезную функцию Nano Banana Pro - поиск вариаций.
Мы рассматриваем возможность внедрения персонажей из основного режима в детский и можем так же быстро проверить сами образы, чтобы понять, что и как лучше подойдёт.
Заметьте как переносятся детали, практически ничего не теряется.
@VAI_ART
#VAI_Gallery
Мы рассматриваем возможность внедрения персонажей из основного режима в детский и можем так же быстро проверить сами образы, чтобы понять, что и как лучше подойдёт.
Закидывайте вашего персонажа и референс, на который стоит ориентироваться при переделке стилистики, либо опишите всё промптом, либо совместите оба подхода. Дальше пошаговыми правками корректируйте формы: например, «сделай толще», «сделай больше», «сделай ниже» и т.д.
Заметьте как переносятся детали, практически ничего не теряется.
@VAI_ART
#VAI_Gallery
👍8❤5🔥2
Как обычно наиболее интересные новости в сфере ИИ за прошлую неделю.
🔹 Вышла GPT 5.2. После выхода 5.1, где из основных нововведений было то, что модель стала говорить «теплее», здесь точно постарались и сделали модель действительно лучше.
Повышение точности и надежности, реализованное через введение трех специализированных режимов (Instant, Thinking, Pro) и снижение фактических ошибок до 38%. Модель теперь поддерживает контекст до 256 тысяч токенов, что улучшает способностью удерживать детали глубоко внутри текста, а также демонстрирует более высокое качество в написании кода, логических рассуждениях и интерпретации визуальных данных, таких как диаграммы.
Вообще, глобально модель не лучше последних Claude или Gemini (они местами даже лучше), но модель хорошая.
Очень надеюсь, что они перестанут заниматься ерундой и не отстанут от рынка, а то пока выглядит так, будто уже начали отставать. Сравнивают только со своими моделями. Графики в комментариях.
🔹 Photoshop добавили в ChatGPT. Пока функции ограничены. Можно редактировать изображения, например удалить фон, применить фильтры, добавить резкости и тд. Также добавили Express и Acrobat. Презентация в комментариях.
🔹 RunWay 4.5. Вышла только на этой неделе. Писал про модель на прошлой неделе. Также как и в случае с Kling (про который также писал на прошлой неделе) анонсировали кучу новостей. Смысла говорить нет, так как непонятно вообще когда они смогут выпустить все обещанное. Никаких дат нет.
🔹 Не писал про Figma, исправляюсь, там тоже идет внедрение большого количества ИИ инструментов. На этой недели сделали много интересного. Теперь можно выделять объекты (в том числе лассо), удалять их и расширять холст, при этом фон автоматически достраивается ИИ с сохранением света, теней и общей цветовой схемы. Эти функции встроены прямо в Figma Design/Draw, так что больше не нужно гонять кадры в Photoshop или другие редакторы для базового object removal и outpainting. Выглядит круто. Презентация в комментариях.
🔹 3D‑генераторы продолжают обрастать функциями. На этой неделе в Meshy 6 добавили генерацию персонажей сразу в A‑ и T‑позах: можно загрузить изображение персонажа, и модель будет сгенерирована в выбранной стандартной позе - удобно для дальнейшей доработки риггинга. Презентация в комментариях.
Было что-то еще интересное?)
@VAI_ART
#VAI_News
🔹 Вышла GPT 5.2. После выхода 5.1, где из основных нововведений было то, что модель стала говорить «теплее», здесь точно постарались и сделали модель действительно лучше.
Повышение точности и надежности, реализованное через введение трех специализированных режимов (Instant, Thinking, Pro) и снижение фактических ошибок до 38%. Модель теперь поддерживает контекст до 256 тысяч токенов, что улучшает способностью удерживать детали глубоко внутри текста, а также демонстрирует более высокое качество в написании кода, логических рассуждениях и интерпретации визуальных данных, таких как диаграммы.
Вообще, глобально модель не лучше последних Claude или Gemini (они местами даже лучше), но модель хорошая.
Очень надеюсь, что они перестанут заниматься ерундой и не отстанут от рынка, а то пока выглядит так, будто уже начали отставать. Сравнивают только со своими моделями. Графики в комментариях.
🔹 Photoshop добавили в ChatGPT. Пока функции ограничены. Можно редактировать изображения, например удалить фон, применить фильтры, добавить резкости и тд. Также добавили Express и Acrobat. Презентация в комментариях.
🔹 RunWay 4.5. Вышла только на этой неделе. Писал про модель на прошлой неделе. Также как и в случае с Kling (про который также писал на прошлой неделе) анонсировали кучу новостей. Смысла говорить нет, так как непонятно вообще когда они смогут выпустить все обещанное. Никаких дат нет.
🔹 Не писал про Figma, исправляюсь, там тоже идет внедрение большого количества ИИ инструментов. На этой недели сделали много интересного. Теперь можно выделять объекты (в том числе лассо), удалять их и расширять холст, при этом фон автоматически достраивается ИИ с сохранением света, теней и общей цветовой схемы. Эти функции встроены прямо в Figma Design/Draw, так что больше не нужно гонять кадры в Photoshop или другие редакторы для базового object removal и outpainting. Выглядит круто. Презентация в комментариях.
🔹 3D‑генераторы продолжают обрастать функциями. На этой неделе в Meshy 6 добавили генерацию персонажей сразу в A‑ и T‑позах: можно загрузить изображение персонажа, и модель будет сгенерирована в выбранной стандартной позе - удобно для дальнейшей доработки риггинга. Презентация в комментариях.
Было что-то еще интересное?)
@VAI_ART
#VAI_News
1👍9❤2
This media is not supported in your browser
VIEW IN TELEGRAM
Первая версия была отличной, но давно уже устарела.
Посмотрим, насколько хороша новая!
Это новая модель, а не обновление прошлой модели на базе Sora.
Новый интерфейс "Images" внутри ChatGPT.
Руководство по промтингу.
@VAI_ART
#VAI_News
Please open Telegram to view this post
VIEW IN TELEGRAM
👍5❤1
Нового года тоже добавлю.🎄
Немного разных игрушек с нашей родной эстетикой.
Сделано в Nana Banana Pro.
Всех больше провозился с шаром из оливье.🙃 Поэтому ловите на него промпт.
@VAI_ART
#VAI_Gallery
Немного разных игрушек с нашей родной эстетикой.
Сделано в Nana Banana Pro.
Всех больше провозился с шаром из оливье.
Фотография пышной елки среднего плана, фокус на отдельной игрушке. Винтажная рождественская игрушка представляет собой сферу, стилизованную под салат «Оливье». Весь шар покрыт глянцевой кремово-белой эмалью (имитирующей майонез). В эту белую поверхность вплавлены (или выступают рельефом) отчетливые крупные стеклянные кубики, имитирующие ингредиенты салата, разбросанные по всему периметру: оранжевые квадратики (морковь), розовые квадратики (ветчина) и зеленые шарики (горошек). Ингредиенты стилизованы, это не фотореалистичная еда, а именно декор. Текстура состаренного стекла с амальгамой, легкое окисление на металлическом колпачке. Соотношение сторон 9x16.
@VAI_ART
#VAI_Gallery
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
1❤10🔥5🤩2🤮1🦄1
Решил немного подвести итоги года. 🧐
Пост разделил на две части.
Я считаю,что это был переломный год, в котором даже самые закостенелые скептики убедились:ИИ- не пустышка, а реально работающий инструмент, который может очень сильно ускорять процессы и помогать в работе.Кто-то полюбил его сразу, у кого-то до сих пор отторжение, но и тем, и другим теперь придется идти с ним бок о бок,так как это новые реалии.
Человеческий мозг быстро привыкает ко всему, особенно если это что-то хорошее.Поэтому вкратце пробежимся по тому,что именно поменялось за год.
🟥 ГЕНЕРАТОРЫ ИЗОБРАЖЕНИЙ
Еще год назад для создания изображения приходилось сильно заморачиваться с промтом: писать кучу технических терминов, выстраивать сложную структуру, обучать LoRA. Работа с текстом была просто никакой - надеюсь, многие еще помнят те «эльфийские кракозябры».Руки плыли, детали скакали, нормальных редакторов внутри моделей не было (только inpaint и outpaint).В общем, чтобы получить достойную картинку, нужно было очень и очень постараться.
К концу года практически всё перечисленное перестало быть проблемой.Теперь мы можем редактировать изображения любой сложности по одной строчке текста, генерировать конкретного человека или объект, имея всего один референс.Стало возможным создавать дизайн с текстом, карточками, обложками, копировать любой стиль и делать бесконечные вариации.Перечислять можно долго.Это действительно огромный и крутой скачок.💪
🟥 ГЕНЕРАТОРЫ 3D
Это направление по-настоящему стартовало именно в этом году.Еще в начале у нас были лишь пара-тройку сервисов, которые при генерации слишком упрощали детали и заметно искажали формы.Вообще, 3D - сфера во многом техническая: помимо генерации самой модели здесь куча нюансов вроде сетки, развертки, запекания текстур и т.д.В начале года всего этого просто не было, мы могли получить разве что несложную модель, годную максимум как «болванка» для доработки.
Но за год произошел серьезный сдвиг, и некоторые сервисы уже выдают модели очень приемлемого для работы качества.Также появились ИИ-инструменты,которые делают и развертку,и ретопологию.Единственный минус сейчас - это всё пока отдельные и разрозненные решения, но они реально работают.Я уже писал, что в следующем году мы 100% получим работающие сервисы с полным пайплайном.
Даже в текущих условиях мы в студии практически полностью собрали прототип игры, сократив время разработки в разы.Это уже огромный прорыв и показатель.🔥
🟥 ГЕНЕРАТОРЫ ВИДЕО
Если в картинках мы еще год назад чувствовали хоть какую-то твердую почву, то видео в начале года напоминало лотерею.Мы получали короткие ролики по 3-4 секунды, где всё плыло, объекты превращались друг в друга (тот самый бесконечный морфинг),а сохранить лицо персонажа было вообще чем-то из области фантастики.Это годилось максимум для мемов, использовать это в реальном продакшене было практически невозможно.
Сейчас же мы видим, пожалуй, самый стремительный рост именно здесь.Появилась та самая стабильность: персонаж теперь узнаваем в разных кадрах, физика стала адекватной, а длительность генерации выросла в разы без потери качества.Теперь мы не просто пишем промт и надеемся на чудо,а реально управляем камерой, движением и сценой.Из забавной игрушки генераторы видео превратились в мощный инструмент для моушн-дизайна, рекламы и создания полноценных видео роликов.😎
🟥 ГЕНЕРАТОРЫ МУЗЫКИ И ЗВУКОВ
Еще год назад это направление воспринималось скорее как забавный аттракцион.Сгенерированные треки звучали плоско, с характерным «металлическим» скрежетом, а вокал отдавал явной синтетикой.Структура песен разваливалась на ходу.О том, чтобы использовать такой материал в реальном проекте или игре, даже речи не шло.
Теперь отличить генерацию от реального студийного трека стало сложно даже на слух.Мы получили полноценную музыку с внятной структурой, чистым вокалом и любым настроением.Нужен уникальный эмбиент, звуки интерфейса или фоновый трек? Не нужно часами рыться на стоках - пара кликов, и у тебя есть готовый ассет,который идеально ложится в атмосферу.🙌
P.S.Аудио версия в комментариях.🎧
@VAI_ART
#VAI_Notes
Пост разделил на две части.
Я считаю,что это был переломный год, в котором даже самые закостенелые скептики убедились:ИИ- не пустышка, а реально работающий инструмент, который может очень сильно ускорять процессы и помогать в работе.Кто-то полюбил его сразу, у кого-то до сих пор отторжение, но и тем, и другим теперь придется идти с ним бок о бок,так как это новые реалии.
Человеческий мозг быстро привыкает ко всему, особенно если это что-то хорошее.Поэтому вкратце пробежимся по тому,что именно поменялось за год.
Еще год назад для создания изображения приходилось сильно заморачиваться с промтом: писать кучу технических терминов, выстраивать сложную структуру, обучать LoRA. Работа с текстом была просто никакой - надеюсь, многие еще помнят те «эльфийские кракозябры».Руки плыли, детали скакали, нормальных редакторов внутри моделей не было (только inpaint и outpaint).В общем, чтобы получить достойную картинку, нужно было очень и очень постараться.
К концу года практически всё перечисленное перестало быть проблемой.Теперь мы можем редактировать изображения любой сложности по одной строчке текста, генерировать конкретного человека или объект, имея всего один референс.Стало возможным создавать дизайн с текстом, карточками, обложками, копировать любой стиль и делать бесконечные вариации.Перечислять можно долго.Это действительно огромный и крутой скачок.
Это направление по-настоящему стартовало именно в этом году.Еще в начале у нас были лишь пара-тройку сервисов, которые при генерации слишком упрощали детали и заметно искажали формы.Вообще, 3D - сфера во многом техническая: помимо генерации самой модели здесь куча нюансов вроде сетки, развертки, запекания текстур и т.д.В начале года всего этого просто не было, мы могли получить разве что несложную модель, годную максимум как «болванка» для доработки.
Но за год произошел серьезный сдвиг, и некоторые сервисы уже выдают модели очень приемлемого для работы качества.Также появились ИИ-инструменты,которые делают и развертку,и ретопологию.Единственный минус сейчас - это всё пока отдельные и разрозненные решения, но они реально работают.Я уже писал, что в следующем году мы 100% получим работающие сервисы с полным пайплайном.
Даже в текущих условиях мы в студии практически полностью собрали прототип игры, сократив время разработки в разы.Это уже огромный прорыв и показатель.
Если в картинках мы еще год назад чувствовали хоть какую-то твердую почву, то видео в начале года напоминало лотерею.Мы получали короткие ролики по 3-4 секунды, где всё плыло, объекты превращались друг в друга (тот самый бесконечный морфинг),а сохранить лицо персонажа было вообще чем-то из области фантастики.Это годилось максимум для мемов, использовать это в реальном продакшене было практически невозможно.
Сейчас же мы видим, пожалуй, самый стремительный рост именно здесь.Появилась та самая стабильность: персонаж теперь узнаваем в разных кадрах, физика стала адекватной, а длительность генерации выросла в разы без потери качества.Теперь мы не просто пишем промт и надеемся на чудо,а реально управляем камерой, движением и сценой.Из забавной игрушки генераторы видео превратились в мощный инструмент для моушн-дизайна, рекламы и создания полноценных видео роликов.
Еще год назад это направление воспринималось скорее как забавный аттракцион.Сгенерированные треки звучали плоско, с характерным «металлическим» скрежетом, а вокал отдавал явной синтетикой.Структура песен разваливалась на ходу.О том, чтобы использовать такой материал в реальном проекте или игре, даже речи не шло.
Теперь отличить генерацию от реального студийного трека стало сложно даже на слух.Мы получили полноценную музыку с внятной структурой, чистым вокалом и любым настроением.Нужен уникальный эмбиент, звуки интерфейса или фоновый трек? Не нужно часами рыться на стоках - пара кликов, и у тебя есть готовый ассет,который идеально ложится в атмосферу.
P.S.Аудио версия в комментариях.
@VAI_ART
#VAI_Notes
Please open Telegram to view this post
VIEW IN TELEGRAM
👍10❤2👏2👌1
Вторая часть.
🟥 LLM МОДЕЛИ
В начале года модели вроде и отвечали складно,но шаг влево,шаг вправо - и начинались галлюцинации.Они были похожи на очень начитанных,но забывчивых собеседников.Постоянно приходилось «скармливать» контекст заново,напоминать вводные данные,а сложные логические задачи часто ставили их в тупик.Мы привыкли использовать их для простых саммари или переписывания текста,но доверять им что-то серьезное без проверки было страшно.
Главный прорыв в этом году - это «память» и логика.Теперь мы можем загружать в них целые книги, огромные документы или длинные переписки, и они прекрасно в этом ориентируются, не теряя нить разговора.Появились модели,которые умеют «думать» перед ответом (reasoning),выстраивая цепочки рассуждений,что кардинально повысило качество решения сложных задач.Из простого генератора текста LLM превратились в настоящий аналитический инструмент, который понимает нюансы,сарказм и подтекст.🔥
🟥 КОДИНГ
Год назад программирование с ИИ выглядело как бесконечный копипаст.Мы копировали кусок кода в чат,просили найти ошибку,получали ответ, несли его обратно и часто оказывалось,что нейросеть выдумала несуществующую библиотеку или забыла,что мы писали два сообщения назад.Это работало на уровне простых скриптов,но как только речь заходила о чем-то масштабном, проще было написать самому.
Сейчас ИИ переехал из браузера прямо в редакторы кода и научился видеть весь проект целиком.Теперь он понимает структуру папок, связи между файлами и ваш стиль написания.Вы можете попросить «добавить новую механику стрельбы»,и он сам найдет нужные файлы,внесет правки в нескольких местах и даже напишет комментарии.Это уже не просто подсказчик синтаксиса,а полноценный напарник(AI-pair programmer),который берет на себя 80% рутины,оставляя нам самое интересное - архитектуру и логику.👍
🟥 АГЕНТЫ
Еще год назад слово «агент» звучало скорее как очередной хайп из Твиттера.На практике все выглядело жалко:нейросеть зацикливалась, сжигала кучу денег на API и в итоге не могла выполнить простейшую задачу до конца. Мы привыкли, что ИИ - это пассивный чат-бот: пока не спросишь, он молчит, и каждое действие нужно контролировать вручную.
К концу года мы увидели переход. Агенты наконец-то научились нормально планировать и удерживать цель. Теперь это не просто генерация текста, а выполнение цепочки действий: агент может сам пойти в интернет,найти информацию,проанализировать её,написать код, протестировать его и сохранить результат в файл.Это уже зачатки настоящей автономности,когда ИИ выступает не как справочник,а как полноценный стажер,которому можно делегировать задачу целиком,а не разжевывать каждый шаг.😎
🟥 ГЕНЕРАТОРЫ РЕЧИ
В начале года «синтез речи» у многих все еще ассоциировался с бездушными робо-голосами.Интонации были деревянными,эмоции - утрированными.Да,технология уже существовала, но «эффект зловещей долины» чувствовался в каждой второй фразе,выдавая искусственное происхождение звука.
За год мы пришли к тому,что на слух понять,говорит человек или машина,стало практически нереально.Современные модели научились клонировать голос по паре секунд записи,идеально передавая не только тембр,но и дыхание,паузы,микроинтонации и даже смешки.Стало возможным переводить видео на другие языки,сохраняя голос оригинального спикера(и даже синхронизируя губы!).Для озвучки контента это сняло огромную головную боль - студийное качество теперь доступно без студии и актеров.🙌
🟥 ОСТАЛЬНОЕ
За год ИИ перестал быть просто хайпом и глубоко интегрировался в серьезную науку. Биология и медицина получили мощнейший буст благодаря моделированию белков, а робототехника наконец-то обрела «мозг» на основе ИИ. Было очень много интересного!💪
Да,проблем еще много,но нужно просто запастись терпением.Мы находимся только в самом начале пути.Дальше больше!Нам всем очень повезло жить в этот период времени.Это похоже на новогоднюю сказку,которая вызывает очень много эмоции, как в детстве.Ты опять маленький ребенок, а перед тобой новый не исследованный мир и все еще впереди.🥺
P.S. Аудио версия в комментариях.🎧
@VAI_ART
#VAI_Notes
В начале года модели вроде и отвечали складно,но шаг влево,шаг вправо - и начинались галлюцинации.Они были похожи на очень начитанных,но забывчивых собеседников.Постоянно приходилось «скармливать» контекст заново,напоминать вводные данные,а сложные логические задачи часто ставили их в тупик.Мы привыкли использовать их для простых саммари или переписывания текста,но доверять им что-то серьезное без проверки было страшно.
Главный прорыв в этом году - это «память» и логика.Теперь мы можем загружать в них целые книги, огромные документы или длинные переписки, и они прекрасно в этом ориентируются, не теряя нить разговора.Появились модели,которые умеют «думать» перед ответом (reasoning),выстраивая цепочки рассуждений,что кардинально повысило качество решения сложных задач.Из простого генератора текста LLM превратились в настоящий аналитический инструмент, который понимает нюансы,сарказм и подтекст.
Год назад программирование с ИИ выглядело как бесконечный копипаст.Мы копировали кусок кода в чат,просили найти ошибку,получали ответ, несли его обратно и часто оказывалось,что нейросеть выдумала несуществующую библиотеку или забыла,что мы писали два сообщения назад.Это работало на уровне простых скриптов,но как только речь заходила о чем-то масштабном, проще было написать самому.
Сейчас ИИ переехал из браузера прямо в редакторы кода и научился видеть весь проект целиком.Теперь он понимает структуру папок, связи между файлами и ваш стиль написания.Вы можете попросить «добавить новую механику стрельбы»,и он сам найдет нужные файлы,внесет правки в нескольких местах и даже напишет комментарии.Это уже не просто подсказчик синтаксиса,а полноценный напарник(AI-pair programmer),который берет на себя 80% рутины,оставляя нам самое интересное - архитектуру и логику.
Еще год назад слово «агент» звучало скорее как очередной хайп из Твиттера.На практике все выглядело жалко:нейросеть зацикливалась, сжигала кучу денег на API и в итоге не могла выполнить простейшую задачу до конца. Мы привыкли, что ИИ - это пассивный чат-бот: пока не спросишь, он молчит, и каждое действие нужно контролировать вручную.
К концу года мы увидели переход. Агенты наконец-то научились нормально планировать и удерживать цель. Теперь это не просто генерация текста, а выполнение цепочки действий: агент может сам пойти в интернет,найти информацию,проанализировать её,написать код, протестировать его и сохранить результат в файл.Это уже зачатки настоящей автономности,когда ИИ выступает не как справочник,а как полноценный стажер,которому можно делегировать задачу целиком,а не разжевывать каждый шаг.
В начале года «синтез речи» у многих все еще ассоциировался с бездушными робо-голосами.Интонации были деревянными,эмоции - утрированными.Да,технология уже существовала, но «эффект зловещей долины» чувствовался в каждой второй фразе,выдавая искусственное происхождение звука.
За год мы пришли к тому,что на слух понять,говорит человек или машина,стало практически нереально.Современные модели научились клонировать голос по паре секунд записи,идеально передавая не только тембр,но и дыхание,паузы,микроинтонации и даже смешки.Стало возможным переводить видео на другие языки,сохраняя голос оригинального спикера(и даже синхронизируя губы!).Для озвучки контента это сняло огромную головную боль - студийное качество теперь доступно без студии и актеров.
За год ИИ перестал быть просто хайпом и глубоко интегрировался в серьезную науку. Биология и медицина получили мощнейший буст благодаря моделированию белков, а робототехника наконец-то обрела «мозг» на основе ИИ. Было очень много интересного!
Да,проблем еще много,но нужно просто запастись терпением.Мы находимся только в самом начале пути.Дальше больше!Нам всем очень повезло жить в этот период времени.Это похоже на новогоднюю сказку,которая вызывает очень много эмоции, как в детстве.Ты опять маленький ребенок, а перед тобой новый не исследованный мир и все еще впереди.
P.S. Аудио версия в комментариях.
@VAI_ART
#VAI_Notes
Please open Telegram to view this post
VIEW IN TELEGRAM
👍6❤2🔥2
Неделя была достаточно жаркой по релизам.Погнали.
🔹 Наконец-то вышел GPT Images 1.5 .Многие очень ждали.Писал тут.Это абсолютно новая модель - не как предыдущая, которая была основана на базе Sora.Как обычно,она еще лучше держит промпт,увереннее работает с текстом и деталями,а также наконец-то избавилась от фирменной «желтизны»,с которой все боролись.Но, по факту,модель не лучше новой Banana.
🔹 Wan 2.6.Новая видеомодель Alibaba,заточенная под reference‑to‑video:она берет картинку или видео‑референс и генерирует клипы с тем же персонажем и стилем,держит стабильный дизайн,плавное движение и адекватную сцену,а также поддерживает multi‑shot и липсинк для серийных роликов.Как все знаем Wan открыт и можно это делать у себя на железе или в облаке.Попробовать можно тут.Презентация в комментариях.
🔹 Trellis.2.Новая модель от Microsoft.Модель заметно уступает некоторым закрытым аналогам,но у нее есть большой плюс:она открытая, можно запускать на своем железе или в облаке.По сравнению с первой версией она стала значительно лучше.Попробовать можно тут,а код тут.Презентация - в комментариях.Также,чтобы далеко не ходить,Hunyuan 3D v3 вышел в полноценный релиз - раньше, как оказалось,была только бета.По сути, поправили баги,ускорили обработку, качество почти не изменилось.И да,добавили тарифные планы,что,скорее всего,означает плавный уход от полностью бесплатной модели.
🔹 Вышел Flux.2 [max].Флагманская версия Flux 2 для продакшена.Она дает максимальное качество картинки в линейке,лучше других держит промпт,текст и сложные сцены, аккуратно редактирует уже готовые изображения и поддерживает до 10 референсов в одном запросе.Модель умеет подтягивать актуальную инфу или референсы из веба/документов и строить картинку на их основе,а не фантазировать в вакууме,поэтому результат получается более предсказуемым и привязанным к задаче.
🔹 SAM audio - это новая открытая модель от Meta,которая позволяет «выдернуть» любой нужный звук из сложной аудиозаписи по простому запросу:можно текстом описать звук (например,«голос ведущего»,«шум ветра»),указать нужный кусок по времени или даже ткнуть в объект на видео,а модель вернет отдельно чистый целевой звук и остальной фон,что делает очистку аудио,вырезание шумов,вытаскивание вокала или реплик из микса сильно проще обычных плагинов.Потестить тут.Скачать тут.Презентация в комментариях.
🔹 Qwen-Image-Layered.Разбивает сгенерированное изображение на слои.Насколько понял до 10 и более слоев может вытягивать.Хороший инструмент, мне как раз такое было нужно.Потестить тут.Скачать модель тут.Презентация в комментариях.
🔹 Kling Video 2.6.Не новый на рынке,но новый для Kling инструмент.Управления движение на основе видео.Пока с виду все еще как игрушка,но виден большой прогресс от первых моделей,которые были в начале.Презентация в комментариях.
🔹 Reve V1.1- это обновлённая модель для генерации и редактирования изображений,которая лучше понимает текст,аккуратнее работает с референсами и правками и позволяет в одном потоке делать три вещи:с нуля генерировать картинки по промпту,менять уже готовые изображения по текстовому описанию и сочетать несколько референсов в одном результате
🔹 Seedance 1.5.Новая видеомодель от ByteDance,которая по тексту или одной картинке делает короткие кинематографичные ролики с уже синхронизированным звуком:она хорошо понимает сложные промпты,держит стиль и персонажей от начала до конца,умеет подстраивать движение под музыку и речь и сразу выдает готовый контент формата TikTok,который можно почти без правок отправлять в соцсети или использовать в рекламе.Попробовать тут.Пример в комментариях.
🔹 Gemini 3 Flash - это новая быстрая модель от Google,которая по уровню «ума» приблизилась к Pro‑версии,но отвечает заметно быстрее и дешевле,при этом умеет сразу работать с текстом,изображениями,видео,аудио и PDF,разбирать их «на лету» и превращать в понятные планы,объяснения или код,поэтому её сделали моделью по умолчанию в приложении Gemini и для большинства повседневных задач теперь достаточно именно её.Графики в комментариях.
P.S.Аудио версия в комментария.
@VAI_ART
#VAI_News
🔹 Наконец-то вышел GPT Images 1.5 .Многие очень ждали.Писал тут.Это абсолютно новая модель - не как предыдущая, которая была основана на базе Sora.Как обычно,она еще лучше держит промпт,увереннее работает с текстом и деталями,а также наконец-то избавилась от фирменной «желтизны»,с которой все боролись.Но, по факту,модель не лучше новой Banana.
🔹 Wan 2.6.Новая видеомодель Alibaba,заточенная под reference‑to‑video:она берет картинку или видео‑референс и генерирует клипы с тем же персонажем и стилем,держит стабильный дизайн,плавное движение и адекватную сцену,а также поддерживает multi‑shot и липсинк для серийных роликов.Как все знаем Wan открыт и можно это делать у себя на железе или в облаке.Попробовать можно тут.Презентация в комментариях.
🔹 Trellis.2.Новая модель от Microsoft.Модель заметно уступает некоторым закрытым аналогам,но у нее есть большой плюс:она открытая, можно запускать на своем железе или в облаке.По сравнению с первой версией она стала значительно лучше.Попробовать можно тут,а код тут.Презентация - в комментариях.Также,чтобы далеко не ходить,Hunyuan 3D v3 вышел в полноценный релиз - раньше, как оказалось,была только бета.По сути, поправили баги,ускорили обработку, качество почти не изменилось.И да,добавили тарифные планы,что,скорее всего,означает плавный уход от полностью бесплатной модели.
🔹 Вышел Flux.2 [max].Флагманская версия Flux 2 для продакшена.Она дает максимальное качество картинки в линейке,лучше других держит промпт,текст и сложные сцены, аккуратно редактирует уже готовые изображения и поддерживает до 10 референсов в одном запросе.Модель умеет подтягивать актуальную инфу или референсы из веба/документов и строить картинку на их основе,а не фантазировать в вакууме,поэтому результат получается более предсказуемым и привязанным к задаче.
🔹 SAM audio - это новая открытая модель от Meta,которая позволяет «выдернуть» любой нужный звук из сложной аудиозаписи по простому запросу:можно текстом описать звук (например,«голос ведущего»,«шум ветра»),указать нужный кусок по времени или даже ткнуть в объект на видео,а модель вернет отдельно чистый целевой звук и остальной фон,что делает очистку аудио,вырезание шумов,вытаскивание вокала или реплик из микса сильно проще обычных плагинов.Потестить тут.Скачать тут.Презентация в комментариях.
🔹 Qwen-Image-Layered.Разбивает сгенерированное изображение на слои.Насколько понял до 10 и более слоев может вытягивать.Хороший инструмент, мне как раз такое было нужно.Потестить тут.Скачать модель тут.Презентация в комментариях.
🔹 Kling Video 2.6.Не новый на рынке,но новый для Kling инструмент.Управления движение на основе видео.Пока с виду все еще как игрушка,но виден большой прогресс от первых моделей,которые были в начале.Презентация в комментариях.
🔹 Reve V1.1- это обновлённая модель для генерации и редактирования изображений,которая лучше понимает текст,аккуратнее работает с референсами и правками и позволяет в одном потоке делать три вещи:с нуля генерировать картинки по промпту,менять уже готовые изображения по текстовому описанию и сочетать несколько референсов в одном результате
🔹 Seedance 1.5.Новая видеомодель от ByteDance,которая по тексту или одной картинке делает короткие кинематографичные ролики с уже синхронизированным звуком:она хорошо понимает сложные промпты,держит стиль и персонажей от начала до конца,умеет подстраивать движение под музыку и речь и сразу выдает готовый контент формата TikTok,который можно почти без правок отправлять в соцсети или использовать в рекламе.Попробовать тут.Пример в комментариях.
🔹 Gemini 3 Flash - это новая быстрая модель от Google,которая по уровню «ума» приблизилась к Pro‑версии,но отвечает заметно быстрее и дешевле,при этом умеет сразу работать с текстом,изображениями,видео,аудио и PDF,разбирать их «на лету» и превращать в понятные планы,объяснения или код,поэтому её сделали моделью по умолчанию в приложении Gemini и для большинства повседневных задач теперь достаточно именно её.Графики в комментариях.
P.S.Аудио версия в комментария.
@VAI_ART
#VAI_News
👍7❤3👌1
Media is too big
VIEW IN TELEGRAM
С одной стороны, это лучше 70–80% нашего кинематографа (по моим личным ощущениям). С другой - именно из‑за этого цены на видеокарты и оперативку улетели в космос.
Чем‑то напоминает «Ночной дозор».
При всей карикатурности - хорошее исполнение. Ну и отсылки к нашим любимым мемам получились очень жирные.😀 Я бы такую полнометражку посмотрел, аля KUNG FURY, с нашим лором.
Делал Шестак Николай. Там много крутых роликов.
@VAI_ART
#VAI_Gallery
Чем‑то напоминает «Ночной дозор».
При всей карикатурности - хорошее исполнение. Ну и отсылки к нашим любимым мемам получились очень жирные.
Делал Шестак Николай. Там много крутых роликов.
@VAI_ART
#VAI_Gallery
Please open Telegram to view this post
VIEW IN TELEGRAM
😁8💩8❤2👍2🦄1
Один из лучших 3д генераторов Hitem обновился до версии 2.0. Обещают, что делает геометрию более детальной, чище и стабильнее по сравнению с первой версией, а также лучше передаёт мелкие детали вроде лица, волос и аксессуаров, что важно для портретов и персонажей.
Конечно же надо тестировать на разных типах объектов, но даже тут видно, что и без того неплохое качество, стало еще лучше.
Изменили интерфейс, сделали его ближе к подобным 3д генераторам, которые есть на рынке.
Генерирует очень долго.
Как всегда дают разок попробовать тут. Дальше, либо каждый раз подключать новую почту (что по сути реально) или купить подписку.
@VAI_ART
#VAI_News
Please open Telegram to view this post
VIEW IN TELEGRAM
👍6❤1