Нейронутые | ИИ (Егор Апполонов)
13.4K subscribers
1.18K photos
284 videos
1 file
342 links
Я — Егор Апполонов, эксперт по ии-видео. Победитель 3 международных конкурсов ии-фильмов. Связь @egorevna

Портфолио: https://egorappolonov.ru/ и @aigencydigital

Курс по ии-видео: https://aifilm.online/

РКН https://clck.ru/3NNPKh
Download Telegram
Версии Veo 3.1 пока нет (может это и утка, ждем), но есть вот такие обновления Veo Flow от 09.10.25

Промпты на любом языке

Теперь можно писать запросы на любом языке, не только на английском. Внутри работает автоматический перевод через Gemini. Возможны мелкие ошибки в распознавании речи или текста в кадре, но это открывает больше возможностей для неанглоязычных пользователей.

Улучшение фильтров

Были доработаны механизмы модерации: особенно в части распознавания известных персон. Теперь меньше случаев, когда генерация необоснованно блокируется.

Троттлинг (ограничения скорости)

Недавно Flow ввел новую систему защиты от злоупотреблений, которая работала слишком строго — генерации стали блокироваться даже у обычных пользователей. Сейчас эти настройки скорректированы: ограничения остались, но работают мягче и точнее. Сообщения "вы делаете слишком много генераций" не будет выскакивать каждое второе сообщение.
👍18
Вот не верю я в Veo 3.1. Думаю-таки, что это фейк. Посмотрел якобы демо на одном из каналов, и у меня сложилост четкое ощущение, что видео сделано в Veo 3 fast. А вы что думаете?
Anonymous Poll
47%
Будет Veo 3.1
30%
Это фейк
24%
Сора топ, Гугол в топку
This media is not supported in your browser
VIEW IN TELEGRAM
Sora 2: итоги. мой опыт. мое мнение.

Sora 2 — это уже не будущее. Это реальность. Настоящая нейро-киностудия в твоем браузере.

Киношная камера, движущаяся сквозь мир, которого не существует. Свет, дым, актеры — все фейк. Но такой убедительный фейк, что тебе самому страшно, как быстро ты в это поверил.

Все последние дни работал с Sora 2 в боевом режиме. Как режиссер, продюсер, сценарист, монтажер, психотерапевт и саппорт самому себе.

И вот что важно: Sora — это не «сгенерить видео за 5 минут», как вам кажется и как пишут многие. Это мозговыносящая комбинация композиции, камеры, тонкого описания световых рисунков, цветовой температуры, оптики, сценарной логики и бога рандома. Это когда ты делаешь пятьдесят итераций, чтобы получить ценные секунды нужного кадра. А потом все равно переделываешь. Но в итоге что-то все же оставляешь.

Sora — это не «красивая картинка». Это язык кино. И только у тех, кто знает этот язык, выходит не очередная нарезка с вариациями на тему слоп-контента, а история, которая держит. Кадр, в котором камера рассказывает не хуже сценария.

Движение, в котором есть ритм сцены. Свет, в котором есть настроение. Все это делает не Sora. Это делаешь ты — если знаешь, что именно просить.

Что я понял

Sora 2 — это невероятно мощный инструмент, который сожрет тебя, если ты не знаешь, что делаешь. Это как вручить ключи от Голливуда тому, кто только вчера скачал Капкат.

Ну да, результат будет. Но он будет пустым. Проблема не в нейросетях. Проблема в том, что многие не различают разницу между контентом и киноязыком. Между «визуалом» и выражением смысла в кадре.

Мой прогноз

Sora 2 не убьет кино. Она убьет бездарность. Потому что теперь у всех есть одинаково сильный инструмент. И он очень быстро начинает показывать, у кого в голове пусто, а у кого кино. Все, что было на «отмазку» — «ну у меня нет камеры, нет бюджета, некому снимать, нет нужных нейросетей» — теперь больше не работает.

А если все это исчезло — и все равно пусто — проблема была не в камере.

Sora — это не кнопка. Это битва за суть. И пока одни рендерят слоп, другие генерят смысл.

И да, в качестве иллюстрации к посту специально выложил максимально слоповое видео. Увидел на одном из каналов — забавно. Сделал свою версию.
1🔥54
This media is not supported in your browser
VIEW IN TELEGRAM
Пишу как режиссер и ИИ-видеокреатор, который провел в Sora 2 не один десяток часов, тестируя, делая, ошибаясь — и кое-что понял.

Sora 2 — это ловушка. Микрокапкан дофаминовой зависимости. Все очень просто: вбил один промт — и получил нечто. Потом еще один — и снова «ух ты, что вышло!». Ты как будто открываешь «Киндер Сюрприз» или крутишь слоты в казино.

Генерация роликов превращается не в создание, а в гадание на алгоритме. Причем гадание веселое, местами зрелищное. Иногда даже пугающе реалистичное.

Но вот в чем подвох: Sora 2 не толкает тебя делать круче. Она толкает тебя делать еще, быстрее, еще тупее. Потому что на тупой слоп-перформанс уходит 2 минуты. А на вдумчивый ролик — неделя (и более), сотни референсов, камера, ракурс, ритм, музыка, диалоги.

И угадайте, что выбирает мозг? Именно. Жмяк по кнопке "сгенерить": и ты уже внутри алгоритма — крутишь этого «однорукого бандита», выбивая «страйки» один за другим. Это нейродоширак. Быстро, нажористо. Первый дофаминовый приход — густрой, насыщенный. А через 30 минут — отупляющая пустота.

Альтман стал кем-то вроде диллера, раздающего всем и каждому цифровую наркоманию (причем первая доза бесплатно — ведь бесплатная Sora вполне себе генерит): нейросеть выдает визуальный шлак, а ты жмешь “сгенерить”, как будто это кнопка «вылечить одиночество». Сора выдает дешманское кино из супермаркета. Контент, который ты сам себе продюсируешь, сам же и употребляешь. Цикл самозасасывания.

Это и есть самая опасная особенность Sora 2 — она создает иллюзию креативности, притом что фактически ты просто нажимаешь на кнопку и получаешь рандом. Контент по запросу. Только запрос — не от клиента или идеи. А от твоего скучающего мозга, который хочет шоу и жвачки. Это не инструмент, это vending-machine-контент.

Я не против развлечения. Я против того, что такая модель подачи убивает профессию, убивает киноязык, драматургию, монтаж, вкус. И делает это не в лоб, а исподтишка: под соусом «доступного творчества». Это не творчество. Это фаст-фуд.

Так что если вы работаете с Sora 2 — держите себя в тонусе. Напоминайте себе, что вы не просто тестируете движок, а учитесь работать с киноязыком будущего. Не забудьте, что у этого языка все равно будет грамматика. И лучше ее освоить сейчас, чем сдуться от 10-секундного трэша через пару лет.

Вот в этом и кроется главная опасность: тебя незаметно отучают думать, писать, строить, развивать идею. Ты больше не создаешь. Ты генеришь. Ты не автор — ты оператор однорукого бандита с надписью «Промт».

p.s. Примечательно вот что: алгоритмы как будто бы провоцируют нас создавать слоп-контент. В качестве теста я уже не первый день кормлю ютюб-канал абсолютнейшим трешом, который постыдился бы выкладывать на этот канал. Делаю это намеренно, чтобы посмотреть на отклик алгоритмов. И знаете что — эта трешня собирает на порядок больше просмотров, чем серьезные вдумчивые ролики, которые я туда заливал (все серьезные и нормальные ролики вы видели на этом канале).

p.s. Добавлю, что у меня возникло определение того, что сейчас сора преимущественно генерит не "нейро-генеративный" контент, а "нейро-дегенеративный" контент. Пример традиционно прилагаю — вот что выдал мой "однорукий бандит".
1👍50💯21🔥11🤣2👎1🥰1
This media is not supported in your browser
VIEW IN TELEGRAM
Сгенерил еще пример "нейро-дегенеративного" контента — "AIрофлот" к посту выше 👆

Ну да, я могу генерить такие ролики десятками в день. И через какое-то время стану героем мультика "ВАЛЛ-И" (тем самый жирненьким пассажиром космического корабля "Счастье", который выдает поп-корн и газировку (и для мозга в том числе) по нажатию кнопки".
1🔥36👍7💯5
This media is not supported in your browser
VIEW IN TELEGRAM
Как вы поняли из постов выше — сегодня день слоп-контента. Ну ладно, я ручками тут поделал, не просто тыцкал "сделай мне красиво".
🤣34👍16🔥6🙈3
Итак, 15 октября 2025, Google DeepMind таки-представила Veo 3.1 — обновленную версию с апгрейдом Flow, основанным на данных от 275 миллионов видео с мая. Как говорят сами создатели: это не революция, а точечная доработка — но ощутимая.

Что нового:

Теперь аудио во всех версиях Flow — синхронизация звука и видео стала нормой: речь, атмосфера, эффекты — без задержек и тишины.

Загрузка до 3 референсов — система лучше управляет стилем, объектами и персонажами, добавляя звук сразу.

Start/End Frames — плавные переходы с аудио между кадрами. Подходит для клипов, сцен и монтажей.

Extend — можно расширять видео до 60+ секунд, сохраняя сцены и звук.

Insert / Remove — добавление и удаление объектов с корректным освещением и фоном (удаление — скоро).

Veo 3.1 как движок:

Улучшена точность генерации по промтам, больше реализма, выше качество image-to-video. Режимы — Quality и Fast. Базовая длина — ~8 сек, можно расширять.

Доступ: Flow (Pro/Ultra), Gemini API, Vertex AI и обычное приложение Gemini. Система кредитов — как и раньше. Для Ultra подписчиков Flow генерация на fast по-прежнему стоит 0 кредитов.

Дети: меня больше всего интересовал вопрос — можно ли в новом апдейте загружать изображения детей: нет, по-прежнему нельзя.

Первые отклики буржуйского комьюнити — «наконец стабильный рабочий инструмент».

Мой вердикт по итогам первых тестов: визуальной разницы по сравнению с Veo 3 нет. Речь скорее в стабильности работы модели. Поэтому скажу так: тихий, и нужный косметический апдейт для тех, кто делает ИИ-видео системно.

p.s. Да, кстати: версию 3.0 убрали и теперь вы можете генерить только в 3.1. Поддержка версии 2.0 еще есть (в ней можно генерить), но скоро эту версию отключат, поэтому если у вас есть проекты в Veo2 — сохраняйте.
🔥18👍9
Последние пару дней я писал о том, как нейросети отключают наш мозг (рассказывал о нейро-дегенеративном исскустве). А сегодня напишу о проекте, который включил мой мозг на 200% и держал его в таком состоянии последние 2 года.

Короче говоря, книга "Дофаномика. Инструкция по управлению вниманием, эмоциями и желаниями" ушла в типографию и сегодня же открыт предзаказ.

О книге: Вы уверены, что каждый выбор вы делаете сами: кофе по утрам, новый смартфон, брендовые кроссовки. Но 95% решений уже приняты за вас. И пока мы думаем, что решаем осознанно, маркетологи уже давно научилась управлять нашими эмоциями. Дофамин гонит за новыми впечатлениями, кортизол пугает упущенной выгодой, окситоцин дарит доверие к брендам.

Эта книга вскрывает механизмы нейромаркетинга и показывает, что бренды не убеждают — они внедряют идеи прямо в наше подсознание. Здесь вы найдете кейсы зарубежных и российских брендов, инструменты, которые используют маркетологи и продавцы, а также приемы, с помощью которых сможете распознавать манипуляции.


Эту книгу я писал долго, мучительно и одновременно получая много кайфа. Я хотел написать такую книгу, которой лично мне очень не хватало. Что такое реклама? Как она работает? Почему она работает? Как делать так, чтобы она работала? А почему реклама работает у крутых брендов? Какова анатомия лучшей в мире рекламы? Как управлять вниманием? И так далее...

На этом канале я много пишу об ии-рекламе (и показываю ии-рекламу), так что эта книга — просто часть проекта. Если вы хотите разобраться как залезть в мозг аудитории и остаться там надолго — я правда рекомендую. Мне этой книги в свое время очень не хватало.

Книга выйдет в издательстве "Манн, Иванов и Фербер" и вот ссылка на предзаказ книги (супер-цена!).

По этой ссылке — книга на "Читай Городе". А вот по этой ссылке — интернет-магазин Book 24.
10🔥37👍22🥰2
This media is not supported in your browser
VIEW IN TELEGRAM
Закончил и сдал большой проект — серию рекламных роликов для компании Arlight, производителя светоидного оборудования.

Несмотря на кажущуюся простоту приложенного ролика, это был максимально сложный проект. Каждый кадр в буквальном смысле собирался по фрагментам, как конструктор "Лего". Да — постоянные герои, куда без них. А еще — реальные световые приборы и аксессуары заказчика, которые ведут себя в реальной жизни совершенно определенным образом.

Например такое правило: при нажатии на клавишу выключателя, она меняет свое положение, при этом выключается световой индикатор и одновременно в комнате включается светильник (естественно, из линейки Arlight).

Такие 15 секунд становятся настоящим испытанием на прочность. Я уже не раз писал, что нет какой-то одной нейросети, которая решает все задачи. В этом проекте — сложнейший пайплайн, который позволил реализовать задуманное и никакой вам Sora 2.

Следующим постом выложу 6-секундный ролик. Казалось бы — это же так просто, собрать 6 секунд. Как бы не так. В реальности дела обстоят так: жесточайший тайминг, в который надо уложить заданные в тз параметры, показать световые приборы (реальные естественно), да еще и рассказать историю.

Команда проекта:

Я — ии-сенсей, весь визуал, монтаж, сборка, музыка, нейрошаманизм и прочее.
Стас Брыков — арт-директор
Михаил Перловский — режиссер и креативный директор
Константин Цыбульский — звук
🔥44👍19👎2
This media is not supported in your browser
VIEW IN TELEGRAM
И "6-ка". Команда та же — челленджи те же.
🔥40👍14👎2
Об этом мало кто пишет, но вы даже не догадываетесь, как круто можно делать еду в нейронках.

Вот рабочий кейс — ресторан русской кухни в Монголии — первое блюдо на белом фоне — оригинал заказчика. С помощью нейронок превращаем это все в стильные фото с монгольским колоритом. И так все меню. А потом все это становится фантастически красивым видеороликом.
🔥43👍22
This media is not supported in your browser
VIEW IN TELEGRAM
Помните я делал 10-минутный фильм Baking Bread? (если не видели — посмотрите). Так вот я подумал: а не сделать ли мне русскую версию?

Действия разворачиваются прямо вот в Москве и окрестностях. 🤣 Собрал трейлер.

И да — пока это просто мысли (и картинки) вслух :-)
👍33🔥31🤣10👎3
Итак, REVE официально запускает видеогенерацию — функция уже доступна в США и Канаде для тех, кто заходит через Apple или Google-аккаунт. Я зашел протестировал и увидел, что под капотом — протянутая по API Veo 3.1.

По умолчанию видео отгружают в качестве HD (1280 х 720 / 24 кадра в секунду). Но можно выбрать 1080.

Бесплатным пользователям при активации функции выдают: 40 секунд генерации без звука или 20 секунд с аудио.

Подписка Pro открывает доступ к 250 секундам видео в месяц + ежедневно начисляются бонусные секунды — сколько, не скажу, я не планирую покупать подписку в Reve (это был дико крутой сервис, когда они только стартовали, делал крутейшие фотки, но потом все перезапустилось и стало очередным "комбайном", который лично мне не нужен).

Таким образом Reve из уникального некогда инструмента превращается в очередное представительство Veo — с возможностью генерить статичные картинки на своих мощностях. Но на самом деле все это для игр, не для работы. Потому что там, например, нет функции txt to video — а без нее ничего серьезного не сделаешь.

В общем, очередной сервис запихнул себе Veo под капот. Ранее под натиском гиганта сдались Hailuo MinuMax и Runway — туда на этой неделе тоже по API протянули Veo 3.1.

Так и будет дальше — Google запустит свои щупальца в каждый сервис. Такими темпами глядишь и Pika снова попытается восстать из пепла 😂

Два примера прилагаю — лицо Льва Яшина, которого я отправил танцевать изменилось (классическая Veo-генерация).

UPD: Следует пояснить — нужен аккаунт эпл или гугл, зарегистрированные в США. Речь не о том, чтобы зайти под США и подпихнуть Reve свой русский аккаунт.
👍9🔥5
Раз уж зашла речь о Льве Яшине — опубликую часть фото, которые сгенерил для одного рабочего проекта. Харизматичный герой. Легенда советского футбола.
👍28🔥13🥰5