Вы спрашивали про лимиты. Они есть. Завтра сделаю апгрейд до Pro тарифа и продолжу изучать этот инструмент.
upd: это лимиты на тарифе Plus.
upd: в комментах еще коды от добрых людей.
И кидайте инвайт коды в комменты, если у вас есть. Поможем сообществу. Если забрали код и он сработал, кидайте свой код после регистрации сюда же в коммент.
upd: это лимиты на тарифе Plus.
upd: в комментах еще коды от добрых людей.
И кидайте инвайт коды в комменты, если у вас есть. Поможем сообществу. Если забрали код и он сработал, кидайте свой код после регистрации сюда же в коммент.
👍16
Кстати, а кто так уже сделал? Регаетесь в Sora 2, и все 4 инвайта отдаете самому себе, регая 4 новых соры. И так до бесконечности, получая суточный безлимит генераций 🙂
🔥33👍7🤣7🥰4
Краткий recap минувшей недели: чнового в ИИ-видео и генеративном безумии
Sora 2 появилась буквально из ниоткуда — и захватила все. Такой скорости адаптации мы не видели даже у Midjourney в лучшие времена. В отличие от Sora 1, эта версия заточена под user-generated content: можно генерить микросцены за минуту, причем с удивительно стабильными персонажами и почти без обучения. Количество слоп-контента в сети уже зашкаливает. Мемы, тиктоки и визуальные абсурды — интернет захлебывается.
А что с серьезными коммерческими проектами? Я уже внедрил Sora 2 в рабочий пайплайн. Но. Тут важно использовать Sora 2 очень дозированно. В моем последнем рекламном ролике (скоро покажу), куда я добавил Sora 2, процент ее использования не превышает 5-8%.
Seedance Pro — теперь с первым и последним кадром: seedance Pro обновился и теперь поддерживает first/last frame. До этого лидером first/end frame был Kling, но кажется, Seedance вырывается вперед. Сюжеты теперь можно «двигать» красиво — не обрываясь на чем попало. Уже тестирую.
4D-аватары из одной фотки: исследователи выкатили CAP4D — инструмент, который по 1–3 фото делает анимируемого 4D-аватара. Страница проекта по этой ссылке. ИИ дорисовывает выражения, повороты головы, ракурсы, и вы получаете реалистичную 3D-модель в управляемом виде. Реальное время. Почти игровой движок. Ждем, когда сольют доступ.
Meta* запустила Vibes
Meta не отстает: внутри Meta AI появился Vibes — отдельный фид с короткими ИИ-видео. Также как и в случае с приложением Sora выглядит как нейро‑TikTok. Следим, что из этого вырастет — может стать платформой для микроисторий.
* признана экстремистской организацией и запрещена в РФ)
Sora 2 появилась буквально из ниоткуда — и захватила все. Такой скорости адаптации мы не видели даже у Midjourney в лучшие времена. В отличие от Sora 1, эта версия заточена под user-generated content: можно генерить микросцены за минуту, причем с удивительно стабильными персонажами и почти без обучения. Количество слоп-контента в сети уже зашкаливает. Мемы, тиктоки и визуальные абсурды — интернет захлебывается.
А что с серьезными коммерческими проектами? Я уже внедрил Sora 2 в рабочий пайплайн. Но. Тут важно использовать Sora 2 очень дозированно. В моем последнем рекламном ролике (скоро покажу), куда я добавил Sora 2, процент ее использования не превышает 5-8%.
Seedance Pro — теперь с первым и последним кадром: seedance Pro обновился и теперь поддерживает first/last frame. До этого лидером first/end frame был Kling, но кажется, Seedance вырывается вперед. Сюжеты теперь можно «двигать» красиво — не обрываясь на чем попало. Уже тестирую.
4D-аватары из одной фотки: исследователи выкатили CAP4D — инструмент, который по 1–3 фото делает анимируемого 4D-аватара. Страница проекта по этой ссылке. ИИ дорисовывает выражения, повороты головы, ракурсы, и вы получаете реалистичную 3D-модель в управляемом виде. Реальное время. Почти игровой движок. Ждем, когда сольют доступ.
Meta* запустила Vibes
Meta не отстает: внутри Meta AI появился Vibes — отдельный фид с короткими ИИ-видео. Также как и в случае с приложением Sora выглядит как нейро‑TikTok. Следим, что из этого вырастет — может стать платформой для микроисторий.
* признана экстремистской организацией и запрещена в РФ)
4👍22
This media is not supported in your browser
VIEW IN TELEGRAM
А вот интересное: Сталлоне хотел сделать приквел “Рэмбо” с ИИ-омоложением
По данным Variety, Сталлоне сгенерил себя в молодости и с таким питчем предлагал сделать приквел Рэмбо, где самому Сталлоне 18 лет. «Все думали, я сошел с ума», — рассказал Сталлоне. «Но ИИ уже достаточно продвинут, чтобы пройти по Сайгону и показать меня в том возрасте — визуально это не такой уж скачок». Сказал и сгенерил.
По задумке было так: сцена: 1970-е. Вьетнам. Де‑эйджнутый Рэмбо бегает по джунглям и крошит вьетконговцев. Идея могла бы стать новым эталоном digital-кино — но так и осталась только мечтой самого Сталлоне.
Детали: в интервью Variety Сталлоне рассказал, что он лично продвигал концепцию приквела «Рэмбо», но идея не была реализована, потому что «прокрастинировали слишком долго», и в итоге кто-то подсуетился и проект перешел в руки другой студии.
Приквел Джон действителньо снимается, но c другим актером — Ноем Сентинео. Сталлоне, по данным медиаресурсов, не участвует в производстве.
p.s. В задумке Сталлоне действительно нет ничего сложного. Для подготовки этого поста, загрузил дедушку Сталлоне в нейросеть, сказал ии-шке омолодить до 18 лет и отправить в Сайгон. Похож?
p.s. В комментах выложил Рэмбо в исполнении Сентинелло — тоже сгенерил, загрузив фотку Ноя. В принципе они похожи между собой, да.
По данным Variety, Сталлоне сгенерил себя в молодости и с таким питчем предлагал сделать приквел Рэмбо, где самому Сталлоне 18 лет. «Все думали, я сошел с ума», — рассказал Сталлоне. «Но ИИ уже достаточно продвинут, чтобы пройти по Сайгону и показать меня в том возрасте — визуально это не такой уж скачок». Сказал и сгенерил.
По задумке было так: сцена: 1970-е. Вьетнам. Де‑эйджнутый Рэмбо бегает по джунглям и крошит вьетконговцев. Идея могла бы стать новым эталоном digital-кино — но так и осталась только мечтой самого Сталлоне.
Детали: в интервью Variety Сталлоне рассказал, что он лично продвигал концепцию приквела «Рэмбо», но идея не была реализована, потому что «прокрастинировали слишком долго», и в итоге кто-то подсуетился и проект перешел в руки другой студии.
Приквел Джон действителньо снимается, но c другим актером — Ноем Сентинео. Сталлоне, по данным медиаресурсов, не участвует в производстве.
p.s. В задумке Сталлоне действительно нет ничего сложного. Для подготовки этого поста, загрузил дедушку Сталлоне в нейросеть, сказал ии-шке омолодить до 18 лет и отправить в Сайгон. Похож?
p.s. В комментах выложил Рэмбо в исполнении Сентинелло — тоже сгенерил, загрузив фотку Ноя. В принципе они похожи между собой, да.
👍15
This media is not supported in your browser
VIEW IN TELEGRAM
Sora 2 теперь доступна в VeoSeeBot — без инвайтов и VPN ✔️
Sora 2 уже появилась в боте VeoSeeBot в Telegram. Можно использовать без ограничений — регистрация, промпт, и видео готово.
По качеству эта версия местами действительно превосходит Veo 3: особенно в передаче движений, эмоциональной мимике и генерации звука. Стоимость генерации — около 25 рублей за видео.
Для работы с Sora используется бот, где по одной подписке доступны сразу несколько инструментов, включая новые модели. Это удобный способ протестировать возможности без лишних шагов.
Пример промта:
Если интересует генерация коротких видео в актуальном стиле — стоит попробовать уже сейчас.
Sora 2 уже появилась в боте VeoSeeBot в Telegram. Можно использовать без ограничений — регистрация, промпт, и видео готово.
По качеству эта версия местами действительно превосходит Veo 3: особенно в передаче движений, эмоциональной мимике и генерации звука. Стоимость генерации — около 25 рублей за видео.
Для работы с Sora используется бот, где по одной подписке доступны сразу несколько инструментов, включая новые модели. Это удобный способ протестировать возможности без лишних шагов.
Пример промта:
Гламурная девушка блондинка снимает себя на фронтальную камеру, и говорит по русски: "Друзья, в Вео Си Бот уже доступна Сора 2. Готовы тестировать?" Позади нее роскошная вилла , солнце, бассейн.Если интересует генерация коротких видео в актуальном стиле — стоит попробовать уже сейчас.
Please open Telegram to view this post
VIEW IN TELEGRAM
👎21💩5👍2🙈2
Итак, Sora 2. Гонял ее вдоль и поперек и мне теперь есть, что сказать. Если, думая о Sora 2, вы решили, что это «улучшенная версия генератора видео», вы не поняли главного.
Это не просто апгрейд модели. Это апгрейд парадигмы. Вместо инструмента мы получили ии-ленту в одноименном приложении — идеальную имитацию TikTok, только без людей. Все, что там видишь — сгенерировано алгоритмом. В реальном времени. Под тебя.
И, что самое страшное — это реально интересно.
Пропала грань. Пропала дистанция. Раньше мы хотя бы знали, кто снял эту сцену, кто стоял за камерой, кто играл. Теперь не знаем ничего. Только ощущение. Только эмоциональный отклик. Только дофаминовый укол, и это опасный укол, потому что после его приема — хочется еще.
Приложение Sora с его лентой ии-контента — это черная дыра. Только ии-видео. Только калиброванный тобой же отклик. Sora 2 — это не контент, это зеркало твоих дофаминовых скриптов.
Вы хотели мотивацию? Она даст. Вы хотели слезы? Даст. Хотели что-то «погорячее», но прилично, чтобы можно было лайкнуть без стыда? И это тоже будет. Никакой морали, никакой этики, никакого «автора». Только наша жадность до эмоций — и ее бесконечная подача на блюде. Sora — это кино, в котором сценарист — мы, но ты об этом не знаем (точнее, мы этого еще не осознаем).
Самое страшное — это не то, что она умеет. А то, насколько легко она умеет. Нет больше камеры, света, гримеров, актеров, саунд-дизайна. Один промт. Один запрос. Один swipe. Это новый тип продакшна — невидимый. И невозможный для сопротивления, потому что он как вода: течет по наименьшему сопротивлению к твоей психике.
И вот ты смотришь на девушку, которая в закате едет на скейте. Она улыбается, плачет, поет, говорит с мамой по телефону. У нее в руке напиток. У нее есть прошлое, характер, имя. Но все это — выдуманная магия, сшитая на лету, потому что ты — это ты. И Sora знает это.
Это уже не вопрос: «станут ли нейросети делать кино лучше людей?» Вопрос теперь в другом: зачем нам люди, если уже сейчас можно делать лучше?
Не верите? Скачайте приложение. Посмотрите десять видео. Сравните с реальностью. Попробуйте понять, зачем вам реальность вообще. А потом вспомните, что еще вчера мы думали, что это «будущее через 10 лет». И вот оно уже у нас в телефоне. И не просит разрешения.
Sora 2 не пришла, чтобы заменить реальность. Она пришла, чтобы ее выдавить. Тихо. Улыбаясь. В твоей же ленте.
Проще говоря: Sora генерит не видео. Она генерит замену жизни.
p.s. Мнение автора может не совпадать с мнением подписчиков канала. Но канал автор затем и завел, чтобы выссказывать здесь все, что вздумается.
Это не просто апгрейд модели. Это апгрейд парадигмы. Вместо инструмента мы получили ии-ленту в одноименном приложении — идеальную имитацию TikTok, только без людей. Все, что там видишь — сгенерировано алгоритмом. В реальном времени. Под тебя.
И, что самое страшное — это реально интересно.
Пропала грань. Пропала дистанция. Раньше мы хотя бы знали, кто снял эту сцену, кто стоял за камерой, кто играл. Теперь не знаем ничего. Только ощущение. Только эмоциональный отклик. Только дофаминовый укол, и это опасный укол, потому что после его приема — хочется еще.
Приложение Sora с его лентой ии-контента — это черная дыра. Только ии-видео. Только калиброванный тобой же отклик. Sora 2 — это не контент, это зеркало твоих дофаминовых скриптов.
Вы хотели мотивацию? Она даст. Вы хотели слезы? Даст. Хотели что-то «погорячее», но прилично, чтобы можно было лайкнуть без стыда? И это тоже будет. Никакой морали, никакой этики, никакого «автора». Только наша жадность до эмоций — и ее бесконечная подача на блюде. Sora — это кино, в котором сценарист — мы, но ты об этом не знаем (точнее, мы этого еще не осознаем).
Самое страшное — это не то, что она умеет. А то, насколько легко она умеет. Нет больше камеры, света, гримеров, актеров, саунд-дизайна. Один промт. Один запрос. Один swipe. Это новый тип продакшна — невидимый. И невозможный для сопротивления, потому что он как вода: течет по наименьшему сопротивлению к твоей психике.
И вот ты смотришь на девушку, которая в закате едет на скейте. Она улыбается, плачет, поет, говорит с мамой по телефону. У нее в руке напиток. У нее есть прошлое, характер, имя. Но все это — выдуманная магия, сшитая на лету, потому что ты — это ты. И Sora знает это.
Это уже не вопрос: «станут ли нейросети делать кино лучше людей?» Вопрос теперь в другом: зачем нам люди, если уже сейчас можно делать лучше?
Не верите? Скачайте приложение. Посмотрите десять видео. Сравните с реальностью. Попробуйте понять, зачем вам реальность вообще. А потом вспомните, что еще вчера мы думали, что это «будущее через 10 лет». И вот оно уже у нас в телефоне. И не просит разрешения.
Sora 2 не пришла, чтобы заменить реальность. Она пришла, чтобы ее выдавить. Тихо. Улыбаясь. В твоей же ленте.
Проще говоря: Sora генерит не видео. Она генерит замену жизни.
p.s. Мнение автора может не совпадать с мнением подписчиков канала. Но канал автор затем и завел, чтобы выссказывать здесь все, что вздумается.
1🔥42👍14🙈8💯3
This media is not supported in your browser
VIEW IN TELEGRAM
Уже в городе.
Тут мне важно было придумать короткую историю, выжать максимум качества и сделать так, чтобы было все по-настоящему.
Нет, Яндекс не просил. Это SPEC (выдуманная реклама).
Тут мне важно было придумать короткую историю, выжать максимум качества и сделать так, чтобы было все по-настоящему.
Нет, Яндекс не просил. Это SPEC (выдуманная реклама).
🔥18🤣8👍2
Media is too big
VIEW IN TELEGRAM
Sora 2: мой традиционный гоночный тест, в котором я кладу в дрифт заряженные спорткары на известных мировых трассах.
Сегодня гоняем на Нюрбургринге (Германия).
Вердикт: при кажущейся простоте, Sora 2 в действительности — инструмент, требующий очень тонкой настройки. Если нужно качество, то собирать видео только покадрово и вручную.
Тут ничего нового: любое видео — это в первую очередь включенные мозги, работа руками, понимание принципов работы конкретного ии-сервиса, знание принципов монтажа, опыт и терпение. Пост продакшн — больше 50% успеха.
Ну а если хочется лепить слоп, то да, сора вполне работает по принципу: «нажал кнопку и оно само все сделает».
Ралли-тест Veo2 в Арктике — в этом сообщении
Ралли-тест Gen3 (Норвегия) — по этой ссылке (да, это было год назад, сравните).
Сегодня гоняем на Нюрбургринге (Германия).
Вердикт: при кажущейся простоте, Sora 2 в действительности — инструмент, требующий очень тонкой настройки. Если нужно качество, то собирать видео только покадрово и вручную.
Тут ничего нового: любое видео — это в первую очередь включенные мозги, работа руками, понимание принципов работы конкретного ии-сервиса, знание принципов монтажа, опыт и терпение. Пост продакшн — больше 50% успеха.
Ну а если хочется лепить слоп, то да, сора вполне работает по принципу: «нажал кнопку и оно само все сделает».
Ралли-тест Veo2 в Арктике — в этом сообщении
Ралли-тест Gen3 (Норвегия) — по этой ссылке (да, это было год назад, сравните).
5🔥37👍12
Veo 3.1 уже на подходе — обновление, которое стоит ждать
По инсайдерской информации, Google готовит к запуску новую версию Veo — 3.1, и судя по анонсу от WaveSpeed AI, она закроет сразу несколько болевых точек:
— Стабильность персонажа: больше никаких «прыгающих лиц» от кадра к кадру.
— Multi-shot генерации: теперь можно строить полноценные сцены с несколькими кадрами из одного запроса.
— Full HD + пресеты: генерация в нативном 1080p с готовыми киношными стилями.
— Длина видео — до 1 минуты.
Если все подтвердится, это будет важный шаг от «визуального драфта» к настоящему AI-сторителлингу. Ожидаем релиз в ближайшее время. Следим. Готовим промпты.
По инсайдерской информации, Google готовит к запуску новую версию Veo — 3.1, и судя по анонсу от WaveSpeed AI, она закроет сразу несколько болевых точек:
— Стабильность персонажа: больше никаких «прыгающих лиц» от кадра к кадру.
— Multi-shot генерации: теперь можно строить полноценные сцены с несколькими кадрами из одного запроса.
— Full HD + пресеты: генерация в нативном 1080p с готовыми киношными стилями.
— Длина видео — до 1 минуты.
Если все подтвердится, это будет важный шаг от «визуального драфта» к настоящему AI-сторителлингу. Ожидаем релиз в ближайшее время. Следим. Готовим промпты.
1🔥39👍8
Версии Veo 3.1 пока нет (может это и утка, ждем), но есть вот такие обновления Veo Flow от 09.10.25
Промпты на любом языке
Теперь можно писать запросы на любом языке, не только на английском. Внутри работает автоматический перевод через Gemini. Возможны мелкие ошибки в распознавании речи или текста в кадре, но это открывает больше возможностей для неанглоязычных пользователей.
Улучшение фильтров
Были доработаны механизмы модерации: особенно в части распознавания известных персон. Теперь меньше случаев, когда генерация необоснованно блокируется.
Троттлинг (ограничения скорости)
Недавно Flow ввел новую систему защиты от злоупотреблений, которая работала слишком строго — генерации стали блокироваться даже у обычных пользователей. Сейчас эти настройки скорректированы: ограничения остались, но работают мягче и точнее. Сообщения "вы делаете слишком много генераций" не будет выскакивать каждое второе сообщение.
Промпты на любом языке
Теперь можно писать запросы на любом языке, не только на английском. Внутри работает автоматический перевод через Gemini. Возможны мелкие ошибки в распознавании речи или текста в кадре, но это открывает больше возможностей для неанглоязычных пользователей.
Улучшение фильтров
Были доработаны механизмы модерации: особенно в части распознавания известных персон. Теперь меньше случаев, когда генерация необоснованно блокируется.
Троттлинг (ограничения скорости)
Недавно Flow ввел новую систему защиты от злоупотреблений, которая работала слишком строго — генерации стали блокироваться даже у обычных пользователей. Сейчас эти настройки скорректированы: ограничения остались, но работают мягче и точнее. Сообщения "вы делаете слишком много генераций" не будет выскакивать каждое второе сообщение.
👍18
Вот не верю я в Veo 3.1. Думаю-таки, что это фейк. Посмотрел якобы демо на одном из каналов, и у меня сложилост четкое ощущение, что видео сделано в Veo 3 fast. А вы что думаете?
Anonymous Poll
47%
Будет Veo 3.1
30%
Это фейк
24%
Сора топ, Гугол в топку
This media is not supported in your browser
VIEW IN TELEGRAM
Sora 2: итоги. мой опыт. мое мнение.
Sora 2 — это уже не будущее. Это реальность. Настоящая нейро-киностудия в твоем браузере.
Киношная камера, движущаяся сквозь мир, которого не существует. Свет, дым, актеры — все фейк. Но такой убедительный фейк, что тебе самому страшно, как быстро ты в это поверил.
Все последние дни работал с Sora 2 в боевом режиме. Как режиссер, продюсер, сценарист, монтажер, психотерапевт и саппорт самому себе.
И вот что важно: Sora — это не «сгенерить видео за 5 минут», как вам кажется и как пишут многие. Это мозговыносящая комбинация композиции, камеры, тонкого описания световых рисунков, цветовой температуры, оптики, сценарной логики и бога рандома. Это когда ты делаешь пятьдесят итераций, чтобы получить ценные секунды нужного кадра. А потом все равно переделываешь. Но в итоге что-то все же оставляешь.
Sora — это не «красивая картинка». Это язык кино. И только у тех, кто знает этот язык, выходит не очередная нарезка с вариациями на тему слоп-контента, а история, которая держит. Кадр, в котором камера рассказывает не хуже сценария.
Движение, в котором есть ритм сцены. Свет, в котором есть настроение. Все это делает не Sora. Это делаешь ты — если знаешь, что именно просить.
Что я понял
Sora 2 — это невероятно мощный инструмент, который сожрет тебя, если ты не знаешь, что делаешь. Это как вручить ключи от Голливуда тому, кто только вчера скачал Капкат.
Ну да, результат будет. Но он будет пустым. Проблема не в нейросетях. Проблема в том, что многие не различают разницу между контентом и киноязыком. Между «визуалом» и выражением смысла в кадре.
Мой прогноз
Sora 2 не убьет кино. Она убьет бездарность. Потому что теперь у всех есть одинаково сильный инструмент. И он очень быстро начинает показывать, у кого в голове пусто, а у кого кино. Все, что было на «отмазку» — «ну у меня нет камеры, нет бюджета, некому снимать, нет нужных нейросетей» — теперь больше не работает.
А если все это исчезло — и все равно пусто — проблема была не в камере.
Sora — это не кнопка. Это битва за суть. И пока одни рендерят слоп, другие генерят смысл.
И да, в качестве иллюстрации к посту специально выложил максимально слоповое видео. Увидел на одном из каналов — забавно. Сделал свою версию.
Sora 2 — это уже не будущее. Это реальность. Настоящая нейро-киностудия в твоем браузере.
Киношная камера, движущаяся сквозь мир, которого не существует. Свет, дым, актеры — все фейк. Но такой убедительный фейк, что тебе самому страшно, как быстро ты в это поверил.
Все последние дни работал с Sora 2 в боевом режиме. Как режиссер, продюсер, сценарист, монтажер, психотерапевт и саппорт самому себе.
И вот что важно: Sora — это не «сгенерить видео за 5 минут», как вам кажется и как пишут многие. Это мозговыносящая комбинация композиции, камеры, тонкого описания световых рисунков, цветовой температуры, оптики, сценарной логики и бога рандома. Это когда ты делаешь пятьдесят итераций, чтобы получить ценные секунды нужного кадра. А потом все равно переделываешь. Но в итоге что-то все же оставляешь.
Sora — это не «красивая картинка». Это язык кино. И только у тех, кто знает этот язык, выходит не очередная нарезка с вариациями на тему слоп-контента, а история, которая держит. Кадр, в котором камера рассказывает не хуже сценария.
Движение, в котором есть ритм сцены. Свет, в котором есть настроение. Все это делает не Sora. Это делаешь ты — если знаешь, что именно просить.
Что я понял
Sora 2 — это невероятно мощный инструмент, который сожрет тебя, если ты не знаешь, что делаешь. Это как вручить ключи от Голливуда тому, кто только вчера скачал Капкат.
Ну да, результат будет. Но он будет пустым. Проблема не в нейросетях. Проблема в том, что многие не различают разницу между контентом и киноязыком. Между «визуалом» и выражением смысла в кадре.
Мой прогноз
Sora 2 не убьет кино. Она убьет бездарность. Потому что теперь у всех есть одинаково сильный инструмент. И он очень быстро начинает показывать, у кого в голове пусто, а у кого кино. Все, что было на «отмазку» — «ну у меня нет камеры, нет бюджета, некому снимать, нет нужных нейросетей» — теперь больше не работает.
А если все это исчезло — и все равно пусто — проблема была не в камере.
Sora — это не кнопка. Это битва за суть. И пока одни рендерят слоп, другие генерят смысл.
И да, в качестве иллюстрации к посту специально выложил максимально слоповое видео. Увидел на одном из каналов — забавно. Сделал свою версию.
1🔥54
This media is not supported in your browser
VIEW IN TELEGRAM
Пишу как режиссер и ИИ-видеокреатор, который провел в Sora 2 не один десяток часов, тестируя, делая, ошибаясь — и кое-что понял.
Sora 2 — это ловушка. Микрокапкан дофаминовой зависимости. Все очень просто: вбил один промт — и получил нечто. Потом еще один — и снова «ух ты, что вышло!». Ты как будто открываешь «Киндер Сюрприз» или крутишь слоты в казино.
Генерация роликов превращается не в создание, а в гадание на алгоритме. Причем гадание веселое, местами зрелищное. Иногда даже пугающе реалистичное.
Но вот в чем подвох: Sora 2 не толкает тебя делать круче. Она толкает тебя делать еще, быстрее, еще тупее. Потому что на тупой слоп-перформанс уходит 2 минуты. А на вдумчивый ролик — неделя (и более), сотни референсов, камера, ракурс, ритм, музыка, диалоги.
И угадайте, что выбирает мозг? Именно. Жмяк по кнопке "сгенерить": и ты уже внутри алгоритма — крутишь этого «однорукого бандита», выбивая «страйки» один за другим. Это нейродоширак. Быстро, нажористо. Первый дофаминовый приход — густрой, насыщенный. А через 30 минут — отупляющая пустота.
Альтман стал кем-то вроде диллера, раздающего всем и каждому цифровую наркоманию (причем первая доза бесплатно — ведь бесплатная Sora вполне себе генерит): нейросеть выдает визуальный шлак, а ты жмешь “сгенерить”, как будто это кнопка «вылечить одиночество». Сора выдает дешманское кино из супермаркета. Контент, который ты сам себе продюсируешь, сам же и употребляешь. Цикл самозасасывания.
Это и есть самая опасная особенность Sora 2 — она создает иллюзию креативности, притом что фактически ты просто нажимаешь на кнопку и получаешь рандом. Контент по запросу. Только запрос — не от клиента или идеи. А от твоего скучающего мозга, который хочет шоу и жвачки. Это не инструмент, это vending-machine-контент.
Я не против развлечения. Я против того, что такая модель подачи убивает профессию, убивает киноязык, драматургию, монтаж, вкус. И делает это не в лоб, а исподтишка: под соусом «доступного творчества». Это не творчество. Это фаст-фуд.
Так что если вы работаете с Sora 2 — держите себя в тонусе. Напоминайте себе, что вы не просто тестируете движок, а учитесь работать с киноязыком будущего. Не забудьте, что у этого языка все равно будет грамматика. И лучше ее освоить сейчас, чем сдуться от 10-секундного трэша через пару лет.
Вот в этом и кроется главная опасность: тебя незаметно отучают думать, писать, строить, развивать идею. Ты больше не создаешь. Ты генеришь. Ты не автор — ты оператор однорукого бандита с надписью «Промт».
p.s. Примечательно вот что: алгоритмы как будто бы провоцируют нас создавать слоп-контент. В качестве теста я уже не первый день кормлю ютюб-канал абсолютнейшим трешом, который постыдился бы выкладывать на этот канал. Делаю это намеренно, чтобы посмотреть на отклик алгоритмов. И знаете что — эта трешня собирает на порядок больше просмотров, чем серьезные вдумчивые ролики, которые я туда заливал (все серьезные и нормальные ролики вы видели на этом канале).
p.s. Добавлю, что у меня возникло определение того, что сейчас сора преимущественно генерит не "нейро-генеративный" контент, а "нейро-дегенеративный" контент. Пример традиционно прилагаю — вот что выдал мой "однорукий бандит".
Sora 2 — это ловушка. Микрокапкан дофаминовой зависимости. Все очень просто: вбил один промт — и получил нечто. Потом еще один — и снова «ух ты, что вышло!». Ты как будто открываешь «Киндер Сюрприз» или крутишь слоты в казино.
Генерация роликов превращается не в создание, а в гадание на алгоритме. Причем гадание веселое, местами зрелищное. Иногда даже пугающе реалистичное.
Но вот в чем подвох: Sora 2 не толкает тебя делать круче. Она толкает тебя делать еще, быстрее, еще тупее. Потому что на тупой слоп-перформанс уходит 2 минуты. А на вдумчивый ролик — неделя (и более), сотни референсов, камера, ракурс, ритм, музыка, диалоги.
И угадайте, что выбирает мозг? Именно. Жмяк по кнопке "сгенерить": и ты уже внутри алгоритма — крутишь этого «однорукого бандита», выбивая «страйки» один за другим. Это нейродоширак. Быстро, нажористо. Первый дофаминовый приход — густрой, насыщенный. А через 30 минут — отупляющая пустота.
Альтман стал кем-то вроде диллера, раздающего всем и каждому цифровую наркоманию (причем первая доза бесплатно — ведь бесплатная Sora вполне себе генерит): нейросеть выдает визуальный шлак, а ты жмешь “сгенерить”, как будто это кнопка «вылечить одиночество». Сора выдает дешманское кино из супермаркета. Контент, который ты сам себе продюсируешь, сам же и употребляешь. Цикл самозасасывания.
Это и есть самая опасная особенность Sora 2 — она создает иллюзию креативности, притом что фактически ты просто нажимаешь на кнопку и получаешь рандом. Контент по запросу. Только запрос — не от клиента или идеи. А от твоего скучающего мозга, который хочет шоу и жвачки. Это не инструмент, это vending-machine-контент.
Я не против развлечения. Я против того, что такая модель подачи убивает профессию, убивает киноязык, драматургию, монтаж, вкус. И делает это не в лоб, а исподтишка: под соусом «доступного творчества». Это не творчество. Это фаст-фуд.
Так что если вы работаете с Sora 2 — держите себя в тонусе. Напоминайте себе, что вы не просто тестируете движок, а учитесь работать с киноязыком будущего. Не забудьте, что у этого языка все равно будет грамматика. И лучше ее освоить сейчас, чем сдуться от 10-секундного трэша через пару лет.
Вот в этом и кроется главная опасность: тебя незаметно отучают думать, писать, строить, развивать идею. Ты больше не создаешь. Ты генеришь. Ты не автор — ты оператор однорукого бандита с надписью «Промт».
p.s. Примечательно вот что: алгоритмы как будто бы провоцируют нас создавать слоп-контент. В качестве теста я уже не первый день кормлю ютюб-канал абсолютнейшим трешом, который постыдился бы выкладывать на этот канал. Делаю это намеренно, чтобы посмотреть на отклик алгоритмов. И знаете что — эта трешня собирает на порядок больше просмотров, чем серьезные вдумчивые ролики, которые я туда заливал (все серьезные и нормальные ролики вы видели на этом канале).
p.s. Добавлю, что у меня возникло определение того, что сейчас сора преимущественно генерит не "нейро-генеративный" контент, а "нейро-дегенеративный" контент. Пример традиционно прилагаю — вот что выдал мой "однорукий бандит".
1👍50💯21🔥11🤣2👎1🥰1
This media is not supported in your browser
VIEW IN TELEGRAM
Сгенерил еще пример "нейро-дегенеративного" контента — "AIрофлот" к посту выше 👆
Ну да, я могу генерить такие ролики десятками в день. И через какое-то время стану героем мультика "ВАЛЛ-И" (тем самый жирненьким пассажиром космического корабля "Счастье", который выдает поп-корн и газировку (и для мозга в том числе) по нажатию кнопки".
Ну да, я могу генерить такие ролики десятками в день. И через какое-то время стану героем мультика "ВАЛЛ-И" (тем самый жирненьким пассажиром космического корабля "Счастье", который выдает поп-корн и газировку (и для мозга в том числе) по нажатию кнопки".
1🔥36👍7💯5
This media is not supported in your browser
VIEW IN TELEGRAM
Как вы поняли из постов выше — сегодня день слоп-контента. Ну ладно, я ручками тут поделал, не просто тыцкал "сделай мне красиво".
🤣34👍16🔥6🙈3
Итак, 15 октября 2025, Google DeepMind таки-представила Veo 3.1 — обновленную версию с апгрейдом Flow, основанным на данных от 275 миллионов видео с мая. Как говорят сами создатели: это не революция, а точечная доработка — но ощутимая.
Что нового:
Теперь аудио во всех версиях Flow — синхронизация звука и видео стала нормой: речь, атмосфера, эффекты — без задержек и тишины.
Загрузка до 3 референсов — система лучше управляет стилем, объектами и персонажами, добавляя звук сразу.
Start/End Frames — плавные переходы с аудио между кадрами. Подходит для клипов, сцен и монтажей.
Extend — можно расширять видео до 60+ секунд, сохраняя сцены и звук.
Insert / Remove — добавление и удаление объектов с корректным освещением и фоном (удаление — скоро).
Veo 3.1 как движок:
Улучшена точность генерации по промтам, больше реализма, выше качество image-to-video. Режимы — Quality и Fast. Базовая длина — ~8 сек, можно расширять.
Доступ: Flow (Pro/Ultra), Gemini API, Vertex AI и обычное приложение Gemini. Система кредитов — как и раньше. Для Ultra подписчиков Flow генерация на fast по-прежнему стоит 0 кредитов.
Дети: меня больше всего интересовал вопрос — можно ли в новом апдейте загружать изображения детей: нет, по-прежнему нельзя.
Первые отклики буржуйского комьюнити — «наконец стабильный рабочий инструмент».
Мой вердикт по итогам первых тестов: визуальной разницы по сравнению с Veo 3 нет. Речь скорее в стабильности работы модели. Поэтому скажу так: тихий, и нужный косметический апдейт для тех, кто делает ИИ-видео системно.
p.s. Да, кстати: версию 3.0 убрали и теперь вы можете генерить только в 3.1. Поддержка версии 2.0 еще есть (в ней можно генерить), но скоро эту версию отключат, поэтому если у вас есть проекты в Veo2 — сохраняйте.
Что нового:
Теперь аудио во всех версиях Flow — синхронизация звука и видео стала нормой: речь, атмосфера, эффекты — без задержек и тишины.
Загрузка до 3 референсов — система лучше управляет стилем, объектами и персонажами, добавляя звук сразу.
Start/End Frames — плавные переходы с аудио между кадрами. Подходит для клипов, сцен и монтажей.
Extend — можно расширять видео до 60+ секунд, сохраняя сцены и звук.
Insert / Remove — добавление и удаление объектов с корректным освещением и фоном (удаление — скоро).
Veo 3.1 как движок:
Улучшена точность генерации по промтам, больше реализма, выше качество image-to-video. Режимы — Quality и Fast. Базовая длина — ~8 сек, можно расширять.
Доступ: Flow (Pro/Ultra), Gemini API, Vertex AI и обычное приложение Gemini. Система кредитов — как и раньше. Для Ultra подписчиков Flow генерация на fast по-прежнему стоит 0 кредитов.
Дети: меня больше всего интересовал вопрос — можно ли в новом апдейте загружать изображения детей: нет, по-прежнему нельзя.
Первые отклики буржуйского комьюнити — «наконец стабильный рабочий инструмент».
Мой вердикт по итогам первых тестов: визуальной разницы по сравнению с Veo 3 нет. Речь скорее в стабильности работы модели. Поэтому скажу так: тихий, и нужный косметический апдейт для тех, кто делает ИИ-видео системно.
p.s. Да, кстати: версию 3.0 убрали и теперь вы можете генерить только в 3.1. Поддержка версии 2.0 еще есть (в ней можно генерить), но скоро эту версию отключат, поэтому если у вас есть проекты в Veo2 — сохраняйте.
🔥18👍9
Последние пару дней я писал о том, как нейросети отключают наш мозг (рассказывал о нейро-дегенеративном исскустве). А сегодня напишу о проекте, который включил мой мозг на 200% и держал его в таком состоянии последние 2 года.
Короче говоря, книга "Дофаномика. Инструкция по управлению вниманием, эмоциями и желаниями" ушла в типографию и сегодня же открыт предзаказ.
О книге: Вы уверены, что каждый выбор вы делаете сами: кофе по утрам, новый смартфон, брендовые кроссовки. Но 95% решений уже приняты за вас. И пока мы думаем, что решаем осознанно, маркетологи уже давно научилась управлять нашими эмоциями. Дофамин гонит за новыми впечатлениями, кортизол пугает упущенной выгодой, окситоцин дарит доверие к брендам.
Эта книга вскрывает механизмы нейромаркетинга и показывает, что бренды не убеждают — они внедряют идеи прямо в наше подсознание. Здесь вы найдете кейсы зарубежных и российских брендов, инструменты, которые используют маркетологи и продавцы, а также приемы, с помощью которых сможете распознавать манипуляции.
Эту книгу я писал долго, мучительно и одновременно получая много кайфа. Я хотел написать такую книгу, которой лично мне очень не хватало. Что такое реклама? Как она работает? Почему она работает? Как делать так, чтобы она работала? А почему реклама работает у крутых брендов? Какова анатомия лучшей в мире рекламы? Как управлять вниманием? И так далее...
На этом канале я много пишу об ии-рекламе (и показываю ии-рекламу), так что эта книга — просто часть проекта. Если вы хотите разобраться как залезть в мозг аудитории и остаться там надолго — я правда рекомендую. Мне этой книги в свое время очень не хватало.
Книга выйдет в издательстве "Манн, Иванов и Фербер" и вот ссылка на предзаказ книги (супер-цена!).
По этой ссылке — книга на "Читай Городе". А вот по этой ссылке — интернет-магазин Book 24.
Короче говоря, книга "Дофаномика. Инструкция по управлению вниманием, эмоциями и желаниями" ушла в типографию и сегодня же открыт предзаказ.
О книге: Вы уверены, что каждый выбор вы делаете сами: кофе по утрам, новый смартфон, брендовые кроссовки. Но 95% решений уже приняты за вас. И пока мы думаем, что решаем осознанно, маркетологи уже давно научилась управлять нашими эмоциями. Дофамин гонит за новыми впечатлениями, кортизол пугает упущенной выгодой, окситоцин дарит доверие к брендам.
Эта книга вскрывает механизмы нейромаркетинга и показывает, что бренды не убеждают — они внедряют идеи прямо в наше подсознание. Здесь вы найдете кейсы зарубежных и российских брендов, инструменты, которые используют маркетологи и продавцы, а также приемы, с помощью которых сможете распознавать манипуляции.
Эту книгу я писал долго, мучительно и одновременно получая много кайфа. Я хотел написать такую книгу, которой лично мне очень не хватало. Что такое реклама? Как она работает? Почему она работает? Как делать так, чтобы она работала? А почему реклама работает у крутых брендов? Какова анатомия лучшей в мире рекламы? Как управлять вниманием? И так далее...
На этом канале я много пишу об ии-рекламе (и показываю ии-рекламу), так что эта книга — просто часть проекта. Если вы хотите разобраться как залезть в мозг аудитории и остаться там надолго — я правда рекомендую. Мне этой книги в свое время очень не хватало.
Книга выйдет в издательстве "Манн, Иванов и Фербер" и вот ссылка на предзаказ книги (супер-цена!).
По этой ссылке — книга на "Читай Городе". А вот по этой ссылке — интернет-магазин Book 24.
10🔥37👍22🥰2
This media is not supported in your browser
VIEW IN TELEGRAM
Закончил и сдал большой проект — серию рекламных роликов для компании Arlight, производителя светоидного оборудования.
Несмотря на кажущуюся простоту приложенного ролика, это был максимально сложный проект. Каждый кадр в буквальном смысле собирался по фрагментам, как конструктор "Лего". Да — постоянные герои, куда без них. А еще — реальные световые приборы и аксессуары заказчика, которые ведут себя в реальной жизни совершенно определенным образом.
Например такое правило: при нажатии на клавишу выключателя, она меняет свое положение, при этом выключается световой индикатор и одновременно в комнате включается светильник (естественно, из линейки Arlight).
Такие 15 секунд становятся настоящим испытанием на прочность. Я уже не раз писал, что нет какой-то одной нейросети, которая решает все задачи. В этом проекте — сложнейший пайплайн, который позволил реализовать задуманное и никакой вам Sora 2.
Следующим постом выложу 6-секундный ролик. Казалось бы — это же так просто, собрать 6 секунд. Как бы не так. В реальности дела обстоят так: жесточайший тайминг, в который надо уложить заданные в тз параметры, показать световые приборы (реальные естественно), да еще и рассказать историю.
Команда проекта:
Я — ии-сенсей, весь визуал, монтаж, сборка, музыка, нейрошаманизм и прочее.
Стас Брыков — арт-директор
Михаил Перловский — режиссер и креативный директор
Константин Цыбульский — звук
Несмотря на кажущуюся простоту приложенного ролика, это был максимально сложный проект. Каждый кадр в буквальном смысле собирался по фрагментам, как конструктор "Лего". Да — постоянные герои, куда без них. А еще — реальные световые приборы и аксессуары заказчика, которые ведут себя в реальной жизни совершенно определенным образом.
Например такое правило: при нажатии на клавишу выключателя, она меняет свое положение, при этом выключается световой индикатор и одновременно в комнате включается светильник (естественно, из линейки Arlight).
Такие 15 секунд становятся настоящим испытанием на прочность. Я уже не раз писал, что нет какой-то одной нейросети, которая решает все задачи. В этом проекте — сложнейший пайплайн, который позволил реализовать задуманное и никакой вам Sora 2.
Следующим постом выложу 6-секундный ролик. Казалось бы — это же так просто, собрать 6 секунд. Как бы не так. В реальности дела обстоят так: жесточайший тайминг, в который надо уложить заданные в тз параметры, показать световые приборы (реальные естественно), да еще и рассказать историю.
Команда проекта:
Я — ии-сенсей, весь визуал, монтаж, сборка, музыка, нейрошаманизм и прочее.
Стас Брыков — арт-директор
Михаил Перловский — режиссер и креативный директор
Константин Цыбульский — звук
🔥44👍19👎2
This media is not supported in your browser
VIEW IN TELEGRAM
И "6-ка". Команда та же — челленджи те же.
🔥40👍14👎2
Об этом мало кто пишет, но вы даже не догадываетесь, как круто можно делать еду в нейронках.
Вот рабочий кейс — ресторан русской кухни в Монголии — первое блюдо на белом фоне — оригинал заказчика. С помощью нейронок превращаем это все в стильные фото с монгольским колоритом. И так все меню. А потом все это становится фантастически красивым видеороликом.
Вот рабочий кейс — ресторан русской кухни в Монголии — первое блюдо на белом фоне — оригинал заказчика. С помощью нейронок превращаем это все в стильные фото с монгольским колоритом. И так все меню. А потом все это становится фантастически красивым видеороликом.
🔥43👍22