Когда начал писать про Flux Kontext (тут), показал на примере бутылки, как её можно перенести куда угодно, не теряя сути. Классная фишка, особенно для маркетологов.
В этом посте — немного за дизайнеров интерьеров/экстерьеров 🙂
С помощью Flux Kontext можно работать с экстерьерами и интерьерами: точечно добавлять и убирать объекты, менять окружение, освещение, время суток. Конечно, это не заменит полноценную работу дизайнеров, но может сильно ускорить процесс и помочь на этапе идей и презентаций.
Не устали ещё от Flux Kontext?
А то там еще есть интересные фишки.
@VAI_ART
#VAI_Gallery
В этом посте — немного за дизайнеров интерьеров/экстерьеров 🙂
С помощью Flux Kontext можно работать с экстерьерами и интерьерами: точечно добавлять и убирать объекты, менять окружение, освещение, время суток. Конечно, это не заменит полноценную работу дизайнеров, но может сильно ускорить процесс и помочь на этапе идей и презентаций.
Не устали ещё от Flux Kontext?
А то там еще есть интересные фишки.
@VAI_ART
#VAI_Gallery
❤6👍3
А пока хочу спросить: вам было бы интересно понаблюдать за процессом создания продукта через ИИ?
Думаю, важно развиваться и двигаться вперёд — это касается всего. И сейчас я чувствую, что созрел для небольшого проекта. Например, можно сделать что-то с максимальным использованием ИИ, чтобы на практике показать, как уже сегодня в одиночку можно создавать что-то интересное.
Полноценную игру делать не буду, но, скажем, небольшую техно демку на один уровень (на Unity или Unreal) — вполне реалистичная задача.
Каждую неделю или две буду делиться прогрессом, и мы сможем обсуждать как инструменты, так и сам проект.
Как вам такая идея? Было бы интересно следить за этим?
Конечно, всё остальное на канале останется (плюс со временем добавятся и другие темы), просто появится ещё одна точка притяжения.
Please open Telegram to view this post
VIEW IN TELEGRAM
❤5👍1
Авторского права на «чистый» AI-контент нет. 🤷♂️
AI-генерация поставила под сомнение привычные нормы авторского права: по закону объектом охраны может быть только то, что создано человеком. В 2023 году Бюро авторских прав США заявило, что полностью сгенерированный ИИ контент не охраняется, например был случай и изображения из Midjourney в зарегистрированном графическом романе — автору признали право только на текст. В ЕС и РФ прямых норм пока нет, но в целом требуется творческий вклад человека. Но, например в Китае уже появились первые судебные иски об AI-арте, и хотя некоторые решения допускают частичную охрану, вопрос остается открытым. Без участия человека ИИ-контент не получает защиты, а правила его использования определяются условиями конкретного сервиса.
Общие правила по лицензиям.🤓
Лицензионные права зависят от конкретного сервиса, поэтому перед коммерческим использованием материалов важно внимательно изучить условия использования.
Во многих случаях контент, созданный в рамках пробного периода или на бесплатных тарифах, не разрешается использовать в коммерческих целях, тогда как на платных тарифах такое использование, допускается.
Однако даже при платной подписке платформы часто оставляют за собой право использовать сгенерированные материалы для обучения своих моделей.
Есть и исключения:
- OpenAI «обещает», что на платных тарифах не использует пользовательские данные для обучения
- Runway разрешает коммерческое использование даже на бесплатных генерациях.
- Adobe Firefly заявляет о юридической защите от возможных исков со стороны правообладателей
- Stable Diffusion — открытая модель, которая разрешает использование генеративных изображений в коммерческих целях
И это далеко не все.
Важно помнить, что при использовании генеративного контента есть риски.
Например:
- Чисто AI-контент не всегда можно защитить авторским правом — это значит, что кто-то может взять вашу работу и тоже использовать
- AI может случайно сгенерировать чужие элементы — например, логотип или стиль художника. За это отвечаете вы, а не сервис
Риски можно снизить:
- Добавляйте свой креатив: редактируйте, дорабатывайте — тогда результат можно считать совместным и охраняемым
- Не копируйте чужое напрямую
- Проверяйте контент на логотипы и узнаваемые фрагменты
- Для текстов – желательно прогонять через анти-плагиат
- Храните промпты и прогресс — пригодится, если надо будет доказать авторство.
- Можно написать, что результат сгенерирован, тем самым, частично сняв с себя ответственность
ИИ — это мощный инструмент, и вы имеете полное право использовать его результаты. Главное — знать условия сервиса, соблюдать законы и проявлять немного внимательности. Тогда AI станет не источником риска, а вашим конкурентным преимуществом.🔥 🔥 🔥
@VAI_ART
#VAI_Notes
AI-генерация поставила под сомнение привычные нормы авторского права: по закону объектом охраны может быть только то, что создано человеком. В 2023 году Бюро авторских прав США заявило, что полностью сгенерированный ИИ контент не охраняется, например был случай и изображения из Midjourney в зарегистрированном графическом романе — автору признали право только на текст. В ЕС и РФ прямых норм пока нет, но в целом требуется творческий вклад человека. Но, например в Китае уже появились первые судебные иски об AI-арте, и хотя некоторые решения допускают частичную охрану, вопрос остается открытым. Без участия человека ИИ-контент не получает защиты, а правила его использования определяются условиями конкретного сервиса.
Общие правила по лицензиям.
Лицензионные права зависят от конкретного сервиса, поэтому перед коммерческим использованием материалов важно внимательно изучить условия использования.
Во многих случаях контент, созданный в рамках пробного периода или на бесплатных тарифах, не разрешается использовать в коммерческих целях, тогда как на платных тарифах такое использование, допускается.
Однако даже при платной подписке платформы часто оставляют за собой право использовать сгенерированные материалы для обучения своих моделей.
Есть и исключения:
- OpenAI «обещает», что на платных тарифах не использует пользовательские данные для обучения
- Runway разрешает коммерческое использование даже на бесплатных генерациях.
- Adobe Firefly заявляет о юридической защите от возможных исков со стороны правообладателей
- Stable Diffusion — открытая модель, которая разрешает использование генеративных изображений в коммерческих целях
И это далеко не все.
Важно помнить, что при использовании генеративного контента есть риски.
Например:
- Чисто AI-контент не всегда можно защитить авторским правом — это значит, что кто-то может взять вашу работу и тоже использовать
- AI может случайно сгенерировать чужие элементы — например, логотип или стиль художника. За это отвечаете вы, а не сервис
Риски можно снизить:
- Добавляйте свой креатив: редактируйте, дорабатывайте — тогда результат можно считать совместным и охраняемым
- Не копируйте чужое напрямую
- Проверяйте контент на логотипы и узнаваемые фрагменты
- Для текстов – желательно прогонять через анти-плагиат
- Храните промпты и прогресс — пригодится, если надо будет доказать авторство.
- Можно написать, что результат сгенерирован, тем самым, частично сняв с себя ответственность
ИИ — это мощный инструмент, и вы имеете полное право использовать его результаты. Главное — знать условия сервиса, соблюдать законы и проявлять немного внимательности. Тогда AI станет не источником риска, а вашим конкурентным преимуществом.
@VAI_ART
#VAI_Notes
Please open Telegram to view this post
VIEW IN TELEGRAM
👍7❤3🤷♂1
Год продолжается серией запусков новых видео-генераторов. За последние несколько дней вышло много интересных обновлений, и думаю, стоит с вами ими поделиться:
🔹Seedance — новая видео модель
🔹Minimax — обновился до версии Hailuo 02
🔹Midjourney — решился двигаться дальше и запустил свою видео модель
🔹Higgsfield — добавили поддержку Flux.Kontext
Видео с каждой моделью прикреплены к посту и расставлены по порядку(относительно описания выше), чтобы вам было понятно, какое видео к какой модели относится.
На деле, пока не понятно, нужно будет оценить их эффективность после тестов.
Скорее всего, каждая из них займёт свою нишу и будет выполнять свой набор задач. Это, в принципе, уже происходит с множеством других видео-генераторов и ИИ-инструментов.
Основная проблема сегодняшнего времени — огромное количество ИИ, но ни один из них не может закрыть весь стэк задач в своей нише. Все эти модели обучались по-разному и на различных датасетах, каждая имеет свои плюсы и минусы. Это касается не только видео-генераторов, но и всех ИИ-сетей в целом.
Сейчас важно иметь базу ИИ-сетей и чёткое понимание, что каждая из них умеет. Это позволит максимально эффективно использовать их.
В будущем мы, конечно, получим много крутых моделей, но пока что ситуация выглядит так.
Может составить топ ИИ-сетей, где и как их можно использовать?
@VAI_ART
#VAI_News
🔹Seedance — новая видео модель
🔹Minimax — обновился до версии Hailuo 02
🔹Midjourney — решился двигаться дальше и запустил свою видео модель
🔹Higgsfield — добавили поддержку Flux.Kontext
Видео с каждой моделью прикреплены к посту и расставлены по порядку(относительно описания выше), чтобы вам было понятно, какое видео к какой модели относится.
На деле, пока не понятно, нужно будет оценить их эффективность после тестов.
Скорее всего, каждая из них займёт свою нишу и будет выполнять свой набор задач. Это, в принципе, уже происходит с множеством других видео-генераторов и ИИ-инструментов.
Основная проблема сегодняшнего времени — огромное количество ИИ, но ни один из них не может закрыть весь стэк задач в своей нише. Все эти модели обучались по-разному и на различных датасетах, каждая имеет свои плюсы и минусы. Это касается не только видео-генераторов, но и всех ИИ-сетей в целом.
Сейчас важно иметь базу ИИ-сетей и чёткое понимание, что каждая из них умеет. Это позволит максимально эффективно использовать их.
В будущем мы, конечно, получим много крутых моделей, но пока что ситуация выглядит так.
Может составить топ ИИ-сетей, где и как их можно использовать?
@VAI_ART
#VAI_News
👍10❤7
This media is not supported in your browser
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
Слушай, а ловко ты это придумал, я даже в начале и не понял. ©
Или история о том, как сжечь месячную подписку в Midjourney за час.😅
Решил немного сделать быстрых тестов. Получилось достаточно неплохо. Особенно хорошо работает с художественными стилями: как-то разбирает всю кашу в изображениях и даже не теряет суть.
Старт очень хороший, несмотря на то, что пока 480p и 5 секунд хронометража. Точно будет интересно понаблюдать за развитием данного ИИ.
По традиции, всем хороших и тёплых выходных.❤️
@VAI_ART
#VAI_Gallery
Или история о том, как сжечь месячную подписку в Midjourney за час.
Решил немного сделать быстрых тестов. Получилось достаточно неплохо. Особенно хорошо работает с художественными стилями: как-то разбирает всю кашу в изображениях и даже не теряет суть.
Старт очень хороший, несмотря на то, что пока 480p и 5 секунд хронометража. Точно будет интересно понаблюдать за развитием данного ИИ.
По традиции, всем хороших и тёплых выходных.
@VAI_ART
#VAI_Gallery
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
❤6👍2
Наконец то добрался до Eleven labs, которая специализируется на генеративном аудио и голосовом синтезе с помощью ИИ.😎
Большое количество функций, таких как:
- Text-to-Speech. Создает реалистичные голосовые озвучки с естественной интонацией и эмоциями. Поддержка более 70 языков и тысячи голосов
- Voice Cloning. Копирует даже уникальные голоса по короткому аудиосэмплу — от простого до профессионального качества
- Speech-to-Text. Преобразует речь в текст с высокой точностью (~98 %) и умеет определять разных говорящих .
- Conversational AI & Dubbing. Голосовые ассистенты, дубляж и озвучка видео с сохранением эмоций и смысла исходного материала.
- Sound Effects. Генерация звуковых эффектов по описанию.
Получается достаточно хорошо. Я раньше скидывал аналогичный сервис от Google, но в Eleven Labs, например, озвучка текста выглядит лучше. Есть звуковые растяжки, ускорение или замедление речи и т.д., что делает голос ещё более естественным. Ну и у них также есть расстановка акцентов по типу смеха, страха, шёпота, крика и т.д. Работает не всегда — бывает, что не реагирует на такие вставки. Делается это просто: в квадратных скобках указывается эмоция, например [смех] или [laughter]. Полный список доступен в руководстве.
Многие функции работают в бесплатном режиме.
Также на днях Minimax выпустили свою модель — со всеми функциями, которые перечислял выше у Eleven Labs.
Спектр применения довольно широк — от копирования любого голоса, до генерации звуков и озвучки роликов и подкастов. Думаю, каждый найдёт для себя способ использования такого типа ИИ.
В общем, достаточно хороший инструмент для работы с голосом и звуками. Пользуйтесь!🔥
В комментариях пример генерации голоса. Как по мне, очень выразительный и органичный и уже практически не различимый с человеческим.
P.S. ElevenLabs и Google работают только через VPN, а вот Minimax не выпендривается и заводится без всего.
@VAI_ART
#VAI_General
Большое количество функций, таких как:
- Text-to-Speech. Создает реалистичные голосовые озвучки с естественной интонацией и эмоциями. Поддержка более 70 языков и тысячи голосов
- Voice Cloning. Копирует даже уникальные голоса по короткому аудиосэмплу — от простого до профессионального качества
- Speech-to-Text. Преобразует речь в текст с высокой точностью (~98 %) и умеет определять разных говорящих .
- Conversational AI & Dubbing. Голосовые ассистенты, дубляж и озвучка видео с сохранением эмоций и смысла исходного материала.
- Sound Effects. Генерация звуковых эффектов по описанию.
Получается достаточно хорошо. Я раньше скидывал аналогичный сервис от Google, но в Eleven Labs, например, озвучка текста выглядит лучше. Есть звуковые растяжки, ускорение или замедление речи и т.д., что делает голос ещё более естественным. Ну и у них также есть расстановка акцентов по типу смеха, страха, шёпота, крика и т.д. Работает не всегда — бывает, что не реагирует на такие вставки. Делается это просто: в квадратных скобках указывается эмоция, например [смех] или [laughter]. Полный список доступен в руководстве.
Многие функции работают в бесплатном режиме.
Также на днях Minimax выпустили свою модель — со всеми функциями, которые перечислял выше у Eleven Labs.
Спектр применения довольно широк — от копирования любого голоса, до генерации звуков и озвучки роликов и подкастов. Думаю, каждый найдёт для себя способ использования такого типа ИИ.
В общем, достаточно хороший инструмент для работы с голосом и звуками. Пользуйтесь!
В комментариях пример генерации голоса. Как по мне, очень выразительный и органичный и уже практически не различимый с человеческим.
P.S. ElevenLabs и Google работают только через VPN, а вот Minimax не выпендривается и заводится без всего.
@VAI_ART
#VAI_General
Please open Telegram to view this post
VIEW IN TELEGRAM
👍5❤4
Forwarded from Нейронично
День на генерацию 2д-концептов предметов и модульного окружения в ChatGPT и Sora.
Полтора дня на генерацию 3д в нейронке Hunyuan 2.5.
Полтора дня на сборку и свет в анриле.
Я в шоке, что 4 дня назад гуляла по этой локации у себя в голове, а теперь вот гуляю в анриле.
Из-за очень плотной сетки такой способ пока работает для превиза в геймдеве и стиллов под дальнейшую анимацию в нейронках. И ещё как новый инструмент для концепт-арта, потому что собрать такой драфтовый уровень в анриле теперь быстрее, чем нарисовать. Проблемы с сеткой скорее всего будут решены или значительно оптимизированы в течение года.
Всего было сгенерено 150 пропсов, в самой сцене использовано примерно 130. Руками правились только текстура на портрете Теслы и ковры, всё остальное - чистые 3д-генерации из хуньяня.
#3d_Aironically
Полтора дня на генерацию 3д в нейронке Hunyuan 2.5.
Полтора дня на сборку и свет в анриле.
Я в шоке, что 4 дня назад гуляла по этой локации у себя в голове, а теперь вот гуляю в анриле.
Из-за очень плотной сетки такой способ пока работает для превиза в геймдеве и стиллов под дальнейшую анимацию в нейронках. И ещё как новый инструмент для концепт-арта, потому что собрать такой драфтовый уровень в анриле теперь быстрее, чем нарисовать. Проблемы с сеткой скорее всего будут решены или значительно оптимизированы в течение года.
Всего было сгенерено 150 пропсов, в самой сцене использовано примерно 130. Руками правились только текстура на портрете Теслы и ковры, всё остальное - чистые 3д-генерации из хуньяня.
#3d_Aironically
👍4🔥3❤2
Способы генерация изображений 🔥 🔥 🔥
При генерации изображений до сих пор не получается получить нужный результат с первого прохода. Чаще всего это комбинация разных ИИ и подходов, и, конечно, доработки руками. Даже так это в разы ускоряет работу.
Получить что-то абстрактное или близкое к нужному — да, но конкретную идею приходится добивать.
Существует несколько способов генерации изображений. По сути различается только начальная стадия, все зависит от задачи и исходных материалов.
1. Генерация изначально около подходящего изображения:
- я ищу подходящий референс или использую уже найденный (у меня есть база изображений, которые мне нравятся). Загружаю это изображение в языковую модель, которая умеет считывать изображения, и прошу её составить промпт. Дальше дорабатываю его, чтобы получить нужный результат.
- ChatGPT или Sora (работают только по подписке). Почему я использую именно их? Эти модели поддерживают русский язык, и не нужно думать, как бы это написать на английском. Мне важно делать всё максимально просто, и модели позволяют это. Иногда помогает грубый скетч, иногда можно просто общаться с моделью — всё ситуативно и зависит от задачи.
- так же через ChatGPT составляю промпт и иду в Midjourney. Это всё ещё лучший инструмент в плане художественности и понимания стилей. С его помощью получаю нужный результат в плане общего вида, настроения и стиля. Но, как обычно, результат получается не идеальным — тут цвет нужно поправить, здесь форма не такая, как хотелось бы и тд.
2. Доработка с помощью inpaint/outpaint
В итоге обычно получается результат, близкий к нужному, но всё равно требующий доработки. Дальше в ход обычно шли инструменты inpaint или outpaint, о которых я уже писал. Почему раньше? С появлением Flux Kontext, про который я тоже упоминал, игра изменилась. С его консистентностью править изображения стало гораздо проще.
3. Ручная доработка
Подправить косяки или совместить элементы из разных получившихся вариантов.
4. Апскейлеры
В конце — апскейлеры. Всё зависит от результата: можно попросить увеличить качество изображения или добавить немного креативности. Также он помогает соединить и зашлифовать стыки, если до этого не сильно прорабатывались детали.
Этот пайплайн нужен, если нужно получить хороший и контролируемый результат для дальнейшей работы. Если просто хочется красивую случайную картинку, то можно так не заморачиваться.
Опять же все зависит от того что требуется. Если нужно что-то с нашими локальными особенностями (панельки, балалайки, матрешки и т.д.), то можно использовать Reve, она отлично работает с советскими/российскими деталями. Если нужно вставить что-то конкретное, можно использовать Gen-4 References в Runway. Например, если у вас есть фото машины, человека и окружения, этот инструмент комбинирует все три изображения и создаёт из них одно, также используя описание, которое добавляется.
Как и говорил все зависит от ситуации.
А как вы делаете? Буду рад услышать новые решения🙂
@VAI_ART
#VAI_Practice
При генерации изображений до сих пор не получается получить нужный результат с первого прохода. Чаще всего это комбинация разных ИИ и подходов, и, конечно, доработки руками. Даже так это в разы ускоряет работу.
Получить что-то абстрактное или близкое к нужному — да, но конкретную идею приходится добивать.
Существует несколько способов генерации изображений. По сути различается только начальная стадия, все зависит от задачи и исходных материалов.
1. Генерация изначально около подходящего изображения:
- я ищу подходящий референс или использую уже найденный (у меня есть база изображений, которые мне нравятся). Загружаю это изображение в языковую модель, которая умеет считывать изображения, и прошу её составить промпт. Дальше дорабатываю его, чтобы получить нужный результат.
- ChatGPT или Sora (работают только по подписке). Почему я использую именно их? Эти модели поддерживают русский язык, и не нужно думать, как бы это написать на английском. Мне важно делать всё максимально просто, и модели позволяют это. Иногда помогает грубый скетч, иногда можно просто общаться с моделью — всё ситуативно и зависит от задачи.
- так же через ChatGPT составляю промпт и иду в Midjourney. Это всё ещё лучший инструмент в плане художественности и понимания стилей. С его помощью получаю нужный результат в плане общего вида, настроения и стиля. Но, как обычно, результат получается не идеальным — тут цвет нужно поправить, здесь форма не такая, как хотелось бы и тд.
2. Доработка с помощью inpaint/outpaint
В итоге обычно получается результат, близкий к нужному, но всё равно требующий доработки. Дальше в ход обычно шли инструменты inpaint или outpaint, о которых я уже писал. Почему раньше? С появлением Flux Kontext, про который я тоже упоминал, игра изменилась. С его консистентностью править изображения стало гораздо проще.
3. Ручная доработка
Подправить косяки или совместить элементы из разных получившихся вариантов.
4. Апскейлеры
В конце — апскейлеры. Всё зависит от результата: можно попросить увеличить качество изображения или добавить немного креативности. Также он помогает соединить и зашлифовать стыки, если до этого не сильно прорабатывались детали.
Этот пайплайн нужен, если нужно получить хороший и контролируемый результат для дальнейшей работы. Если просто хочется красивую случайную картинку, то можно так не заморачиваться.
Опять же все зависит от того что требуется. Если нужно что-то с нашими локальными особенностями (панельки, балалайки, матрешки и т.д.), то можно использовать Reve, она отлично работает с советскими/российскими деталями. Если нужно вставить что-то конкретное, можно использовать Gen-4 References в Runway. Например, если у вас есть фото машины, человека и окружения, этот инструмент комбинирует все три изображения и создаёт из них одно, также используя описание, которое добавляется.
Как и говорил все зависит от ситуации.
А как вы делаете? Буду рад услышать новые решения
@VAI_ART
#VAI_Practice
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍7❤1
Некоторые сны — как плохая генерация? 🧐
На днях снилась такая дичь, проснулся с мыслью — а не работает ли наш мозг во сне как нейросеть, у которой не хватает «мощности» и данных?
Да, это происходит не всегда. А что, если "качество самой картинки" зависит от ресурсов, которые мозг выделяет на конкретный сон?
У каждого бывали такие сны, в которых происходят абсурдные, нелогичные вещи. Сюжеты скачут. Люди превращаются в других. Пространства сливаются.
А потом ты смотришь видео, сгенерированное какой-нибудь ИИ-моделью, и ловишь себя на том же ощущении.
Ведь мозг во время сна отключен от внешнего мира, но продолжает перерабатывать внутренние переживания, мысли, воспоминания.
И делает это, в своем латентном (скрытом) пространстве.
Он берёт фрагменты из памяти, складывает их, дополняет, интерпретирует.
В результате и получаются те самые сны, в которых сюжеты, пространства, объекты сливаются и перемешиваются.
Может быть, сны — это и есть биологическая генерация, основанная на внутренних промптах: "что я чувствовал", "о чём думал", "что не успел пережить".
Мозг собирает из этого сюжет — так же, как генератор собирает видео из текста.
Подумалось, что это интересная точка для размышлений. Ведь чисто на математическом уровне нейросети копируют поведение нейронов в мозгу.
Есть над чем подумать.😀
@VAI_ART
#VAI_Notes
На днях снилась такая дичь, проснулся с мыслью — а не работает ли наш мозг во сне как нейросеть, у которой не хватает «мощности» и данных?
Да, это происходит не всегда. А что, если "качество самой картинки" зависит от ресурсов, которые мозг выделяет на конкретный сон?
У каждого бывали такие сны, в которых происходят абсурдные, нелогичные вещи. Сюжеты скачут. Люди превращаются в других. Пространства сливаются.
А потом ты смотришь видео, сгенерированное какой-нибудь ИИ-моделью, и ловишь себя на том же ощущении.
Ведь мозг во время сна отключен от внешнего мира, но продолжает перерабатывать внутренние переживания, мысли, воспоминания.
И делает это, в своем латентном (скрытом) пространстве.
Он берёт фрагменты из памяти, складывает их, дополняет, интерпретирует.
В результате и получаются те самые сны, в которых сюжеты, пространства, объекты сливаются и перемешиваются.
Может быть, сны — это и есть биологическая генерация, основанная на внутренних промптах: "что я чувствовал", "о чём думал", "что не успел пережить".
Мозг собирает из этого сюжет — так же, как генератор собирает видео из текста.
Подумалось, что это интересная точка для размышлений. Ведь чисто на математическом уровне нейросети копируют поведение нейронов в мозгу.
Есть над чем подумать.
@VAI_ART
#VAI_Notes
Please open Telegram to view this post
VIEW IN TELEGRAM
😁6💯2❤1🦄1