Midjourney получил обновление, которое добавило опцию Remix. Оно позволяет пользователям объединять два изображения.
Чтобы опробовать новую функцию, вам нужно зайти в "/settings" в одном из каналов на Midjourney's Discord и выбрать режим MJ Version 4 и Remix.
Чтобы опробовать новую функцию, вам нужно зайти в "/settings" в одном из каналов на Midjourney's Discord и выбрать режим MJ Version 4 и Remix.
🔥35🤩6👍2
This media is not supported in your browser
VIEW IN TELEGRAM
Плагин Shape-to-Image AI для Cinema 4D 🔥
🔻Энтузиаст Cinema 4D Лазарос Пашос, также известный как Nitroman, представил новый плагин для Cinema 4D, который может превращать простые фигуры в сгенерированные ИИ изображения на основе текстового запроса. Плагин называется Nitro4DGenAI.
🗯По словам создателя, чтобы создать желаемое изображение, нужно сделать простую форму, назначить нужные цвета и написать запрос - все остальное сделает ИИ.
Nitro4DGenAI все еще находится в разработке.
🔻Энтузиаст Cinema 4D Лазарос Пашос, также известный как Nitroman, представил новый плагин для Cinema 4D, который может превращать простые фигуры в сгенерированные ИИ изображения на основе текстового запроса. Плагин называется Nitro4DGenAI.
🗯По словам создателя, чтобы создать желаемое изображение, нужно сделать простую форму, назначить нужные цвета и написать запрос - все остальное сделает ИИ.
Nitro4DGenAI все еще находится в разработке.
👍16🔥12
This media is not supported in your browser
VIEW IN TELEGRAM
Модель Phenaki от Google может генерировать длинные видеоролики на основе текстовых запросов
🤖Компания Google представила сгенерированное ИИ видео, сделанное с помощью Phenaki - "модели, способной синтезировать реалистичное видео на основе последовательности текстовых запросов".
🗯Google обещает также представить свои инструменты преобразования текста в изображение в AI Test Kitchen.
Подробнее о технологии можно узнать тут. 👈
🤖Компания Google представила сгенерированное ИИ видео, сделанное с помощью Phenaki - "модели, способной синтезировать реалистичное видео на основе последовательности текстовых запросов".
🗯Google обещает также представить свои инструменты преобразования текста в изображение в AI Test Kitchen.
Подробнее о технологии можно узнать тут. 👈
🔥17
This media is not supported in your browser
VIEW IN TELEGRAM
Stable Diffusion в дополненной реальности.
🗣Разработчик и энтузиаст искусственного интеллекта Бьорн Карманн продемонстрировал сочетание искусственного интеллекта и дополненной реальности.
🗣Разработчик и энтузиаст искусственного интеллекта Бьорн Карманн продемонстрировал сочетание искусственного интеллекта и дополненной реальности.
🤯35🔥12👍1👏1
This media is not supported in your browser
VIEW IN TELEGRAM
⚡️Intel представила технологию распознавания дипфейков
Технология FakeCatcher, способна определять дипфейки в реальном времени.
⚙В основе программы лежит собственная нейросеть, которую обучили на кадрах с изображениями реальных людей. Ее задача заключается в том, чтобы находить мелкие несоответствия, обычно имеющиеся в кадрах, сгенерированных с помощью ИИ.
🔻FakeCatcher способен считывать информацию с множества точек на лице, отличая настоящего человека от дипфейка за счёт цветовых изменений в кровотоке.
💬Компания утверждает, что точность FakeCatcher достигает 96%.
Пока о сроках выпуска FakeCatcher и о том, как можно будет получить доступ к технологии, не говорится.
Технология FakeCatcher, способна определять дипфейки в реальном времени.
⚙В основе программы лежит собственная нейросеть, которую обучили на кадрах с изображениями реальных людей. Ее задача заключается в том, чтобы находить мелкие несоответствия, обычно имеющиеся в кадрах, сгенерированных с помощью ИИ.
🔻FakeCatcher способен считывать информацию с множества точек на лице, отличая настоящего человека от дипфейка за счёт цветовых изменений в кровотоке.
💬Компания утверждает, что точность FakeCatcher достигает 96%.
Пока о сроках выпуска FakeCatcher и о том, как можно будет получить доступ к технологии, не говорится.
👍17
Forwarded from Космос
Один из примеров как наш мозг обманывает нас.
На первой картинке все ясно. На второй обратите внимание на желтый квадрат сбоку в тени и серый сверху. В реальности они одинакового цвета и яркости, но наш мозг перерисовывает реальность и показывает нам иную картину.
На первой картинке все ясно. На второй обратите внимание на желтый квадрат сбоку в тени и серый сверху. В реальности они одинакового цвета и яркости, но наш мозг перерисовывает реальность и показывает нам иную картину.
🔥13🤯3🥴1
Представлена система синтеза изображений Stable Diffusion 2.0🔥
Компания Stability AI опубликовала вторую редакцию системы машинного обучения Stable Diffusion.
1) Новая модель обучена с использованием коллекции LAION-5B, включающей 5.85 миллиардов изображений с текстовыми описаниями.
2) Обновлена модель для модификации изображений - SD 2.0-inpainting, может при помощи текстовых подсказок заменять и изменять части изображения.
3) Вторая версия также сменила кодировщик и теперь может создавать изображения более высокого качества.
4) Представили возможность увеличения разрешения исходного изображения без ухудшения качества позволяя формировать изображения с разрешением 2048x2048.
5) Также продемонстрировали и модель SD2.0-depth2img, учитывающая глубину и пространственное расположение объектов. Это позволяет использовать позу человека на фотографии для формирования другого персонажа в той же позе.
💭Код для обучения нейронной сети и генерации опубликован под лицензией MIT.
Обученные модели открыты под лицензией Creative ML OpenRAIL-M, допускающей использование в коммерческих целях.
Компания Stability AI опубликовала вторую редакцию системы машинного обучения Stable Diffusion.
1) Новая модель обучена с использованием коллекции LAION-5B, включающей 5.85 миллиардов изображений с текстовыми описаниями.
2) Обновлена модель для модификации изображений - SD 2.0-inpainting, может при помощи текстовых подсказок заменять и изменять части изображения.
3) Вторая версия также сменила кодировщик и теперь может создавать изображения более высокого качества.
4) Представили возможность увеличения разрешения исходного изображения без ухудшения качества позволяя формировать изображения с разрешением 2048x2048.
5) Также продемонстрировали и модель SD2.0-depth2img, учитывающая глубину и пространственное расположение объектов. Это позволяет использовать позу человека на фотографии для формирования другого персонажа в той же позе.
💭Код для обучения нейронной сети и генерации опубликован под лицензией MIT.
Обученные модели открыты под лицензией Creative ML OpenRAIL-M, допускающей использование в коммерческих целях.
👍12🔥4😁1
Исследователи из Стэнфордского университета недавно представили EDGE. ИИ способный генерировать танцевальные движения на основе входной музыки.🎵
🔉EDGE может создавать короткие видео с набором танцевальных движений, которые ИИ считает наиболее соответствующими входным данным.
Кроме того, программа предоставляет возможности редактирования, хорошо подходящие для танца, включая настройку суставов, промежуточные движения и продолжение танца.🕺
Подробнее можно узнать тут.👈
🔉EDGE может создавать короткие видео с набором танцевальных движений, которые ИИ считает наиболее соответствующими входным данным.
Кроме того, программа предоставляет возможности редактирования, хорошо подходящие для танца, включая настройку суставов, промежуточные движения и продолжение танца.🕺
Подробнее можно узнать тут.👈
👍15🔥2
Команда исследователей из Ubisoft La Forge представила новую нейронную сеть, способную генерировать анимации жестов на основе входных данных.🔥
🤖Называется ИИ - ZeroEGGS, сеть требует только речевого аудио и короткий ролик с примером для создания анимации персонажа. По словам команды, сеть превосходит предыдущие современные технологии в "естественности движений, уместности речи и передаче стиля".
🗯"Возможности нашей системы позволяют генерировать множество выходных сигналов при одинаковых входных данных, учитывая стохастическую природу движения жестов"
🤖Называется ИИ - ZeroEGGS, сеть требует только речевого аудио и короткий ролик с примером для создания анимации персонажа. По словам команды, сеть превосходит предыдущие современные технологии в "естественности движений, уместности речи и передаче стиля".
🗯"Возможности нашей системы позволяют генерировать множество выходных сигналов при одинаковых входных данных, учитывая стохастическую природу движения жестов"
YouTube
ZeroEGGS: Zero-shot Example-based Gesture Generation from Speech
We present ZeroEGGS, a neural network framework for speech-driven gesture generation with zero-shot style control by example. This means style can be controlled via only a short example motion clip, even for motion styles unseen during training. Our model…
👍8🐳1
Изображения героев Игры Престолов в стиле киберпанка от Midjourney.🔥
👍19🔥6