Forwarded from эйай ньюз
This media is not supported in your browser
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
🧠 Imagen Video
[Google Brain]
Ответ Гугла на Make-a-Video от Меты не заставил себя долго ждать. Результаты кайфовые. Но и супервижена эта модель потребовала больше. Make-a-scene использовала неразмеченные видео для обучения, а вот для Image Video индусам пришлось попотеть, размечая видео текстовыми описаниями.
В подробности архитектуры вдаваться смысла нет, это нужно читать в статье. Скажу только, что там сначала из текстового эмбеддинга энкодера T5 получается 16 фреймов в разрешении 48×24 с 3 fps, а затем это апскейлится целой серией диффузионных моделей в итоговое видео из 128 фреймов 1280×768 и 24 fps.
То есть на выходе – 5.4 сек видео в высоком разрешении!
Ваши ставки господа: когда мы будем генерировать ролики в диффузионном тиктоке по заказу? "Девочка танцует в стиле техно. Сделай чтобы было красиво. Пожалуйста."
❱❱ Сайт проекта
@ai_newz
[Google Brain]
Ответ Гугла на Make-a-Video от Меты не заставил себя долго ждать. Результаты кайфовые. Но и супервижена эта модель потребовала больше. Make-a-scene использовала неразмеченные видео для обучения, а вот для Image Video индусам пришлось попотеть, размечая видео текстовыми описаниями.
В подробности архитектуры вдаваться смысла нет, это нужно читать в статье. Скажу только, что там сначала из текстового эмбеддинга энкодера T5 получается 16 фреймов в разрешении 48×24 с 3 fps, а затем это апскейлится целой серией диффузионных моделей в итоговое видео из 128 фреймов 1280×768 и 24 fps.
То есть на выходе – 5.4 сек видео в высоком разрешении!
Ваши ставки господа: когда мы будем генерировать ролики в диффузионном тиктоке по заказу? "Девочка танцует в стиле техно. Сделай чтобы было красиво. Пожалуйста."
❱❱ Сайт проекта
@ai_newz
Наткнулся на просторах интернетов на замечательную штуку: робот для геноцида тараканов с помощью лазера с нейросетями под капотом.
С помощью двух камер отслеживает территорию, а в случае обнаружения усатой нечисти испускает лазерный луч в цель. Я думал, что в 2022 у нас будут летающие машины, но это тоже пойдет.
А самое главное, что повторить этот девайс можно самому – исходники и схемы есть на гитхабе
С помощью двух камер отслеживает территорию, а в случае обнаружения усатой нечисти испускает лазерный луч в цель. Я думал, что в 2022 у нас будут летающие машины, но это тоже пойдет.
А самое главное, что повторить этот девайс можно самому – исходники и схемы есть на гитхабе
Ого, смотрите, гуглоинженеры напили AudioLM — аналог Jukebox.
Только в отличие от него, эта штука генерирует сильно более качественные сэмплы + умеет работать с речью. Принимает на вход аудиофайл (от 3х секунд), после чего продолжает его.
Не требует транскрипции или маркировки. Вместо этого в программу загружаются звуковые базы данных, а машинное обучение используется для сжатия аудиофайлов в звуковые фрагменты, называемые «токенами», без потери слишком большого количества информации. Затем эти токенизированные обучающие данные передаются в модель машинного обучения, которая использует обработку естественного языка для изучения звуковых паттернов.
Примеры можно послушать тут
Источник тут
Только в отличие от него, эта штука генерирует сильно более качественные сэмплы + умеет работать с речью. Принимает на вход аудиофайл (от 3х секунд), после чего продолжает его.
Не требует транскрипции или маркировки. Вместо этого в программу загружаются звуковые базы данных, а машинное обучение используется для сжатия аудиофайлов в звуковые фрагменты, называемые «токенами», без потери слишком большого количества информации. Затем эти токенизированные обучающие данные передаются в модель машинного обучения, которая использует обработку естественного языка для изучения звуковых паттернов.
Примеры можно послушать тут
Источник тут
Telegram
Neural Shit
А вот это очень круто, 15 минут назад OpenAI поделился нейронной сетью JukeBox которая генерирует музыку и пение (!) на основе того какой стиль и текст на входе вы ей указали.
Все примеры сгенерированные нейронкой в виде базы:
https://jukebox.openai.com/…
Все примеры сгенерированные нейронкой в виде базы:
https://jukebox.openai.com/…
Forwarded from Denis Sexy IT 🤖
Давайте отвлечемся на какую-то глупую фигню, например – Ксеноморфов за ужином сгенерированных нейронкой
Автор
Автор
А вот это уже очень охуенно!
В самый первый раз как надел VR-шлем на голову подумал: "Вот бы сюда запиздошить разного наркоманского нейроговна, чтоб мозг к хуям выносило".
И вот оно! Вангую в скором времени приложения симуляторы трипа LSD, Псилоцибина и прочих интересных веществ. Я в первых рядах побегу покупать подобное
В самый первый раз как надел VR-шлем на голову подумал: "Вот бы сюда запиздошить разного наркоманского нейроговна, чтоб мозг к хуям выносило".
И вот оно! Вангую в скором времени приложения симуляторы трипа LSD, Псилоцибина и прочих интересных веществ. Я в первых рядах побегу покупать подобное
Telegram
эйай ньюз
Сон наяву через VR passthrough
Это безумие! Примерно так ты видишь мир во сне, когда все постоянно меняется при малейшем переводе взгляда.
Чел создал демку, где, с его слов, в риалтайме крутится Stable Diffusion и меняет то, что ты видишь у себя вокруг…
Это безумие! Примерно так ты видишь мир во сне, когда все постоянно меняется при малейшем переводе взгляда.
Чел создал демку, где, с его слов, в риалтайме крутится Stable Diffusion и меняет то, что ты видишь у себя вокруг…