This media is not supported in your browser
VIEW IN TELEGRAM
Minimax / Music-01
Генератор музыки от Минимакса появился на Replicate.
https://replicate.com/minimax/music-01
Если у вас там есть кредиты или бонусы, можете погенерить музики от Минимакса.
Генерит треки до 1 минуты:
- use reference songs, vocals and instrumental tracks
- optional lyrics
- reuse references for faster generations and consistency
Как по мне, жосковато. До зная китайский прогресс, Суно стоит начинать нервничать.
Апи документация тут
@cgevent
Генератор музыки от Минимакса появился на Replicate.
https://replicate.com/minimax/music-01
Если у вас там есть кредиты или бонусы, можете погенерить музики от Минимакса.
Генерит треки до 1 минуты:
- use reference songs, vocals and instrumental tracks
- optional lyrics
- reuse references for faster generations and consistency
Как по мне, жосковато. До зная китайский прогресс, Суно стоит начинать нервничать.
Апи документация тут
@cgevent
AI трансформирует индустрию, и знание его возможностей — ключ к успеху.
На канале ты найдешь:
#промо
Please open Telegram to view this post
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
С приходом генеративного ИИ интернетик стремительно распухает. И вот мы уже видим вполне себе прозаичный сценарий: один пользователь просить chatGPT написать за него красивое письмо или отчет. А второй (получатель) просит chatGPT сократить и суммаризировать всю эту красивую велеречивую бизнес-графоманию.
Ну или смышленые влоггеры генерят все эти ИИ-подкасты, а бедные слушатели просят ИИ дать им выжимку.
У меня ощущение, что скоро мы будем ходить в интернет через компрессионные адаптеры.
Ставишь расширение для Хрома, и оно тебе показывает уже пожатый, суммаризированный и просушенный интернетик.
Стартаперы, забирайте идею. Латентный интернет - передаем вместо текстов, картинок и видео только эмбединги. А на клиенте генерим контент любой степени пожатости.
Просто я натолкнулся на еще один ИИ-сервис, который делает из длинных видео короткие. За тридцать долларов в месяц.
Create TikToks, Reels, Shorts from your long videos in just one click.
Когда-то в прошлом веке у развитых экономик была задача - накормить население. Накормили. И стали решать другую задачу - бороться с ожирением. Ибо пресыщенные кожаные вдруг стали болеть и дохнуть от перекормленности. А для экономики это плохо.
Интересно, когда лозунг Content is the King изживет себя? Когда бесконечное потребление контента приведет падению работоспособности населения настолько, что борьба с цифровым ожирением выйдет на уровень государств?
Или точка невозврата пройдена, и работоспособность кожаных уже не является критической для экономики?
https://klap.app/
@cgevent
Ну или смышленые влоггеры генерят все эти ИИ-подкасты, а бедные слушатели просят ИИ дать им выжимку.
У меня ощущение, что скоро мы будем ходить в интернет через компрессионные адаптеры.
Ставишь расширение для Хрома, и оно тебе показывает уже пожатый, суммаризированный и просушенный интернетик.
Стартаперы, забирайте идею. Латентный интернет - передаем вместо текстов, картинок и видео только эмбединги. А на клиенте генерим контент любой степени пожатости.
Просто я натолкнулся на еще один ИИ-сервис, который делает из длинных видео короткие. За тридцать долларов в месяц.
Create TikToks, Reels, Shorts from your long videos in just one click.
Когда-то в прошлом веке у развитых экономик была задача - накормить население. Накормили. И стали решать другую задачу - бороться с ожирением. Ибо пресыщенные кожаные вдруг стали болеть и дохнуть от перекормленности. А для экономики это плохо.
Интересно, когда лозунг Content is the King изживет себя? Когда бесконечное потребление контента приведет падению работоспособности населения настолько, что борьба с цифровым ожирением выйдет на уровень государств?
Или точка невозврата пройдена, и работоспособность кожаных уже не является критической для экономики?
https://klap.app/
@cgevent
10-й стрим OpenAI
Пока мы ждем (ждем жеж?) новостей про DALL·E 4, OpenAI исполняют в чудеса продуктологии.
На сегодняшнем стриме показали, что если вы позвоните (со штатовского номера) на +1-800-2428478, то попадете в головой режим chatGPT.
Те, кто уже разучился звонить с телефона, могут писать в WhatsApp, а ответы получать либо голосом, либо текстом.
Телеграм боты нервно закуривают овальные сигареты...
Небольшая деталь: OpenAI is offering 15 minutes of free calling for U.S. users. The company notes that standard carrier fees may apply.
А теперь про то, что не пишут:
Как и в случае с ChatGPT по телефону, для общения в WhatsApp вам не нужен аккаунт, но существует суточный лимит. Пользователи получат уведомление о приближении к этому лимиту, и тогда они смогут продолжить общение, загрузив приложение ChatGPT или используя ChatGPT на настольном компьютере.
@cgevent
Пока мы ждем (ждем жеж?) новостей про DALL·E 4, OpenAI исполняют в чудеса продуктологии.
На сегодняшнем стриме показали, что если вы позвоните (со штатовского номера) на +1-800-2428478, то попадете в головой режим chatGPT.
Те, кто уже разучился звонить с телефона, могут писать в WhatsApp, а ответы получать либо голосом, либо текстом.
Телеграм боты нервно закуривают овальные сигареты...
Небольшая деталь: OpenAI is offering 15 minutes of free calling for U.S. users. The company notes that standard carrier fees may apply.
А теперь про то, что не пишут:
Как и в случае с ChatGPT по телефону, для общения в WhatsApp вам не нужен аккаунт, но существует суточный лимит. Пользователи получат уведомление о приближении к этому лимиту, и тогда они смогут продолжить общение, загрузив приложение ChatGPT или используя ChatGPT на настольном компьютере.
@cgevent
This media is not supported in your browser
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
Media is too big
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
Media is too big
VIEW IN TELEGRAM
Media is too big
VIEW IN TELEGRAM
Media is too big
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
Метаверсищще и ИИще
Следующая новость отлично соответствует названию канала.
Ибо это симуляция и визуализация физического мира на стероидах ИИ.
20+ лабораторий совместными усилиями разработали и выпустили исходный код Genesis - физического движка с Visual Language Model агентом, который превращает промпты в интерактивные 4D-миры.
4D - это новое модное слово, обозначающее 3D с анимацией. Для нас это просто 3Д-сцена, в которой что-то происходит - симуляция физики, движение камеры, анимация персонажа.
Genesis - это как бы Maya или Houdini только на естественном языке, с ИИ-солверами, ускоренными примерно в 100-1000 раз, по сравнению с обычными солверами физики и кинематики. Это если очень грубо. Плюс рендеринг с рейтрейсингом.
Под капотом используется агент на основе VLM, который использует симуляционные API в качестве инструментов, генерируя физически точное окружение, траектории движения камеры, поведение роботов и анимацию персонажей. Огромное количество физических SOTA-солверов + тонна материалов.
Помните мы все смотрели ролики двухминутного доктора про то, как нейронки ускоряют физику жидкостей или твердых тех. Теперь это все в одном флаконе размером с Юпитер.
Они собрали все на чистом питоне, каким-то образом сделав физический движок в 10-80 раз быстрее, чем Issac Sim от Nvidia.
Я вот читаю такое: "Физические симуляторы работают в 430 000 раз быстрее, чем в реальном времени, сохраняя при этом точность, достаточную для выпускания роботов в реальный мир."
И не понимаю, это троллинг такой?
А еще там есть 3Д-генератор сложных объектов, "выходящий за рамки категорий, содержащихся в аннотированном человеком активе артикулированных объектов".
Мягкие робаты.
Speech Audio, Facial Animation & Emotion Generation - тут полегчало, ибо на видео эмоции скорее для робатов.
Но в целом это и есть огромный скоростной симулятор мира для тренировки роботов (а может и кожаных). С рейтрейсингом на борту.
И код есть!!
https://genesis-embodied-ai.github.io/
А статей пока нет.
Но есть документация, неплохай притом.
https://genesis-world.readthedocs.io/
Осталось разобраться, как запускать на линуксе в сети с клиентом на ноуте и можно пробовать ИИ-Майя.
@cgevent
Следующая новость отлично соответствует названию канала.
Ибо это симуляция и визуализация физического мира на стероидах ИИ.
20+ лабораторий совместными усилиями разработали и выпустили исходный код Genesis - физического движка с Visual Language Model агентом, который превращает промпты в интерактивные 4D-миры.
4D - это новое модное слово, обозначающее 3D с анимацией. Для нас это просто 3Д-сцена, в которой что-то происходит - симуляция физики, движение камеры, анимация персонажа.
Genesis - это как бы Maya или Houdini только на естественном языке, с ИИ-солверами, ускоренными примерно в 100-1000 раз, по сравнению с обычными солверами физики и кинематики. Это если очень грубо. Плюс рендеринг с рейтрейсингом.
Под капотом используется агент на основе VLM, который использует симуляционные API в качестве инструментов, генерируя физически точное окружение, траектории движения камеры, поведение роботов и анимацию персонажей. Огромное количество физических SOTA-солверов + тонна материалов.
Помните мы все смотрели ролики двухминутного доктора про то, как нейронки ускоряют физику жидкостей или твердых тех. Теперь это все в одном флаконе размером с Юпитер.
Они собрали все на чистом питоне, каким-то образом сделав физический движок в 10-80 раз быстрее, чем Issac Sim от Nvidia.
Я вот читаю такое: "Физические симуляторы работают в 430 000 раз быстрее, чем в реальном времени, сохраняя при этом точность, достаточную для выпускания роботов в реальный мир."
И не понимаю, это троллинг такой?
А еще там есть 3Д-генератор сложных объектов, "выходящий за рамки категорий, содержащихся в аннотированном человеком активе артикулированных объектов".
Мягкие робаты.
Speech Audio, Facial Animation & Emotion Generation - тут полегчало, ибо на видео эмоции скорее для робатов.
Но в целом это и есть огромный скоростной симулятор мира для тренировки роботов (а может и кожаных). С рейтрейсингом на борту.
И код есть!!
https://genesis-embodied-ai.github.io/
А статей пока нет.
Но есть документация, неплохай притом.
https://genesis-world.readthedocs.io/
Осталось разобраться, как запускать на линуксе в сети с клиентом на ноуте и можно пробовать ИИ-Майя.
@cgevent
This media is not supported in your browser
VIEW IN TELEGRAM
Самурай для Нюка
Ну наконец-то годные нейроинструменты из недр Гитхаба вкручивают в софты для взрослых.
Samurai for Nuke allows you to generate masks from an image sequence, based on SAMURAI adaptation of SAM2 Model for Zero-Shot Visual Tracking with Motion-Aware Memory.
Доп фичи:
Mask export
EXR input/output
Frame range
Bounding Box Interface
Похоже, что только для Линукса.
Интересно, сколько тут взрослых мальчиков с Нюком под Линуксом...
https://github.com/Theo-SAMINADIN-td/NukeSamurai
@cgevent
Ну наконец-то годные нейроинструменты из недр Гитхаба вкручивают в софты для взрослых.
Samurai for Nuke allows you to generate masks from an image sequence, based on SAMURAI adaptation of SAM2 Model for Zero-Shot Visual Tracking with Motion-Aware Memory.
Доп фичи:
Mask export
EXR input/output
Frame range
Bounding Box Interface
Похоже, что только для Линукса.
Интересно, сколько тут взрослых мальчиков с Нюком под Линуксом...
https://github.com/Theo-SAMINADIN-td/NukeSamurai
@cgevent
Китайский путь ИИ.
Зацепился глазом за новость.
В развитии искусственного интеллекта /ИИ/ Сбербанк во многом ориентируется на опыт Китая. Об этом в интервью агенству Синьхуа рассказал первый заместитель председателя правления Сбербанка Александр Ведяхин.
https://russian.news.cn/20241219/dde8a5b56ed8457aa461a125174dc044/c.html
Ведяхин отметил, что в развитии технологий искусственного интеллекта Китай демонстрирует гибридный подход, при котором сочетается сильное саморегулирование и точечное нормативное регулирование, что позволяет индустрии развиваться.
Судя по тому, какие видео модели выпускают китайцы (особенно в опен-сорс), там, по-моему, никакого регулирования вообще нет. Это, собственно и приводит к огромному прогрессу и к тому, что их видеогенераторы лучшие.
Вопрос о регуляции ИИ меня вообще приводит в ярость. Но это отдельная от Китая тема.
Зацепился глазом за новость.
В развитии искусственного интеллекта /ИИ/ Сбербанк во многом ориентируется на опыт Китая. Об этом в интервью агенству Синьхуа рассказал первый заместитель председателя правления Сбербанка Александр Ведяхин.
https://russian.news.cn/20241219/dde8a5b56ed8457aa461a125174dc044/c.html
Ведяхин отметил, что в развитии технологий искусственного интеллекта Китай демонстрирует гибридный подход, при котором сочетается сильное саморегулирование и точечное нормативное регулирование, что позволяет индустрии развиваться.
Судя по тому, какие видео модели выпускают китайцы (особенно в опен-сорс), там, по-моему, никакого регулирования вообще нет. Это, собственно и приводит к огромному прогрессу и к тому, что их видеогенераторы лучшие.
Вопрос о регуляции ИИ меня вообще приводит в ярость. Но это отдельная от Китая тема.
russian.news.cn
Эксклюзив: В развитии ИИ российский Сбербанк ориентируется на опыт Китая -- топ-менеджер банка
Москва, 19 декабря /Синьхуа/ -- В развитии искусственного интеллекта /ИИ/ Сбербанк во многом ориентируется на опыт Китая. Об этом в интервью корр.Синьхуа рассказал первый заместитель председателя правления Сбербанка Александр Ведяхин.
This media is not supported in your browser
VIEW IN TELEGRAM
Media is too big
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
Media is too big
VIEW IN TELEGRAM
Ну и вторая метаверс-бомба на сегодня.
Взрослые мальчики знают, кто такой Ed Catmull.
Это дяденька, который создал Пиксар
Так вот, держите:
Generative World Models for Film, Gaming, and Beyond
На борту (точнее на борду) тот самый Ed Catmull.
Проект настолько нарядный, что сначала просто осмотрите сайт:
https://odyssey.systems/introducing-explorer
Потом запишитесь в бету (внизу на сайте).
А теперь пара коментов.
1. Это все Гауссианы.
2. Это все можно втащить в UE или Блендор и редактировать. На видео есть сцена со сплатами в UE и космонавтами в Блендоре.
3. Поглядите на примеры с виртуальным продакшеном. Вот где точка входа в world models!
4. Они целятся в реалтайм, но пока одна сцена генерится 10 минут.
5. Explorer может увеличить разрешение и охват мира, плавно увеличивая генерации, чтобы заполнять любые пробелы и создавать полноценные сферические миры. LOD на ИИ-стероидах!
6. Может забирать на вход видео: video-to-world и даже world-to-world inputs.
Мир-в-мир звучит как реальныйметамир метаверс!
@cgevent
Взрослые мальчики знают, кто такой Ed Catmull.
Это дяденька, который создал Пиксар
Так вот, держите:
Generative World Models for Film, Gaming, and Beyond
На борту (точнее на борду) тот самый Ed Catmull.
Проект настолько нарядный, что сначала просто осмотрите сайт:
https://odyssey.systems/introducing-explorer
Потом запишитесь в бету (внизу на сайте).
А теперь пара коментов.
1. Это все Гауссианы.
2. Это все можно втащить в UE или Блендор и редактировать. На видео есть сцена со сплатами в UE и космонавтами в Блендоре.
3. Поглядите на примеры с виртуальным продакшеном. Вот где точка входа в world models!
4. Они целятся в реалтайм, но пока одна сцена генерится 10 минут.
5. Explorer может увеличить разрешение и охват мира, плавно увеличивая генерации, чтобы заполнять любые пробелы и создавать полноценные сферические миры. LOD на ИИ-стероидах!
6. Может забирать на вход видео: video-to-world и даже world-to-world inputs.
Мир-в-мир звучит как реальный
@cgevent