Творим в Метавселенной
#Metaverse
Если исключить тот факт, что таскать VR-ведро на голове длительное время не очень-то и удобно, то вот рисовать, скульптить и 3д-моделить в виаре — как минимум весело, а результат получается весьма приличный, даже если вы совсем безрукий.
Возможно, для нашего мозга просто более естественно работать с объектами в 3д-пространстве, чем крутить что-то на плоском экране.
Так вот. Метаверс грядет, и навык создания контента будет востребован.
Поэтому рекомендую вот прям щас пойти и купить себе шлем. Meta Quest 2. Продается везде.
Цена вопроса — около $400. Компьютер не нужен, шлем автономный.
Дальше ставим софт (он либо бесплатный, либо стоит 20 баксов, ну либо как обычно 🏴☠️)
— Tilt Brush — рисовалка
— Multi Brush — совместная рисовалка
— SculptrVR — приложение для скульптинга
— Gravity Sketch — еще одна рисовалка
— PaintingVR — рисовалка на плоском холсте (мне не очень зашла, но можете попробовать)
Созданные объекты можно легко экспортировать — дальше хоть в Spark AR, хоть в NFT.
#Metaverse
Если исключить тот факт, что таскать VR-ведро на голове длительное время не очень-то и удобно, то вот рисовать, скульптить и 3д-моделить в виаре — как минимум весело, а результат получается весьма приличный, даже если вы совсем безрукий.
Возможно, для нашего мозга просто более естественно работать с объектами в 3д-пространстве, чем крутить что-то на плоском экране.
Так вот. Метаверс грядет, и навык создания контента будет востребован.
Поэтому рекомендую вот прям щас пойти и купить себе шлем. Meta Quest 2. Продается везде.
Цена вопроса — около $400. Компьютер не нужен, шлем автономный.
Дальше ставим софт (он либо бесплатный, либо стоит 20 баксов, ну либо как обычно 🏴☠️)
— Tilt Brush — рисовалка
— Multi Brush — совместная рисовалка
— SculptrVR — приложение для скульптинга
— Gravity Sketch — еще одна рисовалка
— PaintingVR — рисовалка на плоском холсте (мне не очень зашла, но можете попробовать)
Созданные объекты можно легко экспортировать — дальше хоть в Spark AR, хоть в NFT.
Media is too big
VIEW IN TELEGRAM
Инверсная кинематика / симуляция ткани в Spark AR
#AR
Давно ничего не писал про наш любимый #SparkAR. Для той части моей аудитории, которая не в курсе — это движок для разработки AR-эффектов в Instagram и Facebook.
Так вот. Физические симуляции я начал разрабатывать еще год назад. Пару месяцев назад удалось увеличить производительность примерно в 30 раз.
Если ранее даже одна цепочка костей ложила FPS до 20, то теперь можно сделать 20-30 цепочек костей без падения FPS вообще на большинстве телефонов.
И теперь, кажется, наконец удалось сделать внятные коллайдеры: т.е. ваши серьги, волосы и прочие щупальца не будут проваливаться в голову.
Один из эффектов с физикой: https://www.instagram.com/ar/574299360686698/
Релиз — когда-нибудь 🤡
#AR
Давно ничего не писал про наш любимый #SparkAR. Для той части моей аудитории, которая не в курсе — это движок для разработки AR-эффектов в Instagram и Facebook.
Так вот. Физические симуляции я начал разрабатывать еще год назад. Пару месяцев назад удалось увеличить производительность примерно в 30 раз.
Если ранее даже одна цепочка костей ложила FPS до 20, то теперь можно сделать 20-30 цепочек костей без падения FPS вообще на большинстве телефонов.
И теперь, кажется, наконец удалось сделать внятные коллайдеры: т.е. ваши серьги, волосы и прочие щупальца не будут проваливаться в голову.
Один из эффектов с физикой: https://www.instagram.com/ar/574299360686698/
Релиз — когда-нибудь 🤡
This media is not supported in your browser
VIEW IN TELEGRAM
📚Как будет выглядеть выбор книг с AR-очками в будущем
---
Главный вопрос в том, зачем будут нужны бумажные книги (как и кожаные читатели) в нашем киберпанке с AR-очками, если любую книгу можно будет просто развернуть перед глазами в любой момент.
Видео утащил у @VR_Journal #AR
---
Главный вопрос в том, зачем будут нужны бумажные книги (как и кожаные читатели) в нашем киберпанке с AR-очками, если любую книгу можно будет просто развернуть перед глазами в любой момент.
Видео утащил у @VR_Journal #AR
This media is not supported in your browser
VIEW IN TELEGRAM
«Технологии виртуальной реальности помогут в образовании, строительстве, медицине».
Технологии виртуальной реальности:
#VR
Технологии виртуальной реальности:
#VR
Настоящий AR все ближе
#AR
Не так давно Apple добавили в свой движок ARKit новую фичу — Room Plan позволяет в автоматическом режиме определить стены, пол, потолок и предметы мебели.
Ребята воспользовались фичей и реализовали AR-инпеинтинг — приложение строит план комнаты, собирает текстуры со стен и пола, а затем закрашивает мебель и другие объекты так, что в результате получается пустая комната, достаточно близко напоминающая исходную.
Новый шаг в сторону AR, который не просто добавляет объекты в пространство, а реалистично меняет само окружение.
Отсюда
#AR
Не так давно Apple добавили в свой движок ARKit новую фичу — Room Plan позволяет в автоматическом режиме определить стены, пол, потолок и предметы мебели.
Ребята воспользовались фичей и реализовали AR-инпеинтинг — приложение строит план комнаты, собирает текстуры со стен и пола, а затем закрашивает мебель и другие объекты так, что в результате получается пустая комната, достаточно близко напоминающая исходную.
Новый шаг в сторону AR, который не просто добавляет объекты в пространство, а реалистично меняет само окружение.
Отсюда
Величайшей ошибкой XXI века станет недооценивание искусственного интеллекта. Все интерпретации этой фразы верны. #AI
This media is not supported in your browser
VIEW IN TELEGRAM
Подборка нейросетей для криэйтора
#ML #AI #Art
В последнее время много пишу про нейронки и прочий ИИ — вот тут мои друзья из Phygital+Art собрали коллекцию ссылок на самые полезные. Почти 300(!) штук.
Там все — генерация изображений из текста, инпеинтинг (дорисовывание), апскейл (увеличение разрешения), удаление фона и много всего другого, что пригодится любому творцу в диджитал сфере.
Часть из них имеет человеческий интерфейс, часть требует умения запускать Google Colab (про это, пожалуй, даже запишу парочку базовых туториалов).
➡️ https://library.phygital.plus
#ML #AI #Art
В последнее время много пишу про нейронки и прочий ИИ — вот тут мои друзья из Phygital+Art собрали коллекцию ссылок на самые полезные. Почти 300(!) штук.
Там все — генерация изображений из текста, инпеинтинг (дорисовывание), апскейл (увеличение разрешения), удаление фона и много всего другого, что пригодится любому творцу в диджитал сфере.
Часть из них имеет человеческий интерфейс, часть требует умения запускать Google Colab (про это, пожалуй, даже запишу парочку базовых туториалов).
➡️ https://library.phygital.plus
This media is not supported in your browser
VIEW IN TELEGRAM
Если бы не кривой липсинк (синхронизация речи и движения губ), я бы, пожалуй, и не подумал, что видео полностью синтезировано.
#ML
Синтез работает на основе 10-минутного семпл видео, в котором вы говорите и кривляетесь на камеру.
Дальше настраиваем окружение, вводим текст, получаем аватара.
Перспективы использования повсеместные: образование, развлечения, реклама. Все что вы так хотели сказать на камеру, но не находили времени, можно будет наконец сказать.
Профессиональных кожаных спикеров, конечно, пока что не заменит, но сильно облегчит вход в такой продакшн для обычных людей: не нужна студия, свет, микрофон, камера, оператор, монтажёр.
Заметили, что все новые ИИ-технологии, которые мы в последнее время наблюдаем, именно это и делают: облегчают вход?
Вот тут можно подать заявку в waitlist: https://spiritme.tech
#ML
Синтез работает на основе 10-минутного семпл видео, в котором вы говорите и кривляетесь на камеру.
Дальше настраиваем окружение, вводим текст, получаем аватара.
Перспективы использования повсеместные: образование, развлечения, реклама. Все что вы так хотели сказать на камеру, но не находили времени, можно будет наконец сказать.
Профессиональных кожаных спикеров, конечно, пока что не заменит, но сильно облегчит вход в такой продакшн для обычных людей: не нужна студия, свет, микрофон, камера, оператор, монтажёр.
Заметили, что все новые ИИ-технологии, которые мы в последнее время наблюдаем, именно это и делают: облегчают вход?
Вот тут можно подать заявку в waitlist: https://spiritme.tech
This media is not supported in your browser
VIEW IN TELEGRAM
Фиджитал-одежда наконец дошла до больших брендов
#DigitalFashion
Возможно, вы слышали о том, что Nike купили RTFKT — студию, специализирующуюся на NFT (да-да) и цифровой моде.
Несколько дней назад Nike × RTFKT показали фиджитал худи — физическую одежду с куаркодами и трекерами, активирующими AR-слой. Покупаться будет, естественно, через NFT.
О том, что вся эта история очень скоро доедет до мировых брендов я предупреждал еще год назад — когда мы с моими друзьями из FFFACE и FINCH сделали большую международную коллаборацию и дропнули коллекцию одежды с AR-принтами. Которая, кстати, выставлялась на Expo Dubai и взяла престижную награду на Ukrainian Fashion Week.
Инстаграм и Снепчат уже тестируют AR × NFT на своих платформах.
В общем, поезд в кибер-фешн уже отправился. Но запрыгнуть еще можно успеть.
P.S. Если меня читает Balenciaga или какой-то другой крутой модный бренд, го коллаб. С Tiffany и Elie Saab я уже поработал, хочу еще.
#DigitalFashion
Возможно, вы слышали о том, что Nike купили RTFKT — студию, специализирующуюся на NFT (да-да) и цифровой моде.
Несколько дней назад Nike × RTFKT показали фиджитал худи — физическую одежду с куаркодами и трекерами, активирующими AR-слой. Покупаться будет, естественно, через NFT.
О том, что вся эта история очень скоро доедет до мировых брендов я предупреждал еще год назад — когда мы с моими друзьями из FFFACE и FINCH сделали большую международную коллаборацию и дропнули коллекцию одежды с AR-принтами. Которая, кстати, выставлялась на Expo Dubai и взяла престижную награду на Ukrainian Fashion Week.
Инстаграм и Снепчат уже тестируют AR × NFT на своих платформах.
В общем, поезд в кибер-фешн уже отправился. Но запрыгнуть еще можно успеть.
P.S. Если меня читает Balenciaga или какой-то другой крутой модный бренд, го коллаб. С Tiffany и Elie Saab я уже поработал, хочу еще.
This media is not supported in your browser
VIEW IN TELEGRAM
DALLE открывает коммерческую лицензию
#ML #AI #Art #КакДелаКожаные
Нейросеть, генерирующая изображения из текста, про которую я тут пишу примерно постоянно, наконец разрешила использование сгенерированного арта в любых(!) коммерческих целях.
Будет 50 бесплатных генераций на старте, +15 каждый месяц, остальное за доллары.
Подобная лицензия с подпиской уже есть у Midjourney. Недавно похожий инструмент анонсировала и Meta. Да и появление бесплатных качественных генераторов — вопрос очень небольшого времени.
Нижний сегмент рынка кожаных иллюстраторов исчезнет в течение 2-3 лет, а более опытные специалисты получат инструмент значительного упрощения своей работы.
Скорее всего, публичный доступ будет открыт уже очень скоро. Waitlist: https://labs.openai.com/waitlist
P.S. Этот арт я сделал в DALLE с небольшой примесью монтажа. Ни одного пикселя не было нарисовано человеком.
#ML #AI #Art #КакДелаКожаные
Нейросеть, генерирующая изображения из текста, про которую я тут пишу примерно постоянно, наконец разрешила использование сгенерированного арта в любых(!) коммерческих целях.
Будет 50 бесплатных генераций на старте, +15 каждый месяц, остальное за доллары.
Подобная лицензия с подпиской уже есть у Midjourney. Недавно похожий инструмент анонсировала и Meta. Да и появление бесплатных качественных генераторов — вопрос очень небольшого времени.
Нижний сегмент рынка кожаных иллюстраторов исчезнет в течение 2-3 лет, а более опытные специалисты получат инструмент значительного упрощения своей работы.
Скорее всего, публичный доступ будет открыт уже очень скоро. Waitlist: https://labs.openai.com/waitlist
P.S. Этот арт я сделал в DALLE с небольшой примесью монтажа. Ни одного пикселя не было нарисовано человеком.
Media is too big
VIEW IN TELEGRAM
Анимация 3D-персонажа за 5 минут для этих ваших метавселенных
#AR #Metaverse #Animation
Возможности ИИ растут и упрощают работу с каждым днем. Сегодня рассказываю, как легко и дешево сделать анимацию 3D-персонажа.
1. В данном примере персонаж — это мой собственный 3D-скан (довольно посредственного качества, но пойдет), сделанный с помощью in3D. Приложение сканит телефоном и выдает уже зариганную(!) в стандарте Mixamo(!!) 3D-модель. 5 сканов в месяц стоят $30 (~1800 ₽).
Само собой, можно взять почти любую другую 3D-модель с готовым ригом, или автоматически(!!!) и бесплатно ригнуть тем же Mixamo.
2. Регистрируемся на DeepMotion. Для теста хватит и бесплатного аккаунта. Самый дешевый — $12 (~18 анимаций) в месяц, самый «дорогой» — $83 на 720(!!!) анимаций. Я кофе выпиваю на сумму в 2-3 раза выше.
3. Cнимаем себя на видео, делая нужные движения.
4. Идем в раздел 3D Models, загружаем модель, тыкаем Create Animation и загружаем видео. Рекомендую поставить галочку Physics — она уменьшит шансы на самопересечение меша (чтобы руки не проваливались в тело)
5. На выходе скачиваем вашу модель с анимацией в формате FBX. PROFIT!
#AR #Metaverse #Animation
Возможности ИИ растут и упрощают работу с каждым днем. Сегодня рассказываю, как легко и дешево сделать анимацию 3D-персонажа.
1. В данном примере персонаж — это мой собственный 3D-скан (довольно посредственного качества, но пойдет), сделанный с помощью in3D. Приложение сканит телефоном и выдает уже зариганную(!) в стандарте Mixamo(!!) 3D-модель. 5 сканов в месяц стоят $30 (~1800 ₽).
Само собой, можно взять почти любую другую 3D-модель с готовым ригом, или автоматически(!!!) и бесплатно ригнуть тем же Mixamo.
2. Регистрируемся на DeepMotion. Для теста хватит и бесплатного аккаунта. Самый дешевый — $12 (~18 анимаций) в месяц, самый «дорогой» — $83 на 720(!!!) анимаций. Я кофе выпиваю на сумму в 2-3 раза выше.
3. Cнимаем себя на видео, делая нужные движения.
4. Идем в раздел 3D Models, загружаем модель, тыкаем Create Animation и загружаем видео. Рекомендую поставить галочку Physics — она уменьшит шансы на самопересечение меша (чтобы руки не проваливались в тело)
5. На выходе скачиваем вашу модель с анимацией в формате FBX. PROFIT!
DIGITAL FASHION
#DigitalFashion
Подборка цифровых образов от Yimeng Yu.
Технически такая одежда создается через пайплайн следующего вида:
1. Берется/снимается фотография.
2. В Marvellous Designer или CLO (это софт для моделинга одежды), или в другом 3D-софте выставляется в ту же позу манекен.
3. Любыми доступными инструментами создается одежда.
4. Рендерится, а затем руками фотошопится на снимок из первого пункта.
Это не реалтайм — применяться может только на фото (т.е. никакого AR или одевания аватаров в метаверсах), но зато можно добиться впечатляющего качества.
Одежда, созданная в MD или CLO, как правило, также легко повторно используется и надевается на манекен в любой другой позе, соответственно и на другие фотографии (также с помощью фотошопа).
А о реалтайм/AR решениях напишу в следующий раз.
#DigitalFashion
Подборка цифровых образов от Yimeng Yu.
Технически такая одежда создается через пайплайн следующего вида:
1. Берется/снимается фотография.
2. В Marvellous Designer или CLO (это софт для моделинга одежды), или в другом 3D-софте выставляется в ту же позу манекен.
3. Любыми доступными инструментами создается одежда.
4. Рендерится, а затем руками фотошопится на снимок из первого пункта.
Это не реалтайм — применяться может только на фото (т.е. никакого AR или одевания аватаров в метаверсах), но зато можно добиться впечатляющего качества.
Одежда, созданная в MD или CLO, как правило, также легко повторно используется и надевается на манекен в любой другой позе, соответственно и на другие фотографии (также с помощью фотошопа).
А о реалтайм/AR решениях напишу в следующий раз.