РЕПТИЛОИДНАЯ
2.28K subscribers
427 photos
380 videos
4 files
304 links
О будущем, которое мы заслужили: AR/VR, AI, роботы, трансгуманизм.
Авторский блог Дениса Россиева. Для связи: @enuriru
Чат: @reptiloidnaya_chat
 
instagram.com/enuriru/
awesome-ar.com
Download Telegram
Творим в Метавселенной
#Metaverse

Если исключить тот факт, что таскать VR-ведро на голове длительное время не очень-то и удобно, то вот рисовать, скульптить и 3д-моделить в виаре — как минимум весело, а результат получается весьма приличный, даже если вы совсем безрукий.

Возможно, для нашего мозга просто более естественно работать с объектами в 3д-пространстве, чем крутить что-то на плоском экране.

Так вот. Метаверс грядет, и навык создания контента будет востребован.

Поэтому рекомендую вот прям щас пойти и купить себе шлем. Meta Quest 2. Продается везде.
Цена вопроса — около $400. Компьютер не нужен, шлем автономный.

Дальше ставим софт (он либо бесплатный, либо стоит 20 баксов, ну либо как обычно 🏴‍☠️)
— Tilt Brush — рисовалка
— Multi Brush — совместная рисовалка
— SculptrVR — приложение для скульптинга
— Gravity Sketch — еще одна рисовалка
— PaintingVR — рисовалка на плоском холсте (мне не очень зашла, но можете попробовать)

Созданные объекты можно легко экспортировать — дальше хоть в Spark AR, хоть в NFT.
Media is too big
VIEW IN TELEGRAM
Инверсная кинематика / симуляция ткани в Spark AR
#AR

Давно ничего не писал про наш любимый #SparkAR. Для той части моей аудитории, которая не в курсе — это движок для разработки AR-эффектов в Instagram и Facebook.

Так вот. Физические симуляции я начал разрабатывать еще год назад. Пару месяцев назад удалось увеличить производительность примерно в 30 раз.

Если ранее даже одна цепочка костей ложила FPS до 20, то теперь можно сделать 20-30 цепочек костей без падения FPS вообще на большинстве телефонов.

И теперь, кажется, наконец удалось сделать внятные коллайдеры: т.е. ваши серьги, волосы и прочие щупальца не будут проваливаться в голову.

Один из эффектов с физикой: https://www.instagram.com/ar/574299360686698/

Релиз — когда-нибудь 🤡
This media is not supported in your browser
VIEW IN TELEGRAM
📚Как будет выглядеть выбор книг с AR-очками в будущем

---

Главный вопрос в том, зачем будут нужны бумажные книги (как и кожаные читатели) в нашем киберпанке с AR-очками, если любую книгу можно будет просто развернуть перед глазами в любой момент.

Видео утащил у @VR_Journal #AR
This media is not supported in your browser
VIEW IN TELEGRAM
«Технологии виртуальной реальности помогут в образовании, строительстве, медицине».

Технологии виртуальной реальности:
#VR
Настоящий AR все ближе
#AR

Не так давно Apple добавили в свой движок ARKit новую фичу — Room Plan позволяет в автоматическом режиме определить стены, пол, потолок и предметы мебели.

Ребята воспользовались фичей и реализовали AR-инпеинтинг — приложение строит план комнаты, собирает текстуры со стен и пола, а затем закрашивает мебель и другие объекты так, что в результате получается пустая комната, достаточно близко напоминающая исходную.

Новый шаг в сторону AR, который не просто добавляет объекты в пространство, а реалистично меняет само окружение.

Отсюда
Величайшей ошибкой XXI века станет недооценивание искусственного интеллекта. Все интерпретации этой фразы верны. #AI
This media is not supported in your browser
VIEW IN TELEGRAM
Подборка нейросетей для криэйтора
#ML #AI #Art

В последнее время много пишу про нейронки и прочий ИИ — вот тут мои друзья из Phygital+Art собрали коллекцию ссылок на самые полезные. Почти 300(!) штук.

Там все — генерация изображений из текста, инпеинтинг (дорисовывание), апскейл (увеличение разрешения), удаление фона и много всего другого, что пригодится любому творцу в диджитал сфере.

Часть из них имеет человеческий интерфейс, часть требует умения запускать Google Colab (про это, пожалуй, даже запишу парочку базовых туториалов).

➡️ https://library.phygital.plus
This media is not supported in your browser
VIEW IN TELEGRAM
Если бы не кривой липсинк (синхронизация речи и движения губ), я бы, пожалуй, и не подумал, что видео полностью синтезировано.
#ML

Синтез работает на основе 10-минутного семпл видео, в котором вы говорите и кривляетесь на камеру.

Дальше настраиваем окружение, вводим текст, получаем аватара.

Перспективы использования повсеместные: образование, развлечения, реклама. Все что вы так хотели сказать на камеру, но не находили времени, можно будет наконец сказать.

Профессиональных кожаных спикеров, конечно, пока что не заменит, но сильно облегчит вход в такой продакшн для обычных людей: не нужна студия, свет, микрофон, камера, оператор, монтажёр.

Заметили, что все новые ИИ-технологии, которые мы в последнее время наблюдаем, именно это и делают: облегчают вход?

Вот тут можно подать заявку в waitlist: https://spiritme.tech
This media is not supported in your browser
VIEW IN TELEGRAM
Фиджитал-одежда наконец дошла до больших брендов
#DigitalFashion

Возможно, вы слышали о том, что Nike купили RTFKT — студию, специализирующуюся на NFT (да-да) и цифровой моде.

Несколько дней назад Nike × RTFKT показали фиджитал худи — физическую одежду с куаркодами и трекерами, активирующими AR-слой. Покупаться будет, естественно, через NFT.

О том, что вся эта история очень скоро доедет до мировых брендов я предупреждал еще год назад — когда мы с моими друзьями из FFFACE и FINCH сделали большую международную коллаборацию и дропнули коллекцию одежды с AR-принтами. Которая, кстати, выставлялась на Expo Dubai и взяла престижную награду на Ukrainian Fashion Week.

Инстаграм и Снепчат уже тестируют AR × NFT на своих платформах.

В общем, поезд в кибер-фешн уже отправился. Но запрыгнуть еще можно успеть.

P.S. Если меня читает Balenciaga или какой-то другой крутой модный бренд, го коллаб. С Tiffany и Elie Saab я уже поработал, хочу еще.
This media is not supported in your browser
VIEW IN TELEGRAM
DALLE открывает коммерческую лицензию
#ML #AI #Art #КакДелаКожаные

Нейросеть, генерирующая изображения из текста, про которую я тут пишу примерно постоянно, наконец разрешила использование сгенерированного арта в любых(!) коммерческих целях.

Будет 50 бесплатных генераций на старте, +15 каждый месяц, остальное за доллары.

Подобная лицензия с подпиской уже есть у Midjourney. Недавно похожий инструмент анонсировала и Meta. Да и появление бесплатных качественных генераторов — вопрос очень небольшого времени.

Нижний сегмент рынка кожаных иллюстраторов исчезнет в течение 2-3 лет, а более опытные специалисты получат инструмент значительного упрощения своей работы.

Скорее всего, публичный доступ будет открыт уже очень скоро. Waitlist: https://labs.openai.com/waitlist

P.S. Этот арт я сделал в DALLE с небольшой примесью монтажа. Ни одного пикселя не было нарисовано человеком.
Media is too big
VIEW IN TELEGRAM
Анимация 3D-персонажа за 5 минут для этих ваших метавселенных
#AR #Metaverse #Animation

Возможности ИИ растут и упрощают работу с каждым днем. Сегодня рассказываю, как легко и дешево сделать анимацию 3D-персонажа.

1. В данном примере персонаж — это мой собственный 3D-скан (довольно посредственного качества, но пойдет), сделанный с помощью in3D. Приложение сканит телефоном и выдает уже зариганную(!) в стандарте Mixamo(!!) 3D-модель. 5 сканов в месяц стоят $30 (~1800 ₽).

Само собой, можно взять почти любую другую 3D-модель с готовым ригом, или автоматически(!!!) и бесплатно ригнуть тем же Mixamo.


2. Регистрируемся на DeepMotion. Для теста хватит и бесплатного аккаунта. Самый дешевый — $12 (~18 анимаций) в месяц, самый «дорогой» — $83 на 720(!!!) анимаций. Я кофе выпиваю на сумму в 2-3 раза выше.

3. Cнимаем себя на видео, делая нужные движения.

4. Идем в раздел 3D Models, загружаем модель, тыкаем Create Animation и загружаем видео. Рекомендую поставить галочку Physics — она уменьшит шансы на самопересечение меша (чтобы руки не проваливались в тело)

5. На выходе скачиваем вашу модель с анимацией в формате FBX. PROFIT!
DIGITAL FASHION
#DigitalFashion

Подборка цифровых образов от Yimeng Yu.

Технически такая одежда создается через пайплайн следующего вида:

1. Берется/снимается фотография.
2. В Marvellous Designer или CLO (это софт для моделинга одежды), или в другом 3D-софте выставляется в ту же позу манекен.
3. Любыми доступными инструментами создается одежда.
4. Рендерится, а затем руками фотошопится на снимок из первого пункта.

Это не реалтайм — применяться может только на фото (т.е. никакого AR или одевания аватаров в метаверсах), но зато можно добиться впечатляющего качества.

Одежда, созданная в MD или CLO, как правило, также легко повторно используется и надевается на манекен в любой другой позе, соответственно и на другие фотографии (также с помощью фотошопа).

А о реалтайм/AR решениях напишу в следующий раз.