РЕПТИЛОИДНАЯ
2.28K subscribers
427 photos
380 videos
4 files
304 links
О будущем, которое мы заслужили: AR/VR, AI, роботы, трансгуманизм.
Авторский блог Дениса Россиева. Для связи: @enuriru
Чат: @reptiloidnaya_chat
 
instagram.com/enuriru/
awesome-ar.com
Download Telegram
Media is too big
VIEW IN TELEGRAM
А вот еще одна Text-to-3D
#КакДелаКожаные

На этот раз от NVIDIA. Не так давно были похожие презентации от Meta и Google (а значит, у нас будет конкуренция по ценам и качеству).

Вот тут можно посмотреть больше примеров генерации полноценных 3D-моделей с текстурами просто по текстовому запросу.

Комментировать тут уже нечего. До момента, когда это попадет в публичный доступ, остались считанные месяцы.

А до момента, когда качество поднимется до уровня DALLE 2 или Midjourney (результат работы которых уже часто почти невозможно отличить от человеческого) — максимум год-полтора.

Совет всем творческим только один: срочно осваивать новые инструменты и встраивать их в свой пайплайн производства.


🔴 @reptiloidnaya × #ai #generativeai #3d
А вот и очередной генератор 3D объектов по текстовому запросу.

До сих пор у нас было две проблемы:
1) Очень медленно (2-3 часа в гугл колабе).
2) Очень некачественно и шакально.

Как пишут эйай ньюз, эта модель работает примерно в 600(!) раз быстрее — первая проблема решена. Вторую тоже рано или поздно решат. Более того, опубликован код и веса, то есть можно это все скачать и запустить локально, если вы шарите.

Художников уже победили. Все. ИИ рисует лучше. На очереди 3D-артисты.

Если вы еще не поняли — учиться рисовать сейчас можно только ради фана. Тренировать скилл в коммерческих целях больше не имеет никакого смысла, особенно если вы новичок. Это уже свершившийся факт.

Что касается 3D... Пожалуй, тоже можно не начинать. Пока вы дойдете до какого-то хорошего базового уровня, нейронки это будут делать в один клик.

Что делать? Учиться использовать новые инструменты и тренировать софт-скиллы: общение с другими кожаными, которое и позволит находить проекты и зарабатывать деньги.

Среди 100 людей, вооруженных нейронками, работу получит тот, у кого лучше подвешен язык.


🔴 @reptiloidnaya × #ai #generativeai #3d
Генерируем 3D нейронками

К сожалению, кожаные тридешники пока еще нужны и качество генерации 3D моделей нейронками составляет примерно 10 шакалов из 10. Тем не менее, технический прогресс постепенно движется вперед.

Раньше для генерации 3D я пользовался Luma. Плюсы — быстро. Минусы — мало контроля.

И тут на днях обновился Meshy. Что есть:
- Стандартная генерация Text-to-3D
- Image-to-3D — можно быстро сгенерировать концепт-арт в Midjourney или DALLE 3, а еще лучше в Stable Diffusion с максимальным уровнем контроля и гибкости, а уже потом получить 3D.
- AI Texturing — великолепный тул для тридешников, с помощью которого можно сгенерировать текстуры для вашей готовой 3D-модели. Умеет сохранять оригинальный UV и генерировать полноценный набор PBR текстур. И, наконец, полный отвал башки — текстуры можно генерировать не только из текстового промта, но и из концепт арта. То есть: генерируете красивый концепт в Midjourney, моделите с нуля или на основе сгенерированного прототипа, генерируете текстуры, дорабатываете.


🔴 @reptiloidnaya × #ai #generativeai #3d
AI-Texturing в Meshy.

Если с 3D генерацией все довольно сложно, хотя определенные успехи уже есть у некоторых сервисов (о них позже), то текстурирование при помощи диффузионных моделей работает очень даже неплохо.

Конечно, это не всегда годится для серьезного использования, но отлично подходит для быстрого прототипирования или вдохновения. Можно показывать клиенту, потом дорабатывать руками!

Делается все очень просто:
1) Грузим модельку.
2) Описываем объект.
3) Вводим текстовый промт или загружаем концепт-арт(!).
4) Также доступен негативный промт — что мы НЕ хотим видеть в результате.
5) Выбираем стиль.
6) Крутая опция — Use Original UV, которая позволяет генерить текстуры под красивую развертку, которую вы сами сделали. Либо можно сделать ее автоматически.
7) Generate PBR Maps — Meshy умеет создавать карты цвета, металлик, рафнес, нормали и прочее.

Вот пара примеров, которые я сделал в Meshy.

Если осьминог вышел несколько шакальным (и многоглазым, аки хтоническое чудовище Кинга), то кристаллы уже ничего!

Пост не рекламный


🔴 @reptiloidnaya × #ai #generativeai #3d
🏞️ Объемные фото на Apple Vision Pro

Сначала даже не хотел писать этот пост. Сейчас поймете почему.

В общем, то что Apple Vision Pro умеет снимать 3D-фото было известно. А в новой версии visionOS 2.0 добавили конвертер, который из плоских фоток делает объемные, используя ИИ-карту глубины. Да, работает это все нереально круто.

Однако, записав видео, я обнаружил, что на записи эффекта НЕ ВИДНО ВООБЩЕ. Я думал, что 3D-фото устроены примерно так — т.е. плоская фотка как бы «выдавливается» в пространстве, используя карту глубины, и при движении головы будет виден параллакс. Оказалось, Apple Vision Pro создает нейронкой версию для второго глаза (итого две плоские фотки — что логично, фоткает-то он также).

Чтобы хоть как-то показать вам эффект, я сделал две стереограммы. Первая — параллельная (приятнее картинка: для тех, кто умеет), вторая — перекрестная (проще научиться).

Как посмотреть перекрестную стереограмму (вторая картинка):

1) Откройте фото на телефоне.
2) Отодвиньте телефон от лица, на вытянутой руке.
3) Поднесите палец второй руки к носу и сфокусируйтесь на нем.
4) Двигайте палец от лица к экрану, пока две фотки не сойдутся в одну.
5) Не меняя положения глаз, переведите фокус на экран. Уберите палец.
6) Вы увидите объемную картинку.
7) Удерживая положение глаз и фокус, поднесите телефон ближе к лицу.

Вот примерно так объемные фото ощущаются внутри Apple Vision Pro, только без косоглазия и можно развернуть прямо перед собой. Фото, которые были сняты, а не сконвертированы, конечно, выглядят намного объемнее и создают мощный эффект присутствия.

Зачем оно все надо? Сложно объяснить тем, кто не пробовал. В общем, это просто круче. Почти как скачок в качестве — из пикселей, квадратиков и шакалов в четкое и яркое изображение.

Получилось увидеть объем?


🔴 @reptiloidnaya × #apple #visionpro #3d
Media is too big
VIEW IN TELEGRAM
Прогресс в ИИ-генерации 3D

Одна из главных проблем в генерации 3D на сегодняшний день — топология. Сгенерированные модели хоть и красивые, но просто не подходят для анимации и серьезного продакшна — куча корявых полигонов, разбросанных как попало.

И тут на днях китайцы показали MeshAnything: эта штука пытается построить что-то более-менее вменяемое. Все еще далеко до идеала, но уже намного лучше того, что было.

Думаю, в течение нескольких лет вопрос решится и ворклфлоу 3D-моделлинга значительно изменится. Врядли будет генерация всего и сразу, но однозначно появится качественная генерация каких-то несложных объектов. Плюс интерфейсы управления более комплексными объектами — например, выбрать часть модели и перегенерировать геометрию по текстовому запросу или референсу, вместе с материалами и текстурами — также, как сейчас работает инпеинтинг для изображений.

🔴 @reptiloidnaya × #ai #generativeai #3d