Forwarded from Psy Eyes (Andrey Bezryadin)
Media is too big
VIEW IN TELEGRAM
Постигаем сингулярность
Чуваки из Infinite-Realities (я писал о них ранее) довели свою систему создания 3D/4D сцен из сплатов до коммерческого состояния. Можно запечатлеть всё: от сложных динамичных кадров для кино, так и моменты с семьёй.
В полученной сцене можно свободно управлять камерой, а детализация на высочайшем уровне. Всё воспроизводится в реальном времени в 30 fps на стороннем движке, работающем в виртуальной среде с частотой 120 fps.
Женим теперь это всё с голографическими дисплеями Looking Glass и киберпанк официально прибыл.
Видео в хайрезе на Vimeo
Сайт
Чуваки из Infinite-Realities (я писал о них ранее) довели свою систему создания 3D/4D сцен из сплатов до коммерческого состояния. Можно запечатлеть всё: от сложных динамичных кадров для кино, так и моменты с семьёй.
В полученной сцене можно свободно управлять камерой, а детализация на высочайшем уровне. Всё воспроизводится в реальном времени в 30 fps на стороннем движке, работающем в виртуальной среде с частотой 120 fps.
Женим теперь это всё с голографическими дисплеями Looking Glass и киберпанк официально прибыл.
Видео в хайрезе на Vimeo
Сайт
🔥3🤯1
Forwarded from Метаверсище и ИИще (Sergey Tsyptsyn ️️)
This media is not supported in your browser
VIEW IN TELEGRAM
Принес вам забавную архитектурную ИИ-рисовалку.
Этакая nano-krea, сделанная одним человеком на коленке и питонге. Заточенная как бы под архитектурку (хотя там просто Дримшейпер модель с возможностью замены).
Полный опенсорс, несложная установка, можете сами попробовать.
Прикольная фишка - в качестве входного изображения, можно подать ему на вход захват области экрана, например окна Иллюстратора, где можно рисовать сплайнами. Справа будет ИИ-подрендер вьюпорта Иллюстратора.
Поглядите примерчики, забавно.
https://github.com/s-du/ScribbleArchitect?tab=readme-ov-file
Этакая nano-krea, сделанная одним человеком на коленке и питонге. Заточенная как бы под архитектурку (хотя там просто Дримшейпер модель с возможностью замены).
Полный опенсорс, несложная установка, можете сами попробовать.
Прикольная фишка - в качестве входного изображения, можно подать ему на вход захват области экрана, например окна Иллюстратора, где можно рисовать сплайнами. Справа будет ИИ-подрендер вьюпорта Иллюстратора.
Поглядите примерчики, забавно.
https://github.com/s-du/ScribbleArchitect?tab=readme-ov-file
👍4
Forwarded from Метаверсище и ИИще (Sergey Tsyptsyn ️️)
This media is not supported in your browser
VIEW IN TELEGRAM
Ну, за левел-дизайнеров и пропс-инженеров.
Помянул Юнити и вспомнил, что забыл написать про Holodeck - они тут подались на CVPR 2024 и обновили код на Гитхабе.
Это генератор 3Д-сцен из текста. Чем-то напоминает Прометей от Андрея Максимова.
Holodeck может генерировать различные сцены, например, игровые автоматы, спа-салоны и музеи, корректировать дизайн в зависимости от стиля и улавливать семантику сложных запросов, таких как "квартира для научного сотрудника с кошкой" и "офис профессора, который является поклонником "Звездных войн".
Он не генерирует сами объекты, он их тащит из датасета Objaverse:
Holodeck использует GPT-4 для получения знаний о том, как может выглядеть сцена, и использует 3D-ассеты из Objaverse для наполнения сцены разнообразными объектами.
Это скорее расставлятор 3Д-ассетов по текстовому запросу.
Его также используют для обучение агентов навигации в новых сценах без использования разметки и данных, созданных человеком. Источник синтетики без необходимости наруливать миры в Юнити.
Код есть, но там все из палок и Юнити.
А я увидел в сети новый термин - "Синтиверс". Это когда ваши виар-мирки или игровые локации генерируются под запрос в реальном времени. Подумал о чем-то - хоп, твой мир перед тобой.
Помянул Юнити и вспомнил, что забыл написать про Holodeck - они тут подались на CVPR 2024 и обновили код на Гитхабе.
Это генератор 3Д-сцен из текста. Чем-то напоминает Прометей от Андрея Максимова.
Holodeck может генерировать различные сцены, например, игровые автоматы, спа-салоны и музеи, корректировать дизайн в зависимости от стиля и улавливать семантику сложных запросов, таких как "квартира для научного сотрудника с кошкой" и "офис профессора, который является поклонником "Звездных войн".
Он не генерирует сами объекты, он их тащит из датасета Objaverse:
Holodeck использует GPT-4 для получения знаний о том, как может выглядеть сцена, и использует 3D-ассеты из Objaverse для наполнения сцены разнообразными объектами.
Это скорее расставлятор 3Д-ассетов по текстовому запросу.
Его также используют для обучение агентов навигации в новых сценах без использования разметки и данных, созданных человеком. Источник синтетики без необходимости наруливать миры в Юнити.
Код есть, но там все из палок и Юнити.
А я увидел в сети новый термин - "Синтиверс". Это когда ваши виар-мирки или игровые локации генерируются под запрос в реальном времени. Подумал о чем-то - хоп, твой мир перед тобой.
👍4
Media is too big
VIEW IN TELEGRAM
A Hierarchical 3D Gaussian Representation for Real-Time
Новый уровень детализации 3D Gaussian Splatting. Еще немного и это может стать следующим шагом равития 3д представлений(панорам) в картографических сервисах
https://repo-sam.inria.fr/fungraph/hierarchical-3d-gaussians/
Новый уровень детализации 3D Gaussian Splatting. Еще немного и это может стать следующим шагом равития 3д представлений(панорам) в картографических сервисах
https://repo-sam.inria.fr/fungraph/hierarchical-3d-gaussians/
👍7
Forwarded from Psy Eyes (Andrey Bezryadin)
Adobe выкатили бету Project Neo.
С его помощью можно в изометрии собрать из 3D объектов сцену, установить нужный ракурс, и потом экспортировать в редактируемом векторном формате или растре.
На втором видео пример, как в Neo делается шаблон, а дальше он вкидывается в Firefly для генерации в разных стилях на его основе.
PS: есть обратный пример — Meimu, где из SVG можно получить 3D.
Сайт
С его помощью можно в изометрии собрать из 3D объектов сцену, установить нужный ракурс, и потом экспортировать в редактируемом векторном формате или растре.
На втором видео пример, как в Neo делается шаблон, а дальше он вкидывается в Firefly для генерации в разных стилях на его основе.
PS: есть обратный пример — Meimu, где из SVG можно получить 3D.
Сайт
This media is not supported in your browser
VIEW IN TELEGRAM
Завод по производству роботов в Китае
This media is not supported in your browser
VIEW IN TELEGRAM
Adobe Substance Modeler+ KreaAi, Magnific для детализации и Leonardo AI для движения
👍6
Forwarded from Метаверсище и ИИще (Sergey Tsyptsyn ️️)
This media is not supported in your browser
VIEW IN TELEGRAM
Продолжаем за 3Д.
Rodin Gen-1 атакует меня письмами.
Тизерят новую модель, а пока предлагают поиграть с их демо вот тут:
https://huggingface.co/spaces/DEEMOSTECH/Rodin
Но я пошел к ним на сайт, там гораздо больше опций и задал им перцу, результаты ниже.
Rodin Gen-1 атакует меня письмами.
Тизерят новую модель, а пока предлагают поиграть с их демо вот тут:
https://huggingface.co/spaces/DEEMOSTECH/Rodin
Но я пошел к ним на сайт, там гораздо больше опций и задал им перцу, результаты ниже.
👍4
Forwarded from Нейронавт | Нейросети в творчестве
Tripo 2.0
Новый генератор 3D моделей с PBR текстурами по тексту и по изображению.
Генерация занимает несколько минут, и вы получаете 4 варианта модели.
На старте дают 600 кредитов, это на 10 генераций по 60 кредитов.
После генерации вам предлагают сделать риг за 20 кредитов и можно назначить на модель анимацию.
Конвертирование и сохранение модели, кстати, тоже стоит - 10 кредитов.
Можно сделать ретопологию.
Короче, инструмент серьезный+-
Тест Бендера - хорошо.
Го тестить!
#textto3d #imageto3d
Новый генератор 3D моделей с PBR текстурами по тексту и по изображению.
Генерация занимает несколько минут, и вы получаете 4 варианта модели.
На старте дают 600 кредитов, это на 10 генераций по 60 кредитов.
После генерации вам предлагают сделать риг за 20 кредитов и можно назначить на модель анимацию.
Конвертирование и сохранение модели, кстати, тоже стоит - 10 кредитов.
Можно сделать ретопологию.
Короче, инструмент серьезный+-
Тест Бендера - хорошо.
Го тестить!
#textto3d #imageto3d
👍1
This media is not supported in your browser
VIEW IN TELEGRAM
Визуализация работы нейронной сети
👍7⚡4
Forwarded from Техно-Трендс
Найден самый простой и эффективный гайд по установке локальной языковой модели на ваш компьютер!
Теперь многофункциональную LLAMA 3 8B можно запустить локально, не передавая свои данные на сторонние серверы. Для этого достаточно ноутбука с GTX 1650 Ti и 4 GB VRAM. Вот как это сделать:
⤷ Зайдите на сайт LM Studio;
⤷ Скачайте установочный файл для вашей операционной системы;
⤷ В поиске введите «QuantFactory/Meta-Llama-3-8B-Instruct-GGUF» и выберите нужную версию;
⤷ Откройте окно нейронки и загрузите QuantFactory — готово!
2️⃣ Habr Media
Теперь многофункциональную LLAMA 3 8B можно запустить локально, не передавая свои данные на сторонние серверы. Для этого достаточно ноутбука с GTX 1650 Ti и 4 GB VRAM. Вот как это сделать:
⤷ Зайдите на сайт LM Studio;
⤷ Скачайте установочный файл для вашей операционной системы;
⤷ В поиске введите «QuantFactory/Meta-Llama-3-8B-Instruct-GGUF» и выберите нужную версию;
⤷ Откройте окно нейронки и загрузите QuantFactory — готово!
Please open Telegram to view this post
VIEW IN TELEGRAM
Forwarded from Метаверсище и ИИще (Sergey Tsyptsyn ️️)
This media is not supported in your browser
VIEW IN TELEGRAM
Лама - это не только ценный мешь.
Это ещё и понимание меша как текстового описания.
Действительно: obj или usd - это же текст
Интерн из нвидии соорудил интересный проект из LLama и 3Д.
Там и генерация и "понимание" 3д и описание.
"Новый подход, который представляет координаты вершин и определения граней 3D-сетки в виде обычного текста, что позволяет напрямую интегрировать их с LLM без расширения словарного запаса."
Реп на гитхабе есть, но код ещё не залит.
https://research.nvidia.com/labs/toronto-ai/LLaMA-Mesh/
@cgevent
Это ещё и понимание меша как текстового описания.
Действительно: obj или usd - это же текст
Интерн из нвидии соорудил интересный проект из LLama и 3Д.
Там и генерация и "понимание" 3д и описание.
"Новый подход, который представляет координаты вершин и определения граней 3D-сетки в виде обычного текста, что позволяет напрямую интегрировать их с LLM без расширения словарного запаса."
Реп на гитхабе есть, но код ещё не залит.
https://research.nvidia.com/labs/toronto-ai/LLaMA-Mesh/
@cgevent
🔥1
ChatHouseDiffusion — это интересная нейросеть, которая сочетает в себе возможности больших языковых моделей и диффузионных сетей для генерации планировок на основе текстовых запросов. Она преобразует вводные текстовые данные о помещениях в структурированные JSON-форматы, что позволяет точно воссоздавать расположение комнат и их взаимосвязи. Помимо этого, модель поддерживает редактирование уже сгенерированных планов, что позволяет доработать результат без необходимости переработки всего проекта. Это подход имеет значительный потенциал для упрощения процесса проектирования и создания более гибких решений в архитектуре.
ChatHouseDiffusion: Prompt-Guided Generation and Editingof Floor Plans
ChatHouseDiffusion: Prompt-Guided Generation and Editingof Floor Plans
🔥5👍1