Forwarded from UX Live 🔥
Media is too big
VIEW IN TELEGRAM
Куртка обезумел, сможем ли мы совладать со зловещей долиной.
Похоже с осени 2026 мы официально начинаем жить в Слопопотамске
Похоже с осени 2026 мы официально начинаем жить в Слопопотамске
Forwarded from CGIT_Vines (Marvin Heemeyer)
This media is not supported in your browser
VIEW IN TELEGRAM
Я напишу чуть подробнее про то, как работает DLSS, просто чтобы понимать, что мы будем скармливать на вход этой технологии через пару лет.
Сегодняшний DLSS 4.5 дорисовывает 23 из 24 пикселей каждый фрейм, он, в целом, делает это неплохо, но абсолютно не контролируем в плане визуальной составляющей. Главный минус, конечно же, в том, что каждый раз на каждый фрейм нужно делать новый просчет, потому что в таком подходе нет предсказуемости, каждый новый фрейм новый.
DLSS 5 на вход берет цветовые и динамические векторы и по ним каждый фрейм генерит через свою модель дополнения для света, материалов, которые привязаны непосредственно к 3D сцене.
Модель ИИ обучается сквозным методом для понимания сложной семантики сцены, такой как персонажи, волосы, ткань и полупрозрачная кожа, а также условий освещения окружающей среды, таких как фронтальное освещение, контровое освещение или пасмурная погода — и все это путем анализа одного кадра.
Затем DLSS 5 использует свои глубокие знания для генерации визуально точных изображений, которые обрабатывают сложные элементы, такие как рассеивание света под поверхностью кожи, тонкий блеск ткани и взаимодействие света с материалом на волосах, сохраняя при этом структуру и семантику исходной сцены.
Т.е. как мы видим все еще нужна геометрия, ура, продолжаем работать, нас не увольняют, пока.
У меня в работе сейчас 2 проекта, которые выйдут с поддержкой DLSS 5, и на 2026 год в процессах разработки не поменялось ничего в связи с выходом этой технологии.
Если вы посмотрите на примеры работы в блоге Nvidia, то увидите, кроме этих вот инста лиц, как изменяются, материалы, как отрабатывает металик с рафнесом, как улучшаются затенения, отражения, как ебет шейдер волос и т.д. В 90% случаев картинка становится лучше и "сведенней", обычно это отдельный пасс, когда уже собраны все объекты на локации, скрипты написаны, AI расставлены, сейчас это делать станет чуть проще.
У меня есть еще мысли, как вероятно будет в дальнейшем выглядеть работа художников, но об этом в другом посте когда-нибудь.
Контракты на использование DLSS 5 уже подписаны с Bethesda, CAPCOM, Hotta Studio, NetEase, NCSOFT, S-GAME, Tencent, Ubisoft и Warner Bros. Games.
@CGIT_Vines
Сегодняшний DLSS 4.5 дорисовывает 23 из 24 пикселей каждый фрейм, он, в целом, делает это неплохо, но абсолютно не контролируем в плане визуальной составляющей. Главный минус, конечно же, в том, что каждый раз на каждый фрейм нужно делать новый просчет, потому что в таком подходе нет предсказуемости, каждый новый фрейм новый.
DLSS 5 на вход берет цветовые и динамические векторы и по ним каждый фрейм генерит через свою модель дополнения для света, материалов, которые привязаны непосредственно к 3D сцене.
Модель ИИ обучается сквозным методом для понимания сложной семантики сцены, такой как персонажи, волосы, ткань и полупрозрачная кожа, а также условий освещения окружающей среды, таких как фронтальное освещение, контровое освещение или пасмурная погода — и все это путем анализа одного кадра.
Затем DLSS 5 использует свои глубокие знания для генерации визуально точных изображений, которые обрабатывают сложные элементы, такие как рассеивание света под поверхностью кожи, тонкий блеск ткани и взаимодействие света с материалом на волосах, сохраняя при этом структуру и семантику исходной сцены.
Т.е. как мы видим все еще нужна геометрия, ура, продолжаем работать, нас не увольняют, пока.
У меня в работе сейчас 2 проекта, которые выйдут с поддержкой DLSS 5, и на 2026 год в процессах разработки не поменялось ничего в связи с выходом этой технологии.
Если вы посмотрите на примеры работы в блоге Nvidia, то увидите, кроме этих вот инста лиц, как изменяются, материалы, как отрабатывает металик с рафнесом, как улучшаются затенения, отражения, как ебет шейдер волос и т.д. В 90% случаев картинка становится лучше и "сведенней", обычно это отдельный пасс, когда уже собраны все объекты на локации, скрипты написаны, AI расставлены, сейчас это делать станет чуть проще.
У меня есть еще мысли, как вероятно будет в дальнейшем выглядеть работа художников, но об этом в другом посте когда-нибудь.
Контракты на использование DLSS 5 уже подписаны с Bethesda, CAPCOM, Hotta Studio, NetEase, NCSOFT, S-GAME, Tencent, Ubisoft и Warner Bros. Games.
@CGIT_Vines
Gen-A — сервис для апскейлинга и улучшения видео без сложных настроек.
Диффузионная модель убирает шум и восстанавливает детали, а GAN-архитектура проверяет реалистичность результата.
Обрабатывайте видео любой длительности в двух режимах: Smart для быстрого улучшения и Pro — для более глубокого восстановления.
При регистрации сразу доступны 50 приветственных токенов на старт работы!
#реклама
О рекламодателе
Диффузионная модель убирает шум и восстанавливает детали, а GAN-архитектура проверяет реалистичность результата.
Обрабатывайте видео любой длительности в двух режимах: Smart для быстрого улучшения и Pro — для более глубокого восстановления.
При регистрации сразу доступны 50 приветственных токенов на старт работы!
#реклама
О рекламодателе
Есть такой онлайн переводчик — kagi. Разработчики прикрутили к нему LLM-ку под капот, но видимо забыли ограничить список валидных языков в адресной строке. В итоге выяснилось, что если взять прямую ссылку на перевод https://translate.kagi.com/?from=en&to=ru и поменять параметры from и/или to на свои, то нейронка послушно схавает абсолютно любую дичь и переведёт её.
То есть, вместо унылого перевода на французский или английский, можно попросить перевести текст на язык бабок из Одноклассников или язык матери трех ангелочков из инстаграма.
То есть, вместо унылого перевода на французский или английский, можно попросить перевести текст на язык бабок из Одноклассников или язык матери трех ангелочков из инстаграма.
Там кто-то поднял спейс в huggingface, в котором можно DLSS'ить свои картинки. Работает достаточно быстро.
Вы знаете, что делать.
Вы знаете, что делать.
Forwarded from Старший Авгур
Media is too big
VIEW IN TELEGRAM
Второй раунд: на r/LocalLLaMA сравнивают разные модельки по качеству генерации сложной сцены в Three.js.
Промпт там такой: 'Write the complete Three.js code for a scene featuring Michael Jackson, Pepe the Frog, Donald Trump, and Elon Musk performing the "Thriller" choreography, aiming for maximum visual perfection, detailed animation, lighting, high-quality rendering, and an overall cinematic.'
Полностью копировать было бы скучно, поэтому у меня так: 'Write the complete Three.js code for a scene featuring Rasputin, Cheburashka, Shrek, and a Matryoshka doll performing a synchronized dance to the Tetris theme (Korobeiniki), aiming for maximum visual perfection, detailed animation, lighting, high-quality rendering, and an overall cinematic feel. Make the camera controllable.'
Результат на экране.
Промпт там такой: 'Write the complete Three.js code for a scene featuring Michael Jackson, Pepe the Frog, Donald Trump, and Elon Musk performing the "Thriller" choreography, aiming for maximum visual perfection, detailed animation, lighting, high-quality rendering, and an overall cinematic.'
Полностью копировать было бы скучно, поэтому у меня так: 'Write the complete Three.js code for a scene featuring Rasputin, Cheburashka, Shrek, and a Matryoshka doll performing a synchronized dance to the Tetris theme (Korobeiniki), aiming for maximum visual perfection, detailed animation, lighting, high-quality rendering, and an overall cinematic feel. Make the camera controllable.'
Результат на экране.
This media is not supported in your browser
VIEW IN TELEGRAM
Вот бы такое же, но для разбросанных по комнате носков