Вот таких монстров можно сгенерировать с помощью CLIP guided diffusion
Для генерации серии похожих изображений с помощью CLIP guided diffusion важны как image prompt, так и text prompts. Исходное изображение — цветная капля посередине на белом фоне. Это позволяет получать в результате новых монстров на белом фоне. Без инициализации сетка не понимает, чего от нее хотят, и генерирует всякие разные композиции и фоны, в отчаянной попытке угадать желание хозяина.
>> Подрезал в твиттере >> Google Colab Ноутбук
Для генерации серии похожих изображений с помощью CLIP guided diffusion важны как image prompt, так и text prompts. Исходное изображение — цветная капля посередине на белом фоне. Это позволяет получать в результате новых монстров на белом фоне. Без инициализации сетка не понимает, чего от нее хотят, и генерирует всякие разные композиции и фоны, в отчаянной попытке угадать желание хозяина.
>> Подрезал в твиттере >> Google Colab Ноутбук
Как дела, народ?
Сейчас многие ищут работу за границей. Давайте коллективно поможем друг другу с этим. Напишите в комментах коротко о себе, и что ищите работу по какому-либо направлению.
Меня читают много людей, которые уже работают в Европе и Северной Америке. Зайдите а комменты и черканите, если ваша фирма хайрит и помогает с релокейтом из стран СНГ. Коммьюнити — это сила!
Я тоже постараюсь помочь, чем смогу. Рефералом, советом.
Сейчас многие ищут работу за границей. Давайте коллективно поможем друг другу с этим. Напишите в комментах коротко о себе, и что ищите работу по какому-либо направлению.
Меня читают много людей, которые уже работают в Европе и Северной Америке. Зайдите а комменты и черканите, если ваша фирма хайрит и помогает с релокейтом из стран СНГ. Коммьюнити — это сила!
Я тоже постараюсь помочь, чем смогу. Рефералом, советом.
🔥Вау! Full-body генерация фотографий человека!
Ранее только лица людей получалось хорошо генерировать с помощью нейронных сетей . Теперь, Adobe вместе с учёными из KAUST собрали модель для генерации всего тела человека. И результаты просто вау!
Модель состоит из трёх GAN-ов, хитро склеенных воедино. Один фокусируется на всем теле в целом, второй на генерации головы, а третий на ступнях ног.
Как сказал бы один парень: "Вот э тайм ту би элайв"!
Подробности на сайте проекта и в статье. Но кода нет.
Ранее только лица людей получалось хорошо генерировать с помощью нейронных сетей . Теперь, Adobe вместе с учёными из KAUST собрали модель для генерации всего тела человека. И результаты просто вау!
Модель состоит из трёх GAN-ов, хитро склеенных воедино. Один фокусируется на всем теле в целом, второй на генерации головы, а третий на ступнях ног.
Как сказал бы один парень: "Вот э тайм ту би элайв"!
Подробности на сайте проекта и в статье. Но кода нет.
Вот ещё результаты full-body генерации. Тут показано, как отдельно улучшаются ноги и лицо.
NVIDIA GH100. Новый монстр!
Утекла схема NVIDIA GH100 - будущего GPU ускорителя для дата-центров и первого 5-нм процессора от NVIDIA. Предыдущая модель (A100) была построена на 7-нм технологии.
Завтра на GTC 2022 NVIDIA официально представит новую архитектуру Hopper, и возможно расскажет о точных характеристиках видеокарты GH100.
Пока, по слухам, GH100 получит до 17 тысяч CUDA ядер (в ~2.5 раза больше чем у A100), до 128GB VRAM (против 40GB у A100) и 48MB L2 кеша (против 40MB у 100). Весь ускоритель будет состоять из ~140 миллиардов транзисторов, что почти в 3 раза больше чем у A100!
Утекла схема NVIDIA GH100 - будущего GPU ускорителя для дата-центров и первого 5-нм процессора от NVIDIA. Предыдущая модель (A100) была построена на 7-нм технологии.
Завтра на GTC 2022 NVIDIA официально представит новую архитектуру Hopper, и возможно расскажет о точных характеристиках видеокарты GH100.
Пока, по слухам, GH100 получит до 17 тысяч CUDA ядер (в ~2.5 раза больше чем у A100), до 128GB VRAM (против 40GB у A100) и 48MB L2 кеша (против 40MB у 100). Весь ускоритель будет состоять из ~140 миллиардов транзисторов, что почти в 3 раза больше чем у A100!
NVIDIA сегодня анонсировала свою новую видеокарту для AI-датацентров GH100
Что по спекам?
Полная реализация GH100 имеет следующие характеристики:
• 4-нм технология!
• 8 GPCs, 72 TPCs (9 TPCs/GPC), 2 SMs/TPC, 144 SMs per full GPU
• 128 FP32 CUDA Cores per SM, 18432 FP32 CUDA Cores per full GPU
• 4 Fourth-Generation Tensor Cores per SM, 576 per full GPU
• 6 HBM3 or HBM2e stacks, 12 512-bit Memory Controllers
• 60MB L2 Cache
• Fourth-Generation NVLink and PCIe Gen 5
NVIDIA также заявляет, что ее вычислительные ядра включают в себя «Transformer Engine», который можно использовать для ускорения Трансформеров «до 6 раз» по сравнению с предыдущей арзитектурой Ampere. Сам «Transformer Engine», по-видимому, это подкрученные тензорные блоки (tensor units), которые работают на 8-битах, когда более высокая точность не требуется.
Компания утверждает, что чип H100 в три раза быстрее чем процессор A100 предыдущего поколения в вычислениях на FP64, FP32 и на FP16, при этом он в шесть (!) раз быстрее в 8-битных вычислениях.
Что по спекам?
Полная реализация GH100 имеет следующие характеристики:
• 4-нм технология!
• 8 GPCs, 72 TPCs (9 TPCs/GPC), 2 SMs/TPC, 144 SMs per full GPU
• 128 FP32 CUDA Cores per SM, 18432 FP32 CUDA Cores per full GPU
• 4 Fourth-Generation Tensor Cores per SM, 576 per full GPU
• 6 HBM3 or HBM2e stacks, 12 512-bit Memory Controllers
• 60MB L2 Cache
• Fourth-Generation NVLink and PCIe Gen 5
NVIDIA также заявляет, что ее вычислительные ядра включают в себя «Transformer Engine», который можно использовать для ускорения Трансформеров «до 6 раз» по сравнению с предыдущей арзитектурой Ampere. Сам «Transformer Engine», по-видимому, это подкрученные тензорные блоки (tensor units), которые работают на 8-битах, когда более высокая точность не требуется.
Компания утверждает, что чип H100 в три раза быстрее чем процессор A100 предыдущего поколения в вычислениях на FP64, FP32 и на FP16, при этом он в шесть (!) раз быстрее в 8-битных вычислениях.
Открылась регистрация на CVPR 2022!
Первая конференция вживую после долгого времени! Будет в Новом Орлеане в конце июня. Цена билета $650.
Я уже зарегистрировался. Надеюсь, смогу на нее попасть.
https://cvpr2022.thecvf.com
Первая конференция вживую после долгого времени! Будет в Новом Орлеане в конце июня. Цена билета $650.
Я уже зарегистрировался. Надеюсь, смогу на нее попасть.
https://cvpr2022.thecvf.com
Snap купил стартап NextMind, который занимается интерфейсами мозг-компьютер.
О NexMind я писал ранее, их прототипы были впечатляющими.
Похоже, снэп серьезно готовится к следующей версии своих очков. Например, встроят какие-нибудь сенсоры в дужки, чтобы можно было мыслью делать простые манипуляции, такие как переключить музыку либо сделать фото.
Источник
О NexMind я писал ранее, их прототипы были впечатляющими.
Похоже, снэп серьезно готовится к следующей версии своих очков. Например, встроят какие-нибудь сенсоры в дужки, чтобы можно было мыслью делать простые манипуляции, такие как переключить музыку либо сделать фото.
Источник
Telegram
эйай ньюз
Просто магия какая-то. Работающий брейн-интерфейс от NextMind, который не требует вживления электродов в мозг, а просто крепится на шапку и касается головы своими контактами. Он уже позволяет силой мысли управлять интерфейсом и взрывать головы врагов в VR…
Neural Implicit Representations for 3D Vision and Beyond by Dr. Andreas Geiger
Свежий и качественный доклад о нейронном рендеринге и 3D зрении от проф. Андреаса Гайгера.
Люблю такие лекции. Мой рекомендасион.
https://youtu.be/jennURL-gtQ
Свежий и качественный доклад о нейронном рендеринге и 3D зрении от проф. Андреаса Гайгера.
Люблю такие лекции. Мой рекомендасион.
https://youtu.be/jennURL-gtQ
Forwarded from Denis Sexy IT 🤖
Японцы нашли способ причинить физическую боль в ✨экстримистверсе✨ – стартап H2L разрабатывает браслет на руку, который обнаруживает напряжение мышц человека и используется совместно с VR-шлемом.
Это позволяет аватару копировать сжимание-разжимание рук и ощущать реальный вес предметов и их присутствие. Всё работает на электрической стимуляции для манипулирования мышцами, так что без всяких перчаток можно ловить мячики, имитировать ощущения клюющихся птичек и стрелять из пистолета с отдачей.
Я глянули их сайт и могу сказать, что стартап действительно весьма интересный, вот буквально пару дней назад вышла статья про их робота, которым можно управлять с телефона — он собирает клубничку на грядках. Ты вроде как в 3D-шутере видишь свои (робота) руки и управляешь ими, срезая ягоды и перемещаясь по грядке.
Короче, теперь в ✨экстримистверсе✨ можно не только ходить в стриптиз, но и выхватить за плохое поведение ощутимых последствий.
Источник тут, на видео небольшой фрагмент работы устройства.
Это позволяет аватару копировать сжимание-разжимание рук и ощущать реальный вес предметов и их присутствие. Всё работает на электрической стимуляции для манипулирования мышцами, так что без всяких перчаток можно ловить мячики, имитировать ощущения клюющихся птичек и стрелять из пистолета с отдачей.
Я глянули их сайт и могу сказать, что стартап действительно весьма интересный, вот буквально пару дней назад вышла статья про их робота, которым можно управлять с телефона — он собирает клубничку на грядках. Ты вроде как в 3D-шутере видишь свои (робота) руки и управляешь ими, срезая ягоды и перемещаясь по грядке.
Короче, теперь в ✨экстримистверсе✨ можно не только ходить в стриптиз, но и выхватить за плохое поведение ощутимых последствий.
Источник тут, на видео небольшой фрагмент работы устройства.
Привет, Друзья!
Вот вам немного хлебушка, сгенеренного с помощью Guided Diffusion.
Нажав на картинку снизу, можно листать. Там четыре булки.
Вот вам немного хлебушка, сгенеренного с помощью Guided Diffusion.
Нажав на картинку снизу, можно листать. Там четыре булки.
Telegram
я обучала одну модель
успокаивающий генеративный воздушный хлеб 🍞☁️
автор говорит, что модель на основе CLIP-guided diffusion, но самого кода пока нет увы
автор говорит, что модель на основе CLIP-guided diffusion, но самого кода пока нет увы
This media is not supported in your browser
VIEW IN TELEGRAM
NPBG++: Accelerating Neural Point-Based Graphics
Статья из Сколтеча!
Это альтернатива мейнстримному нейронному рендерингу, где учится неявная репрезентация плотности либо поверхность. В этом методе новые картинки рендерятся из облака точек.
Авторы прокачали предыдующую статью, где дескрипторы точек учились для каждой сцены отдельно. Тут дескрипторы для каждой точки в облаке предсказываются нейронкой за один прогон, то есть одна и таже нейронка может работать на многих сценах.
Метод коротко: запускаем COLMAP, получаем облако точек + позиции камер, далее прогоняем входные картинки через CNN, получаем дескрипторы для каждой точки в облаке. Затем мы растеризуем 3D точки вместе с их дескрипторами и прогоняем это все через U-Net, который рендерит итоговую картинку.
>> Сайт проекта >> АрХив
Статья из Сколтеча!
Это альтернатива мейнстримному нейронному рендерингу, где учится неявная репрезентация плотности либо поверхность. В этом методе новые картинки рендерятся из облака точек.
Авторы прокачали предыдующую статью, где дескрипторы точек учились для каждой сцены отдельно. Тут дескрипторы для каждой точки в облаке предсказываются нейронкой за один прогон, то есть одна и таже нейронка может работать на многих сценах.
Метод коротко: запускаем COLMAP, получаем облако точек + позиции камер, далее прогоняем входные картинки через CNN, получаем дескрипторы для каждой точки в облаке. Затем мы растеризуем 3D точки вместе с их дескрипторами и прогоняем это все через U-Net, который рендерит итоговую картинку.
>> Сайт проекта >> АрХив