эйай ньюз
65.7K subscribers
1.48K photos
791 videos
7 files
1.8K links
Культурно освещаю самые и не самые важные новости из мира AI, и облагораживаю их своим авторитетным профессиональным мнением.

В свободное время работаю как Staff Research Scientist в Meta Generative AI в Швейцарии.

Aвтор: @asanakoy

PR: @ssnowysnow
Download Telegram
Вот таких монстров можно сгенерировать с помощью CLIP guided diffusion

Для генерации серии похожих изображений с помощью CLIP guided diffusion важны как image prompt, так и text prompts. Исходное изображение — цветная капля посередине на белом фоне. Это позволяет получать в результате новых монстров на белом фоне. Без инициализации сетка не понимает, чего от нее хотят, и генерирует всякие разные композиции и фоны, в отчаянной попытке угадать желание хозяина.

>> Подрезал в твиттере >> Google Colab Ноутбук
Как дела, народ?

Сейчас многие ищут работу за границей. Давайте коллективно поможем друг другу с этим. Напишите в комментах коротко о себе, и что ищите работу по какому-либо направлению.

Меня читают много людей, которые уже работают в Европе и Северной Америке. Зайдите а комменты и черканите, если ваша фирма хайрит и помогает с релокейтом из стран СНГ. Коммьюнити — это сила!

Я тоже постараюсь помочь, чем смогу. Рефералом, советом.
Видел,что пишут много джунов в комментах под предыдущим постом. Джунам сложно найти работу с релокейтом. Советую искать какую-то программу в магистратуре или PhD и сваливать на учебу.
🔥Вау! Full-body генерация фотографий человека!

Ранее только лица людей получалось хорошо генерировать с помощью нейронных сетей . Теперь, Adobe вместе с учёными из KAUST собрали модель для генерации всего тела человека. И результаты просто вау!

Модель состоит из трёх GAN-ов, хитро склеенных воедино. Один фокусируется на всем теле в целом, второй на генерации головы, а третий на ступнях ног.

Как сказал бы один парень: "Вот э тайм ту би элайв"!

Подробности на сайте проекта и в статье. Но кода нет.
Вот ещё результаты full-body генерации. Тут показано, как отдельно улучшаются ноги и лицо.
NVIDIA GH100. Новый монстр!

Утекла схема NVIDIA GH100 - будущего GPU ускорителя для дата-центров и первого 5-нм процессора от NVIDIA. Предыдущая модель (A100) была построена на 7-нм технологии.

Завтра на GTC 2022 NVIDIA официально представит новую архитектуру Hopper, и возможно расскажет о точных характеристиках видеокарты GH100.

Пока, по слухам, GH100 получит до 17 тысяч CUDA ядер (в ~2.5 раза больше чем у A100), до 128GB VRAM (против 40GB у A100) и 48MB L2 кеша (против 40MB у 100). Весь ускоритель будет состоять из ~140 миллиардов транзисторов, что почти в 3 раза больше чем у A100!
NVIDIA сегодня анонсировала свою новую видеокарту для AI-датацентров GH100

Что по спекам?
Полная реализация GH100 имеет следующие характеристики:
4-нм технология!
• 8 GPCs, 72 TPCs (9 TPCs/GPC), 2 SMs/TPC, 144 SMs per full GPU
• 128 FP32 CUDA Cores per SM, 18432 FP32 CUDA Cores per full GPU
• 4 Fourth-Generation Tensor Cores per SM, 576 per full GPU
• 6 HBM3 or HBM2e stacks, 12 512-bit Memory Controllers
• 60MB L2 Cache
• Fourth-Generation NVLink and PCIe Gen 5

NVIDIA также заявляет, что ее вычислительные ядра включают в себя «Transformer Engine», который можно использовать для ускорения Трансформеров «до 6 раз» по сравнению с предыдущей арзитектурой Ampere. Сам «Transformer Engine», по-видимому, это подкрученные тензорные блоки (tensor units), которые работают на 8-битах, когда более высокая точность не требуется.

Компания утверждает, что чип H100 в три раза быстрее чем процессор A100 предыдущего поколения в вычислениях на FP64, FP32 и на FP16, при этом он в шесть (!) раз быстрее в 8-битных вычислениях.
Открылась регистрация на CVPR 2022!

Первая конференция вживую после долгого времени! Будет в Новом Орлеане в конце июня. Цена билета $650.

Я уже зарегистрировался. Надеюсь, смогу на нее попасть.

https://cvpr2022.thecvf.com
Snap купил стартап NextMind, который занимается интерфейсами мозг-компьютер.

О NexMind я писал ранее, их прототипы были впечатляющими.

Похоже, снэп серьезно готовится к следующей версии своих очков. Например, встроят какие-нибудь сенсоры в дужки, чтобы можно было мыслью делать простые манипуляции, такие как переключить музыку либо сделать фото.

Источник
Neural Implicit Representations for 3D Vision and Beyond by Dr. Andreas Geiger

Свежий и качественный доклад о нейронном рендеринге и 3D зрении от проф. Андреаса Гайгера.

Люблю такие лекции. Мой рекомендасион.

https://youtu.be/jennURL-gtQ
Forwarded from Denis Sexy IT 🤖
Японцы нашли способ причинить физическую боль в экстримистверсе – стартап H2L разрабатывает браслет на руку, который обнаруживает напряжение мышц человека и используется совместно с VR-шлемом.

Это позволяет аватару копировать сжимание-разжимание рук и ощущать реальный вес предметов и их присутствие. Всё работает на электрической стимуляции для манипулирования мышцами, так что без всяких перчаток можно ловить мячики, имитировать ощущения клюющихся птичек и стрелять из пистолета с отдачей.

Я глянули их сайт и могу сказать, что стартап действительно весьма интересный, вот буквально пару дней назад вышла статья про их робота, которым можно управлять с телефона — он собирает клубничку на грядках. Ты вроде как в 3D-шутере видишь свои (робота) руки и управляешь ими, срезая ягоды и перемещаясь по грядке.

Короче, теперь в экстримистверсе можно не только ходить в стриптиз, но и выхватить за плохое поведение ощутимых последствий.

Источник тут, на видео небольшой фрагмент работы устройства.
Привет, Друзья!

Вот вам немного хлебушка, сгенеренного с помощью Guided Diffusion.

Нажав на картинку снизу, можно листать. Там четыре булки.
This media is not supported in your browser
VIEW IN TELEGRAM
NPBG++: Accelerating Neural Point-Based Graphics
Статья из Сколтеча!

Это альтернатива мейнстримному нейронному рендерингу, где учится неявная репрезентация плотности либо поверхность. В этом методе новые картинки рендерятся из облака точек.

Авторы прокачали предыдующую статью, где дескрипторы точек учились для каждой сцены отдельно. Тут дескрипторы для каждой точки в облаке предсказываются нейронкой за один прогон, то есть одна и таже нейронка может работать на многих сценах.

Метод коротко: запускаем COLMAP, получаем облако точек + позиции камер, далее прогоняем входные картинки через CNN, получаем дескрипторы для каждой точки в облаке. Затем мы растеризуем 3D точки вместе с их дескрипторами и прогоняем это все через U-Net, который рендерит итоговую картинку.


>> Сайт проекта >> АрХив
Примерно вот так выглядит пайплайн NPBG++.