эйай ньюз
77.3K subscribers
1.72K photos
890 videos
7 files
2.03K links
Культурно освещаю самые и не самые важные новости из мира AI, и облагораживаю их своим авторитетным профессиональным мнением.

Ex-Staff Research Scientist в Meta Generative AI. Сейчас CEO&Founder AI стартапа в Швейцарии.

Aвтор: @asanakoy

PR: @ssnowysnow
Download Telegram
Я: потратил 3 года чтобы выучить дизайн и Фотошоп
@
DALLE-2: Бомжур!


Дизайнеры и иллюстраторы начинают волноваться за свою работу, и не без причины! AI постепенно и беспощадно отбирает у них кусок хлеба. Потому что нейронный дизайн дешевле и быстрее, а качество растет каждый месяц. Я думаю всем творческим кожаным мешкам следует осваивать современные инструменты на базе AI. Во многих профессиях сейчас (не только в IT) нужно следить за новыми технологиями и постоянно развиваться, чтобы не проиграть машинам остаться без работы.

Так что поделитесь моим каналом со своим творческими друзьями, пусть не отстают 😉. Научим их сеточкам и колабам.

@Artem Gradient
😱32👍31😁113👎3😢3🤔1
This media is not supported in your browser
VIEW IN TELEGRAM
Принес вам демку на huggingface для реконструкции 3D модели человека по одному фото.

Под капотом бегает PIFU. Метод уже не новый (2020), но работает! Моделька выезжает с RGB текстурой.

Для наилучшего результата загружайте фото в полный рост с минимальным наклоном камеры.

https://huggingface.co/spaces/radames/PIFu-Clothed-Human-Digitization

@Artem Gradient
🔥33👍8
This media is not supported in your browser
VIEW IN TELEGRAM
Photorealistic Monocular 3D Reconstruction of Humans Wearing Clothing

А вот и свежак от Гугла (CVPR2022). Тоже выдает текстурированную 3D модель кожаного мешка по одному фото.

Отличие от PIFu из предыдущего поста в основном в том как тут предсказывается цвет текстуры. Эта модель уже предсказывает Альбедо и тени, учитываю геометрию поверхности.

Да, на видео - реконструкция, результат работы метода.

Кода нет и скорее всего, со слов автора, пока не будет 😐

❱❱ https://phorhum.github.io/

@Artem Gradient
👍19🔥1
This media is not supported in your browser
VIEW IN TELEGRAM
Привет, друзья! Каждому в хозяйстве метаверсе нужна хорошая сетка для удаления бэкграунда.

U-2-Net, кажется, одна из расхайпованых* сетей, которая удаляет фон, и ещё в неплохой image-2-image транслейшен умеет. Эта моделька разлетелась по куче приложений не просто так.

Есть код и веса на гитабе. Там же куча ссылок на всевозможные приложения, использующие U-2-NET.

* 5.7к звёзд на гитабе.

@Artem Gradient
👍45🔥42
This media is not supported in your browser
VIEW IN TELEGRAM
В снэпчате новый фильтр. И это полный кринж 😂

Все так же удивляюсь, из какого правильного места растут руки у инженеров в Снэпе. Очень качественная трансформация, да ещё и угарная.

Принцип работы таких фильтров строится на генеративных нейронных сетях и предсказании 3д геометрии лица.

@Artem Gradient
😁61👍103
Forwarded from Denis Sexy IT 🤖
This media is not supported in your browser
VIEW IN TELEGRAM
Очередное путешествие в зазеркалье с помощью нейронки Instant Nerf. Автор.

Напомню, что работает как-то так: скармливаете ей 50 фотографий, ждете пол дня (instant 🌚) и потом можете «летать» внутри этого пространства которое воссоздала нейронка.

Прошлое путешествие в зазеркалье – тут
48👍22🔥17
Привет, друзья! 37 минут назад началась Apple’s Worldwide Developers Conference (WWDC). Традиционно на ней показывают новые финтифлюшки в операционных системах Apple, но иногда и балуют новыми продуктами.

Было несколько прикольных моментов, но пока ничего особенно удивительного.

https://youtu.be/q5D55G7Ejs8
4👍2👎2
Пока больше всего мне понравилось на WWDC22:

- Apple Watch стали более умными: теперь с помощью ML часы выдают более детальный анализ бега и других активностей, отслеживая как сильно осциллирует ваше тело и руки.
- Встроенная в фото-галлерею фича для удаления фона. Просто тыкаешь на объект и можно его скопировать без бэкграунда.
- Новые 3Д карты и обновления в MapKit для разработчиков.
- Прокачанный CarPlay, особенно актуальный для новых авто, где есть огромный дисплей (как в Тесле).

А вам что понравилось?

@Artem Gradient
🔥16👍61
This media is not supported in your browser
VIEW IN TELEGRAM
Хорошая идея для геймификации спорта.

Как только не приходится обманывать мозг, чтобы не быть ленивым тюфяком. Человеку нужно мгновенное вознаграждение за занятие спортом; прям как нейронная сеть, только в кожаном мешке.

@Artem Gradient
🔥102👍21😁84👏3
This media is not supported in your browser
VIEW IN TELEGRAM
В новом ARKit* теперь научились четко определять поверхности и прямые линии внутри помещений. Теперь можно на изи отсканировать свою квартиру и получить 3д план, использую встроенное приложения камеры в iPhone.

Это существенно упрощает работу дизайнерам интерьеров: можно быстро набросать что-то для своего клиента на предоставленном скане.

*Анонсировали на wwdc2022

@ai_newz
🔥59👍172
Иногда бывают ситуации, когда мы сильно застреваем в проекте. Это часто нервирует и портит настроение. У меня буквально вчера было такое. Но тут я наткнулся на следующую мысль: нам абсолютно необходимо развивать способность быть довольными и наслаждаться процессом, даже когда мы полностью застряли!

Если мы делаем интересную работу, где требуется мозговая активность, мы постоянно застреваем в чем-то, и это неотъемлемая часть этой самой интересной работы!

#мысливслух
78👍27🔥6👎3🤬2
🔥Nvidia жжет напалмом! На этот раз выпустили модель для генерации динамических видео

Ганы и диффузионные модели уже хорошо научились генерировать статический контент (например, та же DALLE-2 или Imagen). Нам пора двигаться дальше. Новая модель от Nvidia основана на архитектуре StyleGAN (а как же), но с временной компонентой. Она генерирует видео, неплохо воспроизводящие движение объекта, изменения точки обзора камеры и новый контент, возникающий с течением времени.

Авторы грамотно подобрали тип видосов, на которых все работает. Из критики, я бы заметил низкое разрешение 128x128 (256x256 max) и более сильные прыжки между контентом в точке схода перспективы.

Cо слов авторов: "Базовый метод StyleGAN-V повторяет одно и то же содержимое. А наша модель способна создавать новые декорации и объекты, которые появляются на сцене с течением времени, сохраняя при этом долгосрочную временную согласованность."

❱ Код будет в конце лета
❱❱ Сайт проекта

@ai_newz
👍30🔥171
This media is not supported in your browser
VIEW IN TELEGRAM
Больше примеров генерации динамических видео методом из статьи "Generating Long Videos of Dynamic Scenes", описанной в предыдущем посте.

@ai_newz
13👍5
This media is not supported in your browser
VIEW IN TELEGRAM
🗽 NVIDIA Создала 3D StyleGAN — EG3D: Efficient Geometry-aware 3D Generative Adversarial Networks

EG3D — нестоящее инженерное чудо. Ресерчеры взяли за основу StyleGAN 2 бэкбон, и вставили в середину графа гибридный neural rendering.

Nvidia создала новый tri-plane-based 3D GAN framework. Ресерчеры показали, что NeRF в их случае медленный, а воксели не очень масштабируются по памяти с повышением разрешения.

После нейронного рендеринга в 128х128 следует каскад супер-резолюшена в 512х512. Затем low-res ещё раз апскейлится интерполяцией и после конкатенации с mid-res картинкой, единым тензором подается на двойной дискриминатор.

StyleGAN’ы интересны тем, что способны за относительно небольшой компьют (тут 8 Tesla V100 GPUs и 8.5 дней) построить реалистичную генеративную модель в одном домене.

EG3D позволяет сразу генерировать качественную 3D геометрию, которую сеть выучивает самостоятельно!

Как же чудесно будущее 3D графики!

💻 Code
🖥 Project
📄 Paper
🎥 YouTube

@мишин_лернинг
👍374🔥2
И кто после этого скажет, что нейросети не креативные?

Мона Лизу, оказываются похищали инопланетяне. А когда тиранозавры не видят, она думает о жирненьких питательных хотдогах 👌.

Сгенерено с помощью DALLE-2

@ai_newz
🔥4312👍3