эйай ньюз
77.3K subscribers
1.72K photos
890 videos
7 files
2.03K links
Культурно освещаю самые и не самые важные новости из мира AI, и облагораживаю их своим авторитетным профессиональным мнением.

Ex-Staff Research Scientist в Meta Generative AI. Сейчас CEO&Founder AI стартапа в Швейцарии.

Aвтор: @asanakoy

PR: @ssnowysnow
Download Telegram
Как вы знаете, я не пишу о том, что не понимаю, почему и не писал об этих виральных дипфейках Тома Круза. Слишком уж реалистично, нейросети так не могут, и объяснить это я не мог.

Оказалось все достаточно линейно. Актер на видео — не просто рандомный Васян, а Miles Fisher — двойник Тома Круза, который и без VFX выглядит почти как дипфейк. А дополнительный морфинг нейросетями это, считайте, просто ретушь.

Если интересно как это делается, вот процесс создания другой рекламы с пародией на Тома Круза этим же челом.

Sorry to disappoint, но даже дипфейки не сделают из тебя Тома Круза.
Когда нейросети стали такими умными, что обмануть их стало даже проще.
https://openai.com/blog/multimodal-neurons/
Если в (любом) браузере ввести docs.new — откроется новый гугл док 😮
На наших глазах происходит какая-то гонка кто первый сделает breakthrough в компьютр вижне с помощью трансформеров. Если классификацию уже как-никак делают, то за GAN сейчас идет борьба.

В течении последних пары недель, одна команда из Остина и IBM представила статью Two Transformers Can Make One Strong GAN, а вторая из Стенфорда и ФБ — Generative Adversarial Transformers. Последняя побила SOTA на нескольких бенчмарках генерации.

По-моему, тут уже понятно к чему вся индустрия движется.
👍1
Ну вот, буквально, кульминация, статья под названием Transformer in Transformer от Хуавея. Тоже для компьютер вижна.

Просто, блять, трансформер на трансформере и трансформером погоняет.
This media is not supported in your browser
VIEW IN TELEGRAM
Clometrica и Replicant запустили приложение где можно на себе примерить digital одежду.

Сделать это работать на мобиле в риал тайм это очень непростая задача, и я знаю, многие люди этого ждали. Так что, первое что хочу сказать — респект пацанам. Неизвестно правда, реконструируют ли они тело в 3D (body shape) или только позу, не было ничего худого/толстого под рукой проверить. (Позу распознать, конечно, сейчас не проблема, так что респект в таком случае попрошу вернуть.)

Однако, даже несмотря на впечатляющий труд команды, выглядит это как полное говнище. И даже сахарок из "100% eco" не сделает это шоколадом. Мои последние надежды на digital fashion официально развеялись.

Возможно, через N лет, когда трекинг будет точнее, сделают оклюжн, и можно будет рендерить освещение среды это и зайдет каким-то маргиналам, но пока это выглядит как детский коллаж.

Пожелаем ребятам удачи.
Forwarded from addmeto (Grigory Bakunov)
Довольно интересный подход сделанный с помощью ЭЭГ, хотя можно было обойтись и без него:
с помощью GAN генерятся привлекательные лица, они показываются испытуемому человеку, с помощью энцефалограммы вычленяется, какие лица понравились человеку больше, и после этого создаются новые лица, которые (проверенно экспериментом) понравятся человеку еще больше. Такой вот GAN, в котором живой человек выступает как своеобразная часть дискриминатора, и поэтому создаются лица, которые нравятся персонально ему.

Так можно пойти дальше, создаем абстрактного виртуального персонажа и этой же техникой превращаем его в идеального лично для тебя партнера. Потом с помощью дипфейка натягиваем на готовое порно (а лучше генерим новое) и все - страшный новый мир готов. https://newatlas.com/good-thinking/ai-learns-individuals-attractive-faces/
В Гугле продолжается Санта Барбара связанная с увольнением Timnit Gebru:

— Отдел Ethical AI был реструкутрирован и в его главу поставлена VP of Engineering Marian Croak;
— Через день после этого была уволена Margaret Mitchell, которая копировала файлы связаные с увольнением Гебру на личный компьютер;
— Тем временем появились новые детали увольнения Гебру. Ранее она "was on the verge of publishing a paper that criticized large language models" (все что нужно знать о функциях ethical AI), которая включала гугловский BERT;
— Ее попросили отозвать статью или убрать соавторов с Гугла. Она начала залупаться, и сказала, что если с этим ничего не сделают, то она уйдет. (Где-то между этим ещё разослав внутри призыв к бунту.)
— Ей сказали "Хорошо, мы приняли твое уведомление об увольнении". Гебру сделала лицо Пикачу с мема и сказала, что, вообще-то, она не это имела ввиду, лол.
— Но было уже поздно.

Месседж остатеся прежним — если ты крупный менеджер в большой корпорации, то следи за языком.
This media is not supported in your browser
VIEW IN TELEGRAM
Не прошло и недели как Марк пообещал полный трекинг лица и глаз в Окулусе, которые позволят "виртуальную телепортацию" для более живого общения, как HTC анонсировали VIVE Furry VIVE Face Tracking — дополнительный девайс с двумя камерами, который крепится на шлем и позволяет считывать мимику нижней части лица и переносить ее на виртуального персонажа.

Казалось бы, такая простая технология, а смотрится классно. А без фурри смотрелось бы еще лучше.
Журналисты как всегда любят раздувать. Якобы, AR очки от Фейсбука будут иметь распознавание лиц, при том что единственный источник информации это сливы внутреннего митинга где кто-то спросил о такой возможности, а ответственный за них сказал, что это сложный вопрос, и вообще надо обсуждать. Но, по факту, такой вопрос поднимался, значит не просто так. Возможно (скорее всего) это умышленный слив, чтобы протестировать реакцию публики. Хотя какая тут может быть реакция, это же Фейсбук.

К слову, ничего такого точно не будет в первой версии очков, которая выйдет уже в этом году. Более того, в них даже не будет AR, из-за чего вообще не понятно какой в них смысл.
Да это для машинлернинга, мам, трансформеры тренить там...

Тем временем курс машинлернинга снова перевалил 57к.
HuggingFace подняли раунд В на 40М. При этом в Январе и Феврале они уже были cash-positive. Да и вообще ещё не потратили деньги с предыдущего раунда, что и помогло им увеличить оценку.

Как и многие другие опенсорс фреймворки монетизируется 🤗 за счёт поддержки и всяких премиум фич. Для меня всегда было удивительно как всего несколько крупных клиентов которые платят за "плюшки" могут покрыть расходы на толпу дармоедов которые пользуются основным функционалом, ну да ладно, это уже мои проблемы.

Среди своих клиентов 🤗 имеет необанк Monzo, Майкрософтовский Bing, а также канал эйай ньюз (мы используем HuggingFace для трансформеров в нашем курсе).

Полученные деньги пойдут на найм людей в Нью-Йоркский и Парижский офисы, так что готовьте свои CVшки.
This media is not supported in your browser
VIEW IN TELEGRAM
#VR
Немного возвышенного от VR-художницы из России. Больше её работ в инстаграме https://www.instagram.com/irreal.art/
Forwarded from Denis Sexy IT 🤖
Новости киберпанка:
Мать одной из чирлидерш в США сгенерировала дипфейк видео с соперницами по команде дочки и отправила эти видео тренерам, чтобы соперниц выгнали из команды за аморальное поведение.
На видео было всякое, курение, нюдсы, алкоголь и тп.

Мать задержали и планируют посадить:
https://nypost.com/2021/03/13/pa-mom-sent-deepfakes-of-daughters-cheerleading-rivals-to-coaches-da/
AI алгоритмы фейсбука теперь будут изучать мир смотря видосы загруженные на платформу. То, о чем так мечтали фанаты unsupervised learning'а шаг за шагом становится реальностью.

В рамках проекта "Learning from Videos" алгоритмы автоматически будут улучшаться за счет визуальных, аудио, и текстовых данных содержащихся в публичных видео.

Нечто похожее уже используется в рекомендациях Инстаграмных Reels с помощью метода Generalized Data Transformations, который через селф-супервижн создает эмбединги видео (это помогает оценить на сколько два видео похожи).
Где где, а в Qualcomm AI люди явно разбираются в железе, и кто как не они понимает ограничения постоянного сжатия транзисторов на плате.

Поэтому и разрабатывают они то, о чем нормальные люди обычно не думают — например, только что они предложили использовать квантовую теорию поля для переноса дип лернинга на оптические квантовые компьютеры. А вы думали? Там нет никаких np.dot, зато есть, ебать его в сраку, лазер, который нужно возбуждать. Как оно там, пайторч не учится? А как насчет нелинейность собрать как комбинацию нескольких лазерных сигналов? В общем, это вам не трассировка лучей, это настоящий некстген.

Из прикольного, назвали они свои микро-возбуждения квантового поля "хинтонами" (Hintons), в честь сами знаете кого.
👍1
This media is not supported in your browser
VIEW IN TELEGRAM
Смотрите какой удивительно простой и одновременно инновационный тул появился в Snap Lens Studio 3.4. Он позволяет менять пропорции своего лица как в конструкторе персонажа в играх. И это в риал-тайм. На телефоне.

Сейчас это только геометрия, но добавить к этому еще разные типы губ/волос (которые уже доступны отдельно), и все, каждый сможет быть кем захочет в виртуальном мире. ИМХО, к этому все и движется.

Ну а пока, для людей которые всегда хотели в себе что-то изменить, но не хотели делать пластическую операцию это — настоящая находка.