Denis Sexy IT 🤖
92.7K subscribers
3.48K photos
1.84K videos
22 files
4.33K links
Личный блог Дениса Ширяева (🤍🇺🇦), про технологии, интересное или актуальное.

В основном я по нейронкам. Работаю CEO в https://neural.love

⚜️ Реклама в канале возможна для юрлиц и физ-лиз у которых работает SWIFT оплата в Нидерланды

Связь: @thenbot
Download Telegram
Само собой, вы уже знаете все что показал Applе вчера, расскажу лишь про одну фичу которая меня зацепила.

Если вы не используете Mac или iPhone, то возможно не знаете, что в Apple экосистеме есть клевое приложение Find iPhone (в вебе этот сервис тоже доступен) – там выводятся все ваши Apple устройства, включая Macbook и Airpods.

Так вот, если у вас современный Macbook Pro и вы его, например, потеряете – то само собой у устройства не будет никаких способов сообщить о своем местоположении, так как шанс того, что ноут подключен к интернету в момент пропажи очень низок.

И вот, Apple сделал элегантное решение – Macbook в последней macOS будет сообщать через bluetooth всем iPhone устройствам вокруг с помощью технологии похожей на «beacons» о том, где сейчас находится это устройство – зашифровано, само собой. Элегантно, потому что iPhone в мире один из самых популярных телефонов – так действительно можно найти почти что угодно.

А в сочетании с тем, что новый macOS так же будет блокировать оборудование и привязывать его к вашей учетке icloud, то я правда в восторге – новые Macbook (с T2 чипом) нет смысла воровать, их фиг продашь теперь.

Вот тут этот момент, на 01:51:00:
https://developer.apple.com/videos/play/wwdc2019/101/
This media is not supported in your browser
VIEW IN TELEGRAM
Пока что робо-собаки и собаки не очень ладят.

Но это просто робо-собаки пока не кормят собак.
Спасибо нейронкам, можно Моно Лизу со всех сторон посмотреть
Forwarded from Karim Iskakov - канал (Karim Iskakov)
This media is not supported in your browser
VIEW IN TELEGRAM
Turning Mona Lisa's face using StyleGAN.
👤 @pbaylies (twitter)
📉 @loss_function_porn
Алгоритмы с помощью правки текста в программе меняют то, что говорят в видео - учитывая и синтез голоса и мимику, и положение губ, и длину видео.

Серьезно, мы еще не готовы к таким уровням генерации фейков, очень интересно что будет дальше.

https://youtu.be/0ybLCfVeFL4
Вид соревнования для тех кто помнит старинное ТВ шоу «Robot Wars» (Razer лучший) – это почти как там, но вместо уничтожения друг-друга клешнями и болгарками, роботы стреляют из турелей пульками в друг-друга, а операторы управляют роботами «от первого лица».

И все на это на фоне города:
https://youtu.be/LjJCkGUTHlA

Я бы с удовольствием поиграл в такое сам, передайте Кузнецову, что тут идея для бизнеса 🍒

Upd. Аналог от азиатов, там даже количество жизней поверх машинок пишется https://www.twitch.tv/videos/433293464?t=03h29m49s
Спасибо VR-технологии, теперь порно-игры стали еще интереснее
Я часто пишу, что общество еще не готово к DeepFake технологиям и люди все еще верят своим глазам, но мне кажется движение в сторону осознания того, что ничему верить теперь нельзя постепенно формируется.

Прямо сейчас на BBC World News репортаж про то, что такое DeepFake и пример с не настоящим Цукербергом.

Это видео появилось в Instagram и вызвало резонансное обсуждений правил Facebook, компания его не удалила и решила не бороться с DeepFake видео, но пометила плашкой “fake”.

Что-то мне подсказывает, по градусу обсуждения этой проблемы, Facebook обновит правила конкретно под DeepFake и начнет это все удалять, ну то есть если они до сих пор удаляют всё где есть женские соски, странно ждать от них лояльного отношения к фейкам – появится очередной фейк про политика и мне кажется они прогнутся, и запретят их.

Вот тут можно почитать всю историю на английском:
https://www.technologyreview.com/f/613690/facebook-deepfake-zuckerberg-instagram-social-media-election-video/
Кстати, сегодня начнется слушание в конгрессе США про DeepFake, где предлагают новый закон на эту тему:

– Создателей DeepFake видео обяжут добавлять вотермарки которые помогут социальным сетям понять, что это фейк;

– А если кто-то сделает много DeepFake (без ватермарков), то штрафовать его или даже отправить в тюрьму.

Ну удачи, все кто хочет играться с технологиями уйдут в TOR – а дальше оттуда все будет попадать в обычный интернет.

Пока новый закон только обсуждается:
https://intelligence.house.gov/news/documentsingle.aspx?DocumentID=657
Тем временем забавный хайп вокруг нейросети GPT-2 продолжается (сначала кратко напомню предысторию для тех кто не в курсе).

В прошлом году появилось несколько мощных нейросетевых моделей на базе Transformer-ов, предобученных на больших текстовых корпусах, в том числе гугловский BERT и GPT от OpenAI. Последняя -- это такая language model сетка, которая умеет генерировать правдоподобное на первый взгляд продолжение любого префиксного текста. Т.е. там, конечно же, тоже шизофазия, как и во всех предыдущих попытках такого рода, вроде марковских цепей и RNN, но шизофазия уже значительно более высокого качества.

В феврале этого года создатели GPT-1 сделали странное движение -- они выпустили статью про GPT-2 (существенно расширенную версию GPT-1, но расширенную в основном экстенсивно), а вместо выкладывания обученной модели созвали шумную журналистскую пресс-конференцию в духе "человечество не готово к такого уровня технологиям" и "мы встанем живым щитом на пути порождённой нами опасности". Короче, модель не выложили, точнее выложили существенно уменьшенную версию. Народ в отрасли немного удивился такому дешёвому набросу, пошумел по соцсеточкам пару недель и успокоился.

Далее, ребята из OpenAI, видимо, решили подогревать этот хайп сколько можно, и в мае, за пару дней до ICLR 2019 они выложили "medium version of GPT-2", т.е. предобученную модель побольше, но всё же не ту, о которой писали в феврале. В кулуарах самой ICLR 2019 они заговорщически обещали со временем рассмотреть заявки с просьбами доступа к большой модели, полученные на специальный адрес.

Но, как писал Станислав Лем, в науке не бывает закрытий, только открытия: полторы недели назад некто Connor Leahy сообщил миру, что обучил полную модель GPT-2 с нуля и опубликует её 1 июля, если ему не предоставят самолёт^W убедительных аргументов против этого. Обсуждения проходят в твиттер-треде и в паре медиумных постов (раз, два).

Наблюдаем за развитием событий, а тем временем можно посмотреть на что способны маленькие версии моделей такого рода:
* онлайн ADnD игра, где роль мастера выполняет small GPT-2
* онлайн текстовый редактор с функцией "против писательского блока", по табу предлагающий несколько вариантов развития текста. Small/medium GPT-2.
* тредик на реддите, полностью сгенерированный моделью (тут подробнее про процесс генерации)

UPD: Я протупил последнее сообщение от Connor Leahy — он передумал выкладывать модель ;) Цирк продолжается!
Есть такой композитор – Антонин Дворжак и он умер 115 лет назад не дописав одно из своих произведений «Из мира будущего» (From the Future World).

Но спасибо алгоритмам и стартапу AIVA, произведение дописали и оркестр Prague Philharmonia в ноябре исполнит заключительную часть пьесы.

Тут детали.

А билеты на концерт можно купить тут.
Facebook AI поделился своим исследованием которое позволяет по фотографии еды сгенерировать рецепт (!) приготовления этого блюда.

Это довольно сложная задача, сначала алгоритм пытается понять какие именно ингредиенты есть на фото и как именно их обработали (нарезали, перемололи, поджарили и тп), после этого алгоритм генерирует текстовый рецепт готовки блюда.

Датасета состоит из миллиона фотографии, это наверное самый большой датасет про еду, что я видел.

Кстати, этот же алгоритм позволяет решить задачу подсчета калорийности блюда по фотографии.

Почитать исследование можно тут:
https://ai.facebook.com/blog/inverse-cooking/
Forwarded from Журнал «Код»
Нейросеть NVIDIA, которая на ходу превращает примитивные рисунки в реалистичные фотографии, теперь можно опробовать самостоятельно.

Выберите метку «дерево», нарисуйте вертикальную линию с кружком сверху, и система сама поймёт, что нижняя часть является стволом, а верхняя — кроной. Добавьте на землю снега, и там, где была листва, останутся только голые ветви. Дорисуйте под деревом пруд, и в нём появится соответствующее отражение.

Нейронную сеть обучили на огромном количестве фотографий реальных мест. Поэтому она знает, где должны быть тени, какого цвета должны быть те или иные объекты и какую они должны иметь текстуру. Ещё немного, и фотостоки будут не нужны.

Опробовать нейросеть можно по ссылке: https://52.12.58.174
Denis Sexy IT 🤖
Есть такой композитор – Антонин Дворжак и он умер 115 лет назад не дописав одно из своих произведений «Из мира будущего» (From the Future World). Но спасибо алгоритмам и стартапу AIVA, произведение дописали и оркестр Prague Philharmonia в ноябре исполнит…
Ребята из AIVA прислали мне beta-доступ и я записал очень скучное видео на 7 минут про то, как работает этот сервис генерации нейронной музыки:
https://youtu.be/rohhbM5UDgw

Если коротко, оно правда генерирует музыку, но где именно применить то, что оно генерирует я пока не придумал – но вектор очень перспективный.

P.S. Простите за чаек на фоне 🐦
Пару дней назад я писал про нейронку от Facebook AI которая генерирует рецепты по фотографиям определяя при этом ингредиенты, теперь с ней можно поиграться в условно удобном виде, собрал тут разных сгенерированных рецептов и инструкцию как запустить самому:
https://tjournal.ru/102605
В новом iOS 13 с ARKit 3 видимо будет весело.

Автор видео

Experimenting with ARKit 3 human body segmentation to copy skin into 3d
This media is not supported in your browser
VIEW IN TELEGRAM
Узнал о том, что в конце апреля прошла третья конференция EVERYTHING PROCEDURAL. Пока нет видео этого года, можно посмотреть записи некоторых старых докладов.
На заглавной гифке -- работа процедурной художницы Анастасии Опара, сделавшей генератор наличников на окна.
Forwarded from DTF
Microsoft научила нейросеть создавать изображения по текстовому описанию.

Например, система понимает, как расположить объекты на картинке, по предложению «женщина в шлеме сидит на лошади».

https://dtf.ru/life/55293
Спасибо нейронкам и реддиту, теперь мы знаем как выглядел бы Doom Guy из того самого старого дума.

А тут детали того, как генерировали картинку
This media is not supported in your browser
VIEW IN TELEGRAM
Как-то очень внезапно мы в будущее попали