Само собой, вы уже знаете все что показал Applе вчера, расскажу лишь про одну фичу которая меня зацепила.
Если вы не используете Mac или iPhone, то возможно не знаете, что в Apple экосистеме есть клевое приложение Find iPhone (в вебе этот сервис тоже доступен) – там выводятся все ваши Apple устройства, включая Macbook и Airpods.
Так вот, если у вас современный Macbook Pro и вы его, например, потеряете – то само собой у устройства не будет никаких способов сообщить о своем местоположении, так как шанс того, что ноут подключен к интернету в момент пропажи очень низок.
И вот, Apple сделал элегантное решение – Macbook в последней macOS будет сообщать через bluetooth всем iPhone устройствам вокруг с помощью технологии похожей на «beacons» о том, где сейчас находится это устройство – зашифровано, само собой. Элегантно, потому что iPhone в мире один из самых популярных телефонов – так действительно можно найти почти что угодно.
А в сочетании с тем, что новый macOS так же будет блокировать оборудование и привязывать его к вашей учетке icloud, то я правда в восторге – новые Macbook (с T2 чипом) нет смысла воровать, их фиг продашь теперь.
Вот тут этот момент, на 01:51:00:
https://developer.apple.com/videos/play/wwdc2019/101/
Если вы не используете Mac или iPhone, то возможно не знаете, что в Apple экосистеме есть клевое приложение Find iPhone (в вебе этот сервис тоже доступен) – там выводятся все ваши Apple устройства, включая Macbook и Airpods.
Так вот, если у вас современный Macbook Pro и вы его, например, потеряете – то само собой у устройства не будет никаких способов сообщить о своем местоположении, так как шанс того, что ноут подключен к интернету в момент пропажи очень низок.
И вот, Apple сделал элегантное решение – Macbook в последней macOS будет сообщать через bluetooth всем iPhone устройствам вокруг с помощью технологии похожей на «beacons» о том, где сейчас находится это устройство – зашифровано, само собой. Элегантно, потому что iPhone в мире один из самых популярных телефонов – так действительно можно найти почти что угодно.
А в сочетании с тем, что новый macOS так же будет блокировать оборудование и привязывать его к вашей учетке icloud, то я правда в восторге – новые Macbook (с T2 чипом) нет смысла воровать, их фиг продашь теперь.
Вот тут этот момент, на 01:51:00:
https://developer.apple.com/videos/play/wwdc2019/101/
This media is not supported in your browser
VIEW IN TELEGRAM
Пока что робо-собаки и собаки не очень ладят.
Но это просто робо-собаки пока не кормят собак.
Но это просто робо-собаки пока не кормят собак.
Forwarded from Karim Iskakov - канал (Karim Iskakov)
This media is not supported in your browser
VIEW IN TELEGRAM
Алгоритмы с помощью правки текста в программе меняют то, что говорят в видео - учитывая и синтез голоса и мимику, и положение губ, и длину видео.
Серьезно, мы еще не готовы к таким уровням генерации фейков, очень интересно что будет дальше.
https://youtu.be/0ybLCfVeFL4
Серьезно, мы еще не готовы к таким уровням генерации фейков, очень интересно что будет дальше.
https://youtu.be/0ybLCfVeFL4
YouTube
Text-based Editing of Talking-head Video (SIGGRAPH 2019)
SIGGRAPH 2019 Paper. Read below for important ethical considerations.
Project page: https://www.ohadf.com/projects/text-based-editing/
My webpage (with this and other related projects): https://www.ohadf.com/
Abstract:
Editing talking-head video to change…
Project page: https://www.ohadf.com/projects/text-based-editing/
My webpage (with this and other related projects): https://www.ohadf.com/
Abstract:
Editing talking-head video to change…
Вид соревнования для тех кто помнит старинное ТВ шоу «Robot Wars» (Razer лучший) – это почти как там, но вместо уничтожения друг-друга клешнями и болгарками, роботы стреляют из турелей пульками в друг-друга, а операторы управляют роботами «от первого лица».
И все на это на фоне города:
https://youtu.be/LjJCkGUTHlA
Я бы с удовольствием поиграл в такое сам, передайте Кузнецову, что тут идея для бизнеса 🍒
Upd. Аналог от азиатов, там даже количество жизней поверх машинок пишется https://www.twitch.tv/videos/433293464?t=03h29m49s
И все на это на фоне города:
https://youtu.be/LjJCkGUTHlA
Я бы с удовольствием поиграл в такое сам, передайте Кузнецову, что тут идея для бизнеса 🍒
Upd. Аналог от азиатов, там даже количество жизней поверх машинок пишется https://www.twitch.tv/videos/433293464?t=03h29m49s
YouTube
Mech Warfare Puts You In The Robot Cockpit
You've seen First-Person-View (FPV) cameras used to fly drones. But putting them into four-legged robots armed with AirSoft guns is a whole new thing. We ran across this robot league at Maker Faire this year.
Robots battle it out in a miniature city, firing…
Robots battle it out in a miniature city, firing…
Forwarded from Dankest Memes // Данкест Мемс
This media is not supported in your browser
VIEW IN TELEGRAM
VR Porn is weird
Я часто пишу, что общество еще не готово к DeepFake технологиям и люди все еще верят своим глазам, но мне кажется движение в сторону осознания того, что ничему верить теперь нельзя постепенно формируется.
Прямо сейчас на BBC World News репортаж про то, что такое DeepFake и пример с не настоящим Цукербергом.
Это видео появилось в Instagram и вызвало резонансное обсуждений правил Facebook, компания его не удалила и решила не бороться с DeepFake видео, но пометила плашкой “fake”.
Что-то мне подсказывает, по градусу обсуждения этой проблемы, Facebook обновит правила конкретно под DeepFake и начнет это все удалять, ну то есть если они до сих пор удаляют всё где есть женские соски, странно ждать от них лояльного отношения к фейкам – появится очередной фейк про политика и мне кажется они прогнутся, и запретят их.
Вот тут можно почитать всю историю на английском:
https://www.technologyreview.com/f/613690/facebook-deepfake-zuckerberg-instagram-social-media-election-video/
Прямо сейчас на BBC World News репортаж про то, что такое DeepFake и пример с не настоящим Цукербергом.
Это видео появилось в Instagram и вызвало резонансное обсуждений правил Facebook, компания его не удалила и решила не бороться с DeepFake видео, но пометила плашкой “fake”.
Что-то мне подсказывает, по градусу обсуждения этой проблемы, Facebook обновит правила конкретно под DeepFake и начнет это все удалять, ну то есть если они до сих пор удаляют всё где есть женские соски, странно ждать от них лояльного отношения к фейкам – появится очередной фейк про политика и мне кажется они прогнутся, и запретят их.
Вот тут можно почитать всю историю на английском:
https://www.technologyreview.com/f/613690/facebook-deepfake-zuckerberg-instagram-social-media-election-video/
Кстати, сегодня начнется слушание в конгрессе США про DeepFake, где предлагают новый закон на эту тему:
– Создателей DeepFake видео обяжут добавлять вотермарки которые помогут социальным сетям понять, что это фейк;
– А если кто-то сделает много DeepFake (без ватермарков), то штрафовать его или даже отправить в тюрьму.
Ну удачи, все кто хочет играться с технологиями уйдут в TOR – а дальше оттуда все будет попадать в обычный интернет.
Пока новый закон только обсуждается:
https://intelligence.house.gov/news/documentsingle.aspx?DocumentID=657
– Создателей DeepFake видео обяжут добавлять вотермарки которые помогут социальным сетям понять, что это фейк;
– А если кто-то сделает много DeepFake (без ватермарков), то штрафовать его или даже отправить в тюрьму.
Ну удачи, все кто хочет играться с технологиями уйдут в TOR – а дальше оттуда все будет попадать в обычный интернет.
Пока новый закон только обсуждается:
https://intelligence.house.gov/news/documentsingle.aspx?DocumentID=657
Forwarded from Жалкие низкочастотники
Тем временем забавный хайп вокруг нейросети GPT-2 продолжается (сначала кратко напомню предысторию для тех кто не в курсе).
В прошлом году появилось несколько мощных нейросетевых моделей на базе Transformer-ов, предобученных на больших текстовых корпусах, в том числе гугловский BERT и GPT от OpenAI. Последняя -- это такая language model сетка, которая умеет генерировать правдоподобное на первый взгляд продолжение любого префиксного текста. Т.е. там, конечно же, тоже шизофазия, как и во всех предыдущих попытках такого рода, вроде марковских цепей и RNN, но шизофазия уже значительно более высокого качества.
В феврале этого года создатели GPT-1 сделали странное движение -- они выпустили статью про GPT-2 (существенно расширенную версию GPT-1, но расширенную в основном экстенсивно), а вместо выкладывания обученной модели созвали шумную журналистскую пресс-конференцию в духе "человечество не готово к такого уровня технологиям" и "мы встанем живым щитом на пути порождённой нами опасности". Короче, модель не выложили, точнее выложили существенно уменьшенную версию. Народ в отрасли немного удивился такому дешёвому набросу, пошумел по соцсеточкам пару недель и успокоился.
Далее, ребята из OpenAI, видимо, решили подогревать этот хайп сколько можно, и в мае, за пару дней до ICLR 2019 они выложили "medium version of GPT-2", т.е. предобученную модель побольше, но всё же не ту, о которой писали в феврале. В кулуарах самой ICLR 2019 они заговорщически обещали со временем рассмотреть заявки с просьбами доступа к большой модели, полученные на специальный адрес.
Но, как писал Станислав Лем, в науке не бывает закрытий, только открытия: полторы недели назад некто Connor Leahy сообщил миру, что обучил полную модель GPT-2 с нуля и опубликует её 1 июля, если ему не предоставят самолёт^W убедительных аргументов против этого. Обсуждения проходят в твиттер-треде и в паре медиумных постов (раз, два).
Наблюдаем за развитием событий, а тем временем можно посмотреть на что способны маленькие версии моделей такого рода:
* онлайн ADnD игра, где роль мастера выполняет small GPT-2
* онлайн текстовый редактор с функцией "против писательского блока", по табу предлагающий несколько вариантов развития текста. Small/medium GPT-2.
* тредик на реддите, полностью сгенерированный моделью (тут подробнее про процесс генерации)
UPD: Я протупил последнее сообщение от Connor Leahy — он передумал выкладывать модель ;) Цирк продолжается!
В прошлом году появилось несколько мощных нейросетевых моделей на базе Transformer-ов, предобученных на больших текстовых корпусах, в том числе гугловский BERT и GPT от OpenAI. Последняя -- это такая language model сетка, которая умеет генерировать правдоподобное на первый взгляд продолжение любого префиксного текста. Т.е. там, конечно же, тоже шизофазия, как и во всех предыдущих попытках такого рода, вроде марковских цепей и RNN, но шизофазия уже значительно более высокого качества.
В феврале этого года создатели GPT-1 сделали странное движение -- они выпустили статью про GPT-2 (существенно расширенную версию GPT-1, но расширенную в основном экстенсивно), а вместо выкладывания обученной модели созвали шумную журналистскую пресс-конференцию в духе "человечество не готово к такого уровня технологиям" и "мы встанем живым щитом на пути порождённой нами опасности". Короче, модель не выложили, точнее выложили существенно уменьшенную версию. Народ в отрасли немного удивился такому дешёвому набросу, пошумел по соцсеточкам пару недель и успокоился.
Далее, ребята из OpenAI, видимо, решили подогревать этот хайп сколько можно, и в мае, за пару дней до ICLR 2019 они выложили "medium version of GPT-2", т.е. предобученную модель побольше, но всё же не ту, о которой писали в феврале. В кулуарах самой ICLR 2019 они заговорщически обещали со временем рассмотреть заявки с просьбами доступа к большой модели, полученные на специальный адрес.
Но, как писал Станислав Лем, в науке не бывает закрытий, только открытия: полторы недели назад некто Connor Leahy сообщил миру, что обучил полную модель GPT-2 с нуля и опубликует её 1 июля, если ему не предоставят самолёт^W убедительных аргументов против этого. Обсуждения проходят в твиттер-треде и в паре медиумных постов (раз, два).
Наблюдаем за развитием событий, а тем временем можно посмотреть на что способны маленькие версии моделей такого рода:
* онлайн ADnD игра, где роль мастера выполняет small GPT-2
* онлайн текстовый редактор с функцией "против писательского блока", по табу предлагающий несколько вариантов развития текста. Small/medium GPT-2.
* тредик на реддите, полностью сгенерированный моделью (тут подробнее про процесс генерации)
UPD: Я протупил последнее сообщение от Connor Leahy — он передумал выкладывать модель ;) Цирк продолжается!
Есть такой композитор – Антонин Дворжак и он умер 115 лет назад не дописав одно из своих произведений «Из мира будущего» (From the Future World).
Но спасибо алгоритмам и стартапу AIVA, произведение дописали и оркестр Prague Philharmonia в ноябре исполнит заключительную часть пьесы.
Тут детали.
А билеты на концерт можно купить тут.
Но спасибо алгоритмам и стартапу AIVA, произведение дописали и оркестр Prague Philharmonia в ноябре исполнит заключительную часть пьесы.
Тут детали.
А билеты на концерт можно купить тут.
YouTube
AIVA / Antonín Dvořák: From the Future World
AIVA / Antonín Dvořák: From the Future World, 1. věta (skladba zkomponovaná umělou inteligencí, jejíž inspirací se stal fragment nedokončeného díla Antonína ...
Facebook AI поделился своим исследованием которое позволяет по фотографии еды сгенерировать рецепт (!) приготовления этого блюда.
Это довольно сложная задача, сначала алгоритм пытается понять какие именно ингредиенты есть на фото и как именно их обработали (нарезали, перемололи, поджарили и тп), после этого алгоритм генерирует текстовый рецепт готовки блюда.
Датасета состоит из миллиона фотографии, это наверное самый большой датасет про еду, что я видел.
Кстати, этот же алгоритм позволяет решить задачу подсчета калорийности блюда по фотографии.
Почитать исследование можно тут:
https://ai.facebook.com/blog/inverse-cooking/
Это довольно сложная задача, сначала алгоритм пытается понять какие именно ингредиенты есть на фото и как именно их обработали (нарезали, перемололи, поджарили и тп), после этого алгоритм генерирует текстовый рецепт готовки блюда.
Датасета состоит из миллиона фотографии, это наверное самый большой датасет про еду, что я видел.
Кстати, этот же алгоритм позволяет решить задачу подсчета калорийности блюда по фотографии.
Почитать исследование можно тут:
https://ai.facebook.com/blog/inverse-cooking/
Forwarded from Журнал «Код»
Нейросеть NVIDIA, которая на ходу превращает примитивные рисунки в реалистичные фотографии, теперь можно опробовать самостоятельно.
Выберите метку «дерево», нарисуйте вертикальную линию с кружком сверху, и система сама поймёт, что нижняя часть является стволом, а верхняя — кроной. Добавьте на землю снега, и там, где была листва, останутся только голые ветви. Дорисуйте под деревом пруд, и в нём появится соответствующее отражение.
Нейронную сеть обучили на огромном количестве фотографий реальных мест. Поэтому она знает, где должны быть тени, какого цвета должны быть те или иные объекты и какую они должны иметь текстуру. Ещё немного, и фотостоки будут не нужны.
Опробовать нейросеть можно по ссылке: https://52.12.58.174
Выберите метку «дерево», нарисуйте вертикальную линию с кружком сверху, и система сама поймёт, что нижняя часть является стволом, а верхняя — кроной. Добавьте на землю снега, и там, где была листва, останутся только голые ветви. Дорисуйте под деревом пруд, и в нём появится соответствующее отражение.
Нейронную сеть обучили на огромном количестве фотографий реальных мест. Поэтому она знает, где должны быть тени, какого цвета должны быть те или иные объекты и какую они должны иметь текстуру. Ещё немного, и фотостоки будут не нужны.
Опробовать нейросеть можно по ссылке: https://52.12.58.174
Denis Sexy IT 🤖
Есть такой композитор – Антонин Дворжак и он умер 115 лет назад не дописав одно из своих произведений «Из мира будущего» (From the Future World). Но спасибо алгоритмам и стартапу AIVA, произведение дописали и оркестр Prague Philharmonia в ноябре исполнит…
Ребята из AIVA прислали мне beta-доступ и я записал очень скучное видео на 7 минут про то, как работает этот сервис генерации нейронной музыки:
https://youtu.be/rohhbM5UDgw
Если коротко, оно правда генерирует музыку, но где именно применить то, что оно генерирует я пока не придумал – но вектор очень перспективный.
P.S. Простите за чаек на фоне 🐦
https://youtu.be/rohhbM5UDgw
Если коротко, оно правда генерирует музыку, но где именно применить то, что оно генерирует я пока не придумал – но вектор очень перспективный.
P.S. Простите за чаек на фоне 🐦
YouTube
AIVA – скучный обзор сервиса генерации нейронной музыки
В этом видео вы можете посмотреть как работает https://beta.aiva.ai – сервис для генерации музыки в пару кликов.
А тут вы можете подписаться на мой канал в телеграме:
https://tele.gg/denissexy
А тут вы можете подписаться на мой канал в телеграме:
https://tele.gg/denissexy
Пару дней назад я писал про нейронку от Facebook AI которая генерирует рецепты по фотографиям определяя при этом ингредиенты, теперь с ней можно поиграться в условно удобном виде, собрал тут разных сгенерированных рецептов и инструкцию как запустить самому:
https://tjournal.ru/102605
https://tjournal.ru/102605
В новом iOS 13 с ARKit 3 видимо будет весело.
Автор видео
Experimenting with ARKit 3 human body segmentation to copy skin into 3d
Автор видео
Experimenting with ARKit 3 human body segmentation to copy skin into 3d
Forwarded from Жалкие низкочастотники
This media is not supported in your browser
VIEW IN TELEGRAM
Узнал о том, что в конце апреля прошла третья конференция EVERYTHING PROCEDURAL. Пока нет видео этого года, можно посмотреть записи некоторых старых докладов.
На заглавной гифке -- работа процедурной художницы Анастасии Опара, сделавшей генератор наличников на окна.
На заглавной гифке -- работа процедурной художницы Анастасии Опара, сделавшей генератор наличников на окна.
Forwarded from DTF
Microsoft научила нейросеть создавать изображения по текстовому описанию.
Например, система понимает, как расположить объекты на картинке, по предложению «женщина в шлеме сидит на лошади».
https://dtf.ru/life/55293
Например, система понимает, как расположить объекты на картинке, по предложению «женщина в шлеме сидит на лошади».
https://dtf.ru/life/55293
This media is not supported in your browser
VIEW IN TELEGRAM
Как-то очень внезапно мы в будущее попали