Not Boring Tech
12.9K subscribers
1.03K photos
794 videos
6 files
2.19K links
Пишу про мир технологий и стартапов 🤖💖

Связь/сотрудничество: @fraizy_qwerty

Чат канала: @neural_chat
Download Telegram
This media is not supported in your browser
VIEW IN TELEGRAM
🥳 Первый рабочий день в этом году отметим новым DeepFake роликом от энтузиаста — чего-то в канале такого давно не было (аж полгода). На сей раз ютубер «Jarkan» с помощью нейросеток заменил лицо Оскара Айзека, исполняющего роль По Дэмерона в девятых Звёздных войнах, на лицо Тома Круза.

🍿 Не знаю как вам, но меня чего-то зацепило высокое качество ролика. Похоже, актёры скоро будут сдавать своё лицо в аренду для фильмов, а может киношники вообще будут без них обходится, используя их виртуальные версии.

https://youtu.be/YctdgDJgGAU

#DeepFake | Not Boring Tech
This media is not supported in your browser
VIEW IN TELEGRAM
😻 Почему технологии DeepFake должны использовать только на лицах людей? Музыкальная группа Travis задалась этим вопросом и создала клип на одну из своих песен... с котом в главной роли! Похоже, становится мейнстримно использовать DeepFake в видеоклипах, что же следующее мы увидим?

🤣 Посмотрите полную версию, получилось довольно качественно:
https://youtu.be/Wbum2xr3K40

#DeepFake #Fun | Not Boring Tech
🤥 Если вы пропустили эту новость, рассказываю: мошенники запустили рекламу в Facebook, главный персонаж которой — Дмитрий Мацкевич, основатель крупной компании Dbrain (компания-разработчик бухгалтерского ПО). Но сам Мацкевич в рекламе не участвовал — его заменили точной DeepFake копией и с помощью его лица пытались заманить любопытных заработать очень много денег. Точность видеоролика конечно поражает, пусть и присутствуют артефакты!

💣 Удивительно, но Facebook рекламный пост этого скама ещё не скрыл (хотя впрочем ничего удивительного):
https://www.facebook.com/watch/?v=231723048456916

#Tech #DeepFake | Not Boring Tech
😳 Событие, как никак, значимое — законодательная комиссия Великобритании хочет регулировать использование технологии дипфейков. Правда, есть нюансы, например:
1) регулирование состоит исключительно из рекомендаций по самому регулированию;
2) дипфейки им затрагиваются пока только косвенно;
3) «убивать» перспективную технологию никто не собирается.

Дело в том, что случаи интернет-травли значительно участились, а дипфейк порно с лицом жертвы — один из её наиболее опасных инструментов. Именно с этим плохим аспектом дипфейков хочет бороться комиссия, и уже через несколько недель первой в мире даст свои рекомендации по регулированию вопросов интернет-травли. Если закон всё же будет принят в Великобритании, вероятно в скором времени похожие законы примут в США и ЕС, что значительно снизит количество случаев злоупотребления перспективной технологией дипфейков!

🎭 Считаю, что это к лучшему, всё же уже стоит менять фокус на полезное применение этой технологии. Наконец она может стать полезной для массового потребителя!

#DeepFake #AI #Read | Not Boring Tech
This media is not supported in your browser
VIEW IN TELEGRAM
🎭 Почти все уже видели эти ультракачественные дипфейки Тома Круза, и теперь их создатели раскрыли все карты. Как я и предполагал, чуда нет: дублёром в ролике был двойник актёра, Майлз Фишер, который пародировал Круза в комедии «Супергеройское кино». А от исходного лица, конечно, многое зависит.

К тому же на создание этих видео ушло очень много времени и сил — если быть точнее, 2 месяца обучения моделей на лице Тома с помощью пары NVIDIA RTX 8000 и дни ручной обработки клипов буквально до каждой детали. Мораль этой истории — не верить всему, что говорят в Интернете. А крутых и пугающих технологий, не только дипфейков, у нас уже достаточно.

#Tech #DeepFake | Not Boring Tech
👁️ Судя по последним новостям, дипфейки становится всё сложнее отличить. На arXiv вышла новая работа о гениальном и крайне простом инструменте, с помощью которого можно анализировать отражения света в глазах. Да, всё настолько просто: алгоритм ищет несоответствия, которые допускают технологии DeepFake в изображениях глазных яблок людей (к примеру, чаще всего замечаются нереалистичные геометрические формы самого отражения света). Точность этого метода составила целых 94%.

Основной недостаток такого подхода заключается в том, что эти несоответствия на изображении легко решаются ручной обработкой. А если лицо не смотрит в камеру или один глаз не виден на снимке, метод также не сработает. Создатели инструмента планируют изучить эти проблемы и повысить эффективность своего метода.

#DeepFake #AI | Not Boring Tech
😋 Очередная история из мира киберпанка, всё как вы любите. Почти год назад в Пенсильвании 50-летняя мать одной из чирлидерш местной группы поддержки Victory Vipers анонимно отправила тренерам видео с соперницами её дочери. Но видеоролики оказались дипфейками, на которых подростки были якобы пьяны, накурены, почти полностью без одежды и вели себя аморально. По плану матери, соперниц должны были выгнать из команды за неподобающее поведение. К тому же она анонимно призывала самих оппонентов к самоубийствам.

Но она не учла, что один из родителей жертвы мог обратиться в полицию из-за таких тревожных текстовых сообщений, что и произошло в июле прошлого года. Затем ещё две семьи сообщили об этом, и, детективы, проанализировав видео, точно смогли определить, что это правда дипфейки. В итоге в начале марта отправителя сообщений (мать) вычислили по IP и задержали, подозревают в вышеперечисленном и хотят посадить за решётку. Правда до сих пор не понятно, как качественные дипфейки смогла сделать, казалось бы, обычная мать одной из чирлидерш.

#DeepFake #Cyberpunk | Not Boring Tech
This media is not supported in your browser
VIEW IN TELEGRAM
🤥 Та новость с громким заголовком получила продолжение! Но сначала напомню саму историю: в марте этого года полиция задержала 50-летнюю американку по подозрению в том, что она сделала обнажённые и аморальные дипфейки с чирлидершами из команды своей дочери. Отправив эти видео тренерам, она хотела подставить девушек.

Но сейчас журналист Daily Dot рассказал в Твиттере, что не нашёл никаких доказательств того, что женщина отредактировала ролик. К тому же он пообщался с полицейским, который в самом начале определил видео фейком — тот рассказал, что сделал такой вывод «на глаз». А многие другие эксперты по дипфейкам тоже сомневаются в том, что видео создано искусственно. В общем, теперь подозреваемой женщине тюрьма не светит, а вот у чирлидерш карьера, скорее всего, окончена. Столь громкой лажи из-за собственной ошибки ещё ни у одной чирлидерши не было! Ну и да, не всегда стоит верить всем словам от СМИ.

#DeepFake #Cyberpunk | Not Boring Tech
This media is not supported in your browser
VIEW IN TELEGRAM
💫 Стартап Aflorithmic разработал реалистичного чат-бота с цифровым Альбертом Эйнштейном. Голос известного учёного воссоздали с помощью ИИ, использовав записи голоса настоящего Альберта, а лицо было сделано благодаря дипфейку и компьютерной графике.

Идея выглядит, как минимум, свежо — создатели бота таким причудливым способом хотят показать, что совсем скоро дипфейки исторических личностей будут использоваться в коммерции и рекламе. К примеру, в статье от Tech Crunch приводится такой пример: «скорее всего, они будут пытаться продать вам пиццу». Как раз на похожей рекламе специализируется стартап Aflorithmic, сделав таким образом себе неплохую рекламу.

#AI #DeepFake | Not Boring Tech
🤔 Кто я и о чём этот канал?

Меня зовут Василий. Я автор канала «Бэкдор» — там я пишу про интернет, уязвимости, полезные сервисы и IT-безопасность. У меня есть большой опыт работы с no-code, основал несколько небольших проектов, участвовал в разработке @AnimeStyle_bot, работал с клиентами в команде cryome.tech/ru и иногда участвую в жизни самого крупного чата про ИИ, @ai_life, как администратор. Интересуюсь технологиями, нейросетями, маркетингом и созданием стартапов, читаю книжки и статьи на эти темы, кое-какие идеи тестирую.

Главный проект у меня сейчас — «Not Boring Tech», блог про примечательные новости и находки из мира современных технологий и IT-стартапов.

Если хочется почитать публикации на какую-то конкретную тему, в канале есть система навигации с хэштегами:
#Neural_network #AI #Tech #Universe #Service #App #Bot #Biofood #Robot #Hackers #Musk #AR #VR #MR #Deepfake #Game #Notice #Hand_made #Fun #YouTube #Autopilot #Techno_giants #Neural_art #Read #Startup #Cyberpunk #Internet #Device #Crypto #Computer #ML #Science #Future #Digital #vsEpicGames #Pandemic_news #vsBrokers #Silicon_category #Business #Marketing #Notboring_cup #promo

Также я регулярно веду #Digest — каждое воскресенье собираю самое интересное чтиво про бизнес, технологии и продуктивность.

Если вы хотите купить у меня рекламу или просто пообщаться, пишите в личку — @fraizy_qwerty. У меня уже покупали рекламу Яндекс, Skillbox, Puzzle English, Otus, GeekBrains, ВШЭ и многие другие.

Кроме канала есть:

💭 Классный чат для подписчиков, в котором уже собралось мощное комьюнити (стартаперы, программисты и все заинтересованные). Вступайте и рассказывайте о себе!

✍️ Блог на vc.ru, в котором я публикую статьи, лонгриды и интервью с интересными людьми. Там уже есть подборка лучших нейросетей за 2020-й, интервью про беспилотники, цифровую моду и no-code.

😇 Patreon для подписчиков, которые хотят материально отблагодарить меня за качественный контент. За ежемесячную подписку от 1$ вы получаете ваше упоминание в закреплённом посте, ранний доступ к публикациям, эксклюзивный контент и возможность бесплатно публиковать свои мысли в канале хоть каждый месяц.

#Notice | Not Boring Tech
This media is not supported in your browser
VIEW IN TELEGRAM
🎤 Американская компания Veritone запускает новую платформу, которая позволяет клонировать голоса знаменитостей. Теперь любая известная личность может оцифровать свой голос с помощью алгоритмов и использовать его для аудиореклам, эфиров на радио и аудиокниг, чтобы не утруждаться самим. Основатели сервиса считают, что голоса знаменитостей — такая же часть их бренда, которая поддаётся под звание монетизируемого актива. Выше проморолик этой площадки.

Что-то похожее мы видели в сентябре — тогда звёзды баскетбола не смогли прийти на съёмки рекламы стриминг-сервиса Hulu из-за пандемии, так что создателям видео пришлось «наклеивать» на дублёров лица знаменитостей с помощью DeepFake, когда те спокойно отдыхали у себя дома на карантине и получали свой гонорар.

#Startup #AI #DeepFake | Not Boring Tech
🗺️ Дезинформация теперь даже на картах: американские исследователи использовали дипфейк-алгоритм, чтобы подделать спутниковые снимки. Например, нейросеть добавила больше зданий в Сиэтл (на фото) и больше растительности в Пекин. Получилось, на самом деле, очень реалистично, и многих это пугает.

Такими технологиями могут воспользоваться террористы, чтобы скрыть на спутниковых фото свои оружейные установки или секретные склады от посторонних глаз. Или армия подделает местоположение своей военной базы, чтобы запутать врага. Не зря говорят, что дезинформация — новое ядерное оружие. А исследователи из этой новости как раз и хотят привлечь внимание к этой проблеме и найти способы идентификации таких подделок.

#AI #Deepfake | Not Boring Tech
🕸️ Дипфейки — главная проблема будущих лет. Ещё в 2019 году Facebook начал защищаться от грядущих угроз дезинформации и объявил конкурс на $10 млн за создание нейросети, которая сможет распознавать дипфейки. Победитель был точен на 65%, что по на тот момент были немаленькие цифры.

Но Facebook не стоит на месте и представил новый нестандартный метод борьбы с дипфейками. Вместо того, чтобы определять по обычным признакам «фейк или нет», новый алгоритм выявляет признаки именно той модели, которая сгенерировала предполагаемый дипфейк.

🤖 То есть, новую нейросеть обучили на огромном датасете разных моделей, которые генерируют дипфейки. Алгоритм смотрит на видео и пытается найти признаки, присущие этим моделям. Если признаков не находит, то нейронка предсказывает архитектуру модели по уже подготовленным параметрам. Если и этого нет — получается, что ролик вовсе не дипфейк, а самый настоящий.

#AI #DeepFake | Not Boring Tech
This media is not supported in your browser
VIEW IN TELEGRAM
Наверное, вы никогда не видели Илона Маска в роли Рика Эстли: я исправлю эту ситуацию.

Это результат работы крутого бота @DeepFakerBot, о котором почти никто не знает. Может показаться, что это продолжение ботов из серии «взял код известной нейронки с гитхаба и обернул в бота», но это не так — ребята сами разработали свою нейросеть, вероятно, обучив её на огромном массиве данных. Получаются очень качественные ролики, намного лучше других ботов. Конечно, без лимитов не обошлось (длительность 10 сек, а ежедневно можно делать только 10 дипфейков), но плюсов больше. Например, нет рекламы, водяных знаков и даже очереди — у меня ролик сгенерировался за 4 секунды.

🔗 В общем, го тестить: @DeepFakerBot

#DeepFake #Bot | Not Boring Tech
This media is not supported in your browser
VIEW IN TELEGRAM
🎞️ Этика и дипфейки, как всегда, противоречат. Вспомните историю, когда убитого подростка использовали в дипфейке для социалки про выборы. Теперь что-то похожее повторяется.

В новой документалке от HBO и CNN про погибшего шеф-повара Энтони Бурдена есть строки, озвученные его голосом с помощью ИИ, которые он никогда не произнёс бы вслух. Создателям якобы не хватило источников с Энтони и они решили озвучить его личную переписку его же голосом, не показав зрителям дисклеймер о применении ИИ в фильме. Зрители могли и не подозревать, что некоторые цитаты не оглашались Бурденом.

😓 И вот что ещё напрягает: Энтони погиб из-за суицида только три года назад, а его частные письма уже обнародовали и даже не в естественном виде. В этой переписке были его депрессивные размышления (конечно сугубо личные). Этично ли клонировать голос мёртвого человека и заставлять его говорить то, что он не записал бы на плёнку при жизни? На 1:30 в трейлере выше есть часть того самого дипфейка.

#Deepfake | Not Boring Tech
🧭 Вот, как этично делают дипфейки в Тель-Авиве: стартап Hour One платит людям, чтобы сделать из них персонажей для рекламных роликов с помощью DeepFake. Достаточно подать заявку на сайте компании и указать свой Instagram. Если одобрили, вы снимаете своё лицо с разных сторон и с разными эмоциями, а затем алгоритм превращает вас в 3D-модель. Её компания будет задействовать, чтобы создать рекламные или образовательные видео с вашим лицом — например, ваш персонаж прочитает текст на любом языке.

Пока персонажей около сотни, а сколько им заплатили не говорят. Обещают, что вам даже не нужно быть моделью — компания хочет собрать персонажей разных типажей, возрастов и национальностей. Похоже, дипфейки правда становятся этичнее — вместо того, чтобы без спроса использовать лица в коммерческих целях (как это часто бывает), вы даёте согласие и получаете за это деньги.

#DeepFake #AI #Startup | Not Boring Tech
This media is not supported in your browser
VIEW IN TELEGRAM
📺 Забавное зрелище — на YouTube запустили вечный стрим, который круглосуточно транслирует актуальные новости с Илоном Маском в роли ведущего. Автор зациклил 20-минутное совещание с Маском и добавил алгоритм Wav2Lip для создания реалистичного дипфейка. В блендер также закинул SOVA TTS для синтеза речи.

И результат на экране — Илон Маск нонстопом вещает новости на русском языке, чередуется с картинками. А между новостями транслируется бомбическая заставка. Причём всё сделано только с помощью открытых источников.

#YouTube #DeepFake | Not Boring Tech
😆 Ютуб-канал Ctrl Shift Face выпустил дипфейк-версию «Терминатора» с кучей камео — кажется, это лучший дипфейк, который я когда-либо видел.

Здесь можно увидеть Сильвестр Сталлоне в образе киборга, Канье Уэста, Джима Керри вместе с Брэд Питом и Марком Цукербергом. Даже Трампа добавили! И все вполне органично смотрятся. Хочу теперь весь фильм так, а деньги на него собрать краудфандингом (ㆁωㆁ)

#DeepFake | Not Boring Tech
Новость про Брюса Уиллиса, который продал права на свой образ российской компании Deepсake, оказалась громким фейком. На этой неделе разлетелась новость, что актер, который ранее решил уйти на пенсию из-за болезни, продал права на создание и использование его цифровой версии — дипфейка.

Представитель Уиллиса рассказал The Hollywood Reporter, что у актера нет никаких партнерских отношений или соглашений с Deepcake, а пиарщик российской компании также подтвердил изданию, что права на цифровое изображение Уиллиса не могут быть проданы, поскольку по умолчанию принадлежат ему самому. Как подхватили такой фейк мировые издания — неизвестно. Так что пока мы не увидим цифрового двойника Брюса в фильмах или сериалах :⁠-⁠(

#Deepfake | Not Boring Tech
👽 В MIT создали программу для защиты изображений от возможности превратить их в дипфейк. Используется не новая идея, но усовершенствованная — система за пару секунд искажает пиксели на картинках и создает невидимый визуальный шум, который «отравляет» данные для компьютера. Это делает невозможным нейросетям генерировать реалистичные дипфейки.

Потенциально так можно защитить актеров и селебрити от неправомерного использования их лиц. Скоро будем наблюдать, как алгоритмы научатся обходить эти ограничения с размытыми пикселями — тогда это вызовет «гонку вооружений» между коммерческими ИИ-генераторами изображений и системами, пытающимися предотвратить дипфейки. Запасайтесь попкорном.

#Deepfake | Not Boring Tech