Not Boring Tech
13K subscribers
1.04K photos
804 videos
6 files
2.21K links
Пишу про мир технологий и стартапов 🤖💖

Связь/сотрудничество: @fraizy_qwerty

Чат канала: @neural_chat

№ 5105432939
Download Telegram
🇺🇸 Пока «все не спят, а ситуацию с выборами в США мониторят», создатели Южного парка запустили безумный (однако) сериал об опасности дипфейков и построен он на них же (да, всех актёров заменили дипфейками). Естественно, с жирной каплей сатиры:
https://youtu.be/9WfZuNceFDM

🤯 Пока вышла только одна серия, но она уже взрывает мозг своими шутками и приколами.
P.S. Вот ссылка на русский перевод, но лучше конечно смотрите оригинал.

#YouTube #Fun #Deepfake #Tech | Not Boring Tech
🧐 Автор, что тут по чём?

Это уютный, когда-то маленький канал о клёвых нейронных сетях, технологиях и новостях, связанных с ними — с авторским взглядом и нескучным изложением.

Кстати приглашаю в наш чат, если дочитали уже до этого момента — вам там понравится, мощное комьюнити собирается.

В канале есть удобная система навигации с хэштегами, если хочется углубиться в старые или недавние публикации, велком вниз —

Вот основные хэштеги:
#Neural_network #AI #Tech #Universe

Есть ещё множество других:
#Service #App #Bot #Biofood #Robot #Hackers #Mask #AR #VR #MR #Deepfake #Game #Notice #Hand_made #Fun #YouTube #Autopilot #Techno_giants #Neural_art #Read #Startup #Cyberpunk #Internet #Device #Crypto #Computer #ML #Science #Future #Digital

И рубрики:
#vsEpicGames #Pandemic_news #vsBrokers #Digest #Silicon_category #promo

А личка автора всегда открыта 😉
This media is not supported in your browser
VIEW IN TELEGRAM
🤶 Британский канал «Channel 4» решил показать на телевидении альтернативное рождественское поздравление от Елизаветы II — и оно вызвало бурю негодования. А всё потому, что королева шутила про свою семью, премьер министра, танцевала вместе с корги и напоминала зрителям о дезинформации в цифровую эпоху.

Как вы уже догадались, обращение было записано с помощью технологии DeepFake, а настоящая Елизавета II не принимала в этом никакого участия. Оказывается, такие альтернативы рождественским поздравлениям уже стали традицией на «Channel 4» — почти 30 лет подряд после официального телеобращения кто-то выступал со своей речью, например бывшие президенты, но использовать DeepFake им пришлось впервые.

👒 Однако такое понравилось далеко не всем — но здесь судить только вам самим, можете посмотреть его полностью по ссылке.

#Tech #DeepFake | Not Boring Tech
This media is not supported in your browser
VIEW IN TELEGRAM
🥳 Первый рабочий день в этом году отметим новым DeepFake роликом от энтузиаста — чего-то в канале такого давно не было (аж полгода). На сей раз ютубер «Jarkan» с помощью нейросеток заменил лицо Оскара Айзека, исполняющего роль По Дэмерона в девятых Звёздных войнах, на лицо Тома Круза.

🍿 Не знаю как вам, но меня чего-то зацепило высокое качество ролика. Похоже, актёры скоро будут сдавать своё лицо в аренду для фильмов, а может киношники вообще будут без них обходится, используя их виртуальные версии.

https://youtu.be/YctdgDJgGAU

#DeepFake | Not Boring Tech
This media is not supported in your browser
VIEW IN TELEGRAM
😻 Почему технологии DeepFake должны использовать только на лицах людей? Музыкальная группа Travis задалась этим вопросом и создала клип на одну из своих песен... с котом в главной роли! Похоже, становится мейнстримно использовать DeepFake в видеоклипах, что же следующее мы увидим?

🤣 Посмотрите полную версию, получилось довольно качественно:
https://youtu.be/Wbum2xr3K40

#DeepFake #Fun | Not Boring Tech
🤥 Если вы пропустили эту новость, рассказываю: мошенники запустили рекламу в Facebook, главный персонаж которой — Дмитрий Мацкевич, основатель крупной компании Dbrain (компания-разработчик бухгалтерского ПО). Но сам Мацкевич в рекламе не участвовал — его заменили точной DeepFake копией и с помощью его лица пытались заманить любопытных заработать очень много денег. Точность видеоролика конечно поражает, пусть и присутствуют артефакты!

💣 Удивительно, но Facebook рекламный пост этого скама ещё не скрыл (хотя впрочем ничего удивительного):
https://www.facebook.com/watch/?v=231723048456916

#Tech #DeepFake | Not Boring Tech
😳 Событие, как никак, значимое — законодательная комиссия Великобритании хочет регулировать использование технологии дипфейков. Правда, есть нюансы, например:
1) регулирование состоит исключительно из рекомендаций по самому регулированию;
2) дипфейки им затрагиваются пока только косвенно;
3) «убивать» перспективную технологию никто не собирается.

Дело в том, что случаи интернет-травли значительно участились, а дипфейк порно с лицом жертвы — один из её наиболее опасных инструментов. Именно с этим плохим аспектом дипфейков хочет бороться комиссия, и уже через несколько недель первой в мире даст свои рекомендации по регулированию вопросов интернет-травли. Если закон всё же будет принят в Великобритании, вероятно в скором времени похожие законы примут в США и ЕС, что значительно снизит количество случаев злоупотребления перспективной технологией дипфейков!

🎭 Считаю, что это к лучшему, всё же уже стоит менять фокус на полезное применение этой технологии. Наконец она может стать полезной для массового потребителя!

#DeepFake #AI #Read | Not Boring Tech
This media is not supported in your browser
VIEW IN TELEGRAM
🎭 Почти все уже видели эти ультракачественные дипфейки Тома Круза, и теперь их создатели раскрыли все карты. Как я и предполагал, чуда нет: дублёром в ролике был двойник актёра, Майлз Фишер, который пародировал Круза в комедии «Супергеройское кино». А от исходного лица, конечно, многое зависит.

К тому же на создание этих видео ушло очень много времени и сил — если быть точнее, 2 месяца обучения моделей на лице Тома с помощью пары NVIDIA RTX 8000 и дни ручной обработки клипов буквально до каждой детали. Мораль этой истории — не верить всему, что говорят в Интернете. А крутых и пугающих технологий, не только дипфейков, у нас уже достаточно.

#Tech #DeepFake | Not Boring Tech
👁️ Судя по последним новостям, дипфейки становится всё сложнее отличить. На arXiv вышла новая работа о гениальном и крайне простом инструменте, с помощью которого можно анализировать отражения света в глазах. Да, всё настолько просто: алгоритм ищет несоответствия, которые допускают технологии DeepFake в изображениях глазных яблок людей (к примеру, чаще всего замечаются нереалистичные геометрические формы самого отражения света). Точность этого метода составила целых 94%.

Основной недостаток такого подхода заключается в том, что эти несоответствия на изображении легко решаются ручной обработкой. А если лицо не смотрит в камеру или один глаз не виден на снимке, метод также не сработает. Создатели инструмента планируют изучить эти проблемы и повысить эффективность своего метода.

#DeepFake #AI | Not Boring Tech
😋 Очередная история из мира киберпанка, всё как вы любите. Почти год назад в Пенсильвании 50-летняя мать одной из чирлидерш местной группы поддержки Victory Vipers анонимно отправила тренерам видео с соперницами её дочери. Но видеоролики оказались дипфейками, на которых подростки были якобы пьяны, накурены, почти полностью без одежды и вели себя аморально. По плану матери, соперниц должны были выгнать из команды за неподобающее поведение. К тому же она анонимно призывала самих оппонентов к самоубийствам.

Но она не учла, что один из родителей жертвы мог обратиться в полицию из-за таких тревожных текстовых сообщений, что и произошло в июле прошлого года. Затем ещё две семьи сообщили об этом, и, детективы, проанализировав видео, точно смогли определить, что это правда дипфейки. В итоге в начале марта отправителя сообщений (мать) вычислили по IP и задержали, подозревают в вышеперечисленном и хотят посадить за решётку. Правда до сих пор не понятно, как качественные дипфейки смогла сделать, казалось бы, обычная мать одной из чирлидерш.

#DeepFake #Cyberpunk | Not Boring Tech
This media is not supported in your browser
VIEW IN TELEGRAM
🤥 Та новость с громким заголовком получила продолжение! Но сначала напомню саму историю: в марте этого года полиция задержала 50-летнюю американку по подозрению в том, что она сделала обнажённые и аморальные дипфейки с чирлидершами из команды своей дочери. Отправив эти видео тренерам, она хотела подставить девушек.

Но сейчас журналист Daily Dot рассказал в Твиттере, что не нашёл никаких доказательств того, что женщина отредактировала ролик. К тому же он пообщался с полицейским, который в самом начале определил видео фейком — тот рассказал, что сделал такой вывод «на глаз». А многие другие эксперты по дипфейкам тоже сомневаются в том, что видео создано искусственно. В общем, теперь подозреваемой женщине тюрьма не светит, а вот у чирлидерш карьера, скорее всего, окончена. Столь громкой лажи из-за собственной ошибки ещё ни у одной чирлидерши не было! Ну и да, не всегда стоит верить всем словам от СМИ.

#DeepFake #Cyberpunk | Not Boring Tech
This media is not supported in your browser
VIEW IN TELEGRAM
💫 Стартап Aflorithmic разработал реалистичного чат-бота с цифровым Альбертом Эйнштейном. Голос известного учёного воссоздали с помощью ИИ, использовав записи голоса настоящего Альберта, а лицо было сделано благодаря дипфейку и компьютерной графике.

Идея выглядит, как минимум, свежо — создатели бота таким причудливым способом хотят показать, что совсем скоро дипфейки исторических личностей будут использоваться в коммерции и рекламе. К примеру, в статье от Tech Crunch приводится такой пример: «скорее всего, они будут пытаться продать вам пиццу». Как раз на похожей рекламе специализируется стартап Aflorithmic, сделав таким образом себе неплохую рекламу.

#AI #DeepFake | Not Boring Tech
🤔 Кто я и о чём этот канал?

Меня зовут Василий. Я автор канала «Бэкдор» — там я пишу про интернет, уязвимости, полезные сервисы и IT-безопасность. У меня есть большой опыт работы с no-code, основал несколько небольших проектов, участвовал в разработке @AnimeStyle_bot, работал с клиентами в команде cryome.tech/ru и иногда участвую в жизни самого крупного чата про ИИ, @ai_life, как администратор. Интересуюсь технологиями, нейросетями, маркетингом и созданием стартапов, читаю книжки и статьи на эти темы, кое-какие идеи тестирую.

Главный проект у меня сейчас — «Not Boring Tech», блог про примечательные новости и находки из мира современных технологий и IT-стартапов.

Если хочется почитать публикации на какую-то конкретную тему, в канале есть система навигации с хэштегами:
#Neural_network #AI #Tech #Universe #Service #App #Bot #Biofood #Robot #Hackers #Musk #AR #VR #MR #Deepfake #Game #Notice #Hand_made #Fun #YouTube #Autopilot #Techno_giants #Neural_art #Read #Startup #Cyberpunk #Internet #Device #Crypto #Computer #ML #Science #Future #Digital #vsEpicGames #Pandemic_news #vsBrokers #Silicon_category #Business #Marketing #Notboring_cup #promo

Также я регулярно веду #Digest — каждое воскресенье собираю самое интересное чтиво про бизнес, технологии и продуктивность.

Если вы хотите купить у меня рекламу или просто пообщаться, пишите в личку — @fraizy_qwerty. У меня уже покупали рекламу Яндекс, Skillbox, Puzzle English, Otus, GeekBrains, ВШЭ и многие другие.

Кроме канала есть:

💭 Классный чат для подписчиков, в котором уже собралось мощное комьюнити (стартаперы, программисты и все заинтересованные). Вступайте и рассказывайте о себе!

✍️ Блог на vc.ru, в котором я публикую статьи, лонгриды и интервью с интересными людьми. Там уже есть подборка лучших нейросетей за 2020-й, интервью про беспилотники, цифровую моду и no-code.

😇 Patreon для подписчиков, которые хотят материально отблагодарить меня за качественный контент. За ежемесячную подписку от 1$ вы получаете ваше упоминание в закреплённом посте, ранний доступ к публикациям, эксклюзивный контент и возможность бесплатно публиковать свои мысли в канале хоть каждый месяц.

#Notice | Not Boring Tech
This media is not supported in your browser
VIEW IN TELEGRAM
🎤 Американская компания Veritone запускает новую платформу, которая позволяет клонировать голоса знаменитостей. Теперь любая известная личность может оцифровать свой голос с помощью алгоритмов и использовать его для аудиореклам, эфиров на радио и аудиокниг, чтобы не утруждаться самим. Основатели сервиса считают, что голоса знаменитостей — такая же часть их бренда, которая поддаётся под звание монетизируемого актива. Выше проморолик этой площадки.

Что-то похожее мы видели в сентябре — тогда звёзды баскетбола не смогли прийти на съёмки рекламы стриминг-сервиса Hulu из-за пандемии, так что создателям видео пришлось «наклеивать» на дублёров лица знаменитостей с помощью DeepFake, когда те спокойно отдыхали у себя дома на карантине и получали свой гонорар.

#Startup #AI #DeepFake | Not Boring Tech
🗺️ Дезинформация теперь даже на картах: американские исследователи использовали дипфейк-алгоритм, чтобы подделать спутниковые снимки. Например, нейросеть добавила больше зданий в Сиэтл (на фото) и больше растительности в Пекин. Получилось, на самом деле, очень реалистично, и многих это пугает.

Такими технологиями могут воспользоваться террористы, чтобы скрыть на спутниковых фото свои оружейные установки или секретные склады от посторонних глаз. Или армия подделает местоположение своей военной базы, чтобы запутать врага. Не зря говорят, что дезинформация — новое ядерное оружие. А исследователи из этой новости как раз и хотят привлечь внимание к этой проблеме и найти способы идентификации таких подделок.

#AI #Deepfake | Not Boring Tech
🕸️ Дипфейки — главная проблема будущих лет. Ещё в 2019 году Facebook начал защищаться от грядущих угроз дезинформации и объявил конкурс на $10 млн за создание нейросети, которая сможет распознавать дипфейки. Победитель был точен на 65%, что по на тот момент были немаленькие цифры.

Но Facebook не стоит на месте и представил новый нестандартный метод борьбы с дипфейками. Вместо того, чтобы определять по обычным признакам «фейк или нет», новый алгоритм выявляет признаки именно той модели, которая сгенерировала предполагаемый дипфейк.

🤖 То есть, новую нейросеть обучили на огромном датасете разных моделей, которые генерируют дипфейки. Алгоритм смотрит на видео и пытается найти признаки, присущие этим моделям. Если признаков не находит, то нейронка предсказывает архитектуру модели по уже подготовленным параметрам. Если и этого нет — получается, что ролик вовсе не дипфейк, а самый настоящий.

#AI #DeepFake | Not Boring Tech