ПолитИИзация
393 subscribers
146 photos
30 videos
3 files
159 links
ИИ - новая нефть. Попробуем разобраться, как её будут использовать.

Веду его я, аналитик международного развития ИИ Антон Тамарович
Download Telegram
2🔥2
Media is too big
VIEW IN TELEGRAM
#aitrends
Что посмотреть на январских выходных

Самая адекватная программа про международную политику на российском ТВ "Международное обозрение" выпустила в конце года большой сюжет по ИИ.

Могу сказать, что тема раскрыта недостаточно, но попытка уже радует. Главную задачу привлечения внимания к ИИ она выполняет. Да и для стороннего зрителя много нового будет
👍3
new_«Цифра»_и_искусственный_интеллект_на_службе_дипломатии.pdf
3.9 MB
#aidoc

Коллеги из МГИМО выпустили доклад про развитие и внедрение цифровых технологий в контексте мировой политики.

В подобных документах явно ощущается новизна темы ИИ в политике. Главы про ИИ выделяются и с трудом встраиваются в какую-то очевидную категорию по типу кибербезопасности, дипломатии или же социально-экономиечкого развития государств. Возможно потому что ИИ имеет значение сразу для всех аспектов жизни человека. Не зря ИИ характеризуют как набор сквозных технологий.

Мы явно только начинаем осмысливать трасформационные возможности ИИ. А без этого невозможно сформировать общую картину того, куда всё движется. К счастью, чем больше будет докладов подобных этому, тем больше кирпичиков этой картины мира будет у нас.

Советую почитать доклад. В одном месте собрано сразу много трендовых направлений
👍6👎1🔥1
#aipodcast

Это воскресенье можно занять прослушиванием отличной беседы с Александром Крайновым, директором по развитию искусственного интеллекта в Яндексе.

Александр признанный эксперт и один из ключевых в России людей в сфере ИИ. Слушать его обязательно, чтобы глубинно понимать, куда идёт развитие искусственного разума.

По традиции нейронка сделала для нас краткий пересказ разговора. Хороший способ понять о чём шла речь.

Ps. разговор ведет Сергей Мезенцев, так что готовимся к позитивной беседе, приправленной юмором.
👍2🔥1
This media is not supported in your browser
VIEW IN TELEGRAM
Всемирный экономический форум в Давосе всегда выступал в роли индикатора трендов, вокруг которых будет крутиться мировая повестка в ближайшее время. Учитывая нарастающую фрагментацию мирового политического пространства, логичным было ожидать, что Давос станет не просто площадкой для различных сигналов мировой элите, но уже прямым указанием к действию.

Для фокусирования внимания общественности Форум ежегодно выпускает аналитический доклад с оценкой ключевых мировых тем. В этом году доклад посвящен глобальным рискам, где первое место в списке краткосрочных рисков (которые проявятся в следующие два года) заняла дезинформация.

В докладе говорится, что распространение дезинформации больше не требует специальных навыков и может осуществляться при помощи ИИ, что уже привело «к взрывному росту фальсифицированной информации и так называемого синтетического контента — от сложного голосового клонирования до поддельных веб-сайтов».

Что еще примечательно, составители прямо говорят, что риски могут реализоваться в ходе проведения выборов. Тут, конечно, подразумевается выборы президента в США. Ранее писал, что именно новые возможности ИИ в избирательных кампаниях беспокоят политиков. Именно это придает особую остроту мировым дискуссиям о международном регулировании ИИ.

Чтобы придать импульс этим дискуссиям Форум объявил о создании AI Governance Alliance. Альянс сразу же выпустил доклад с описанием принципов безопасного и ответственного использования генеративных нейросетей, а также предложил реализовать эти принципы на мировом уровне.

Иронично, но в сети завирусился как-раз фейковый ролик как бы с этого Форума, основной посыл которого заключается в критике мировых элит и их стремления распространить свои подходы на весь мир.

Хорошая иллюстрация того, что идеи о мировом регулировании ИИ теперь могут не иметь успеха.
👍1
Встретил такую новость:
Лауреат самой престижной в Японии литературной премии призналась, что использовала ChatGPT при написании романа. Риэ Кудан получила премию Акутагавы за роман "Токийская башня сочувствия".

За этим событием кроется интересный вызов, отношение к которому нам еще предстоит выработать. По словам Риэ Кудан, «общение» с ChatGPT вдохновляло ее на диалоги в романе, а около 5% текста скопированы целиком из выдачи нейросети. Т.е. почти весь текст все же был написан ею.

Тогда можно поразмышлять - что мы, как читатели, считаем первичным в произведении: стиль изложения, сюжет или что-то еще? Можно допустить, что есть авторы гениальные в каком-то из этих элементов, а остальное у них выходит в более простом исполнении. Раз так, то допустимо ли применить ИИ, чтобы дать автору сосредоточиться на той составляющей произведения, в которой он наиболее интересен читателю?

Это размышление можно развивать дальше. Есть ИИ, которые специализируются на копировании стиля. Возможно вы видели картины, крайне схожие с работами известных художников, но художники их никогда не писали. Помимо изображений, это можно проделать и с аудио, и с текстом. Однако, что будет, если автор научит ИИ копировать свой собственный стиль? Сможет ли он претендовать на высокие награды?

Есть ощущение,что нам придется дать ответы уже очень скоро, когда кто-то получит Нобелевку по литературе за произведение с использованием ИИ
😁2👏1
ДИПФЕЙК СКАНДАЛ ВО ВРЕМЯ ВЫБОРОВ В ИНДОНЕЗИИ 🇮🇩

▪️Использование технологий искусственного интеллекта во время политических выборов приобретает все большую актуальность в связи с новым скандалом во время предвыборной гонки в Индонезии.

▪️В середине февраля 2024 года в Индонезии должны состояться президентские и парламентские выборы.

◾️6 января 2024 года Эрвин Акса, председатель политической партии «Голкар», на социальной медиаплатформе X распространил дипфейк-видео, изображающее покойного индонезийского президента Сухарто. Видео представляет собой реалистичную симуляцию бывшего президента, призывающего избирателей голосовать за кандидатов партии «Голкар»: «Я президент Сухарто, второй президент Индонезии, приглашаю вас избрать представителей народа из Голкара». https://youtu.be/DOu8VlxNyFA?si=B6BmdaHH87n1kCLh

▪️Политический дипфейк стал вирусным, набрав за пять дней 4,2 миллиона просмотров и 1200 комментариев.

▪️В конце декабря 2023 года Министерство связи и информационных технологий Индонезии выпустила депешу об этичности использования искусственного интеллекта, но она носила лишь рекомендательный характер.

▪️Скандал с приведенным выше политическим дипфейком вызвал громкие дебаты об этических и юридических последствиях использования таких технологий для политических кампаний страны.

▪️Рассматриваемая нами предвыборная манипуляция в очередной раз указывает на то, что технологии ИИ могут нести злонамеренный посыл для управления целевыми аудиториями во время политических выборов.

▪️Многие эксперты также полагают, что развитие технологии дипфейк создает проблему для журналистов и факт-чекеров, которые должны проверять подлинность и точность контента, о котором они сообщают. Специалисты предлагают использовать цифровые водяные знаки, блокчейн и специальные программы на основе искусственного интеллекта для обнаружения и противодействия дипфейкам.

▪️В связи с этим встает острый вопрос помогут ли этические принципы при регулировании ИИ или нужны жесткие законы в отношении дипфейков по примеру Китая, где авторы дипфейков привлекаются к уголовной ответственности за угрозу национальной безопасности страны.
👍5
UNHL AI AB Interim report_ rus.pdf
1001.6 KB
Ранее писал про создание Консультативного органа высокого уровня по искусственному интеллекту ООН. Эксперты этой структуры уже подготовили документ, который отражает ключевые темы, связанные с мировым развитием ИИ.

Центр искусственного интеллекта МГИМО сделал перевод этого документа и теперь каждый может ознакомиться с его положениям и даже поучаствовать в обсуждении. Советую обратить внимание на предлагаемые для обсуждения вопросы на странице 30.

Если говорить про содержание доклада, то остановлюсь на одном из предложений. Авторы доклада приводят различные аргументы для создания глобальной системы управления ИИ, однако признают, что ООН обладает неоспоримым мандатом для решения вопросов международной безопасности (бесконтрольное применение автономного оружия, распространение вредоносной информации, появление злонамеренного ИИ).

Поэтому необходимо создание инструментария для мониторинга, отчетности, быстрого реагирования на системные уязвимости и угрозы международной стабильности, которые будут возникать по мере внедрения ИИ. В этом контексте предлагается вспомнить опыт МАГАТЭ для взаимного гарантирования безопасности использования ядерной энергии, а также ВОЗ с мониторингом заболеваемости ковидом.

Фактически предлагается внедрить механизмы обязательной отчетности государства перед внешней структурой.

Этот вариант имеет под собой резонные соображения и опирается на мировой опыт. Однако, хочется отметить, что перед созданием МАГАТЭ человечество стало свидетелем смертоносности неконтролируемого развития ядерных технологий, в том числе и в качестве оружия в ходе бомбардировок Японии.

Именно реальный опыт сподвиг государства отказаться от части своего суверенитета. Не могу сказать, что сейчас есть подобное понимание в отношении ИИ. Но ждать момента, когда это станет понятно на практике, тоже не хотелось бы.
👍1👏1
Ещё в начале этого канала писал про сюжет прошлого года, когда сценаристы и актеры Голливуда устроили забастовку, чтобы не допустить широкое применение ИИ в киноиндустрии. Стоит заметить, что бастующие добились своего. Продюсеры пошли на уступки и пообещали сценаристам не считать продукт искусственного интеллекта исходным материалом, а актерам — что их образы не будут использоваться без разрешения.

Но эта победа профсоюзов явно не сможет остановить происходящие изменения в производстве кино на всех этапах. К примеру, одним из условий успеха видеосервиса Netflix стало внедрение ИИ. Компания начала использовать прорывную по тем временам систему рекомендаций контента, которая точно определяла вкусы зрителя и предлагала ему что-то подходящее именно для него.

Но что еще интереснее, если система не находила подходящего контента, то это сигнализировало компании о наличии запроса зрителя. Поэтому Нетфликс начал создавать сериалы под конкретную аудиторию, точно понимая, что спрос будет.

Сервис открыл целый жанр подростковых сериалов, которые говорили со зрителем на равных про их проблемы взросления: The End of the F***ing World, 13 Reasons Why и др. Можно сказать, что и мега успешный сериал "Очень странные дела" стал результатом четкого расчета на зарождающуюся тогда моду на ретро.

Это лишь один пример использования ИИ, а ведь есть и другие. Мой приятель подробно расписал, как киноиндустрия ИИ-зируется уже сейчас. Конечно, советую почитать. Там и про оптимизацию бюджета, виртуальный подбор актёра и всякое такое: https://trends.rbc.ru/trends/industry/65b76a999a7947e6157d060a
🔥2👍1
Media is too big
VIEW IN TELEGRAM
На форуме Digital Almaty премьер-министр России Михаил Мишустин поднял тему невозможности создания нейтральных языковых моделей, так как они всё равно будут отражать взгляды своих разработчиков.

Я бы развил эту тему и сказал, что это очередной пример значения bias (предвзятости) в выборке данных, на которых обучается модель. Но тут есть большая сложность: обучение модели с нуля требует огромных ресурсов.

К примеру, большая языковая модель GPT3 на момент релиза в 2020 году имела 175 млрд параметров. Обучение модели происходило на суперкомпьютере Microsoft Azure AI, который был построен специально для этих задач. Компания Lambda Labs подсчитала, что на такое обучение могло уйти от 4,6 млн долларов. Для обучения алгоритма исследователи собрали набор данных из более 570 ГБ текстов, английскую Википедию, два датасета с книгами и датасет WebText2 с текстами веб-страниц.

Учитывая стоимость, а также требования к объему данных для начальной разработки модели, разработчики вынуждены брать чужие модели и датасеты из свободного доступа, а уже потом дообучать на своих данных.

В случае с русским языком стоит учитывать, что многие общедоступные датасеты изначально мало внимания уделяли русскоязычным текстам. К примеру, лишь 0,11 % документов, входящих в датасет обучения GPT3, были на русском языке. Что заметно в работе с ChatGPT, который часто отвечает некорректно, если ответ требует понимания культурного контекста.

Учитывая такие вводные, построение собственных моделей и датасетов выглядит актуальной задачей для любого государства, нацеленного на эффективное внедрение ИИ.
🤔1
Организаторы Мюнхенской конференции по безопасности выпустили доклад под труднопереводимым названием Lose-lose? (явно отсылающее к распространенному выражению беспроигрышной ситуации win-win, однако предлагающее начать использовать и его противоположность - безвыигрышность).

Авторы весьма пессимистично описывают тренды международной политики сходясь на выводах, что текущая политика стран мира заключается не в поиске конфигураций взаимовыгодного сотрудничества, а такой политической системы, в которой потери другой стороны должны превышать твои собственные. Речи о получаемой пользе не идет, потому что все участники этой системы теряют (отсюда и такое название доклада).

Авторы уделили внимание и теме технологий в мировой системе. Говорится, что во всем технологическом секторе глобальное сотрудничество уступило место геополитической конкуренции.

В области полупроводников и ИИ политики стремятся превзойти друг друга, а сама эта гонка делает эффект от развития технологий даже негативным. Это выражается в сложности установления глобальных правил разработки и использования ИИ. Поэтому растет число инцидентов, когда ИИ используется как инструмент дезинформации, киберпреступности или же просто наносит вред человеку.

Участники гонки озабочены обеспечением собственной технологической самоизоляции и давлением на других участников ИИ-рынка (к примеру, США запретили продажу своих чипов в Китай и Россию). Учитывая подобное стремление к получению преимуществ в логике lose-lose, ничем не ограниченное развитие военного ИИ  воспринимается как разрастающаяся угроза мировой безопасности.   

Конечно, авторы доклада заявляют, что мировое развитие требует, чтобы "государства нашли баланс между неизбежной конкуренцией и необходимым сотрудничеством", однако я бы не ждал большой активности в этом, ведь они сами сказали, что текущая мировая система не способна обеспечить положение win-win.
👍3
#aipolitics

В начале года в предвыборной кампании в Индонезии посредством технологии дипфейка принял участие покойный лидер Сукарто, что вызвало в стране большие дискуссии об этичности такого формата агитации. Но похоже это было только начало. Теперь эстафету по внедрению дипфейков в политику приняла Индия.

21 января на партийном собрании выступил неожиданный спикер: индийский партийный деятель Мутувел Карунаниди, который умер в 2018 году. На видео Карунаниди ругал правительство за «ограбление государства».

Выступления воскресших политических лидеров не ограничилось этим случаем, а наоборот стало все чаще применяться в политической агитации. ТВ страны даже проводят прямой эфир подобных речей. Издание Straits Times посвятило этому тренду большую статью.

Например, в день голосования в штате Телангана появилось видео, на котором лидер одной из партий призывает голосовать за своих конкурентов. Видео стало вирусным и даже попало на официальную страницу этой партии в социальных сетях. Видео оказалось дипфейком.

После использования контента, созданного ИИ, на выборах в Пакистане, Бангладеш и Индонезии OpenAI (которая создала ChatGPT) и Midjourney (генератор видео и изображений) запретила использование своих общедоступных бесплатных инструментов в политических целях, но обычные люди в Индии довольно легко научились обходить его.

Основатель сайта анализа технологической политики Medianama Нихил Пахва уверен, что «2024 год станет годом дипфейковых выборов». Он пишет, что сгененрированные аудио и видео, выпущенные за несколько дней до выборов, могут реально влиять на политические результаты, так как выявление и ограничение распространения фейка требует времени, которого достаточно для широкого распространения среди избирателей.

Часть общества Индии уже предлагает запретить дипфейки, однако оппоненты указывают, что запрет не даст результата пока ИИ-инструменты широко доступны для обычных пользователей.

Видимо, не только США думают, как спасти демократический процесс, но с этим не закопать технологическое развитие
🔥2👍1