ПолитИИзация
393 subscribers
146 photos
30 videos
3 files
159 links
ИИ - новая нефть. Попробуем разобраться, как её будут использовать.

Веду его я, аналитик международного развития ИИ Антон Тамарович
Download Telegram
Пора подвести результат опроса

Итог, которого я и ждал - не все осознают, что уже давно используют ИИ. Но по порядку.

75% пользуются ИИ. Кто-то хотел бы попробовать, а кто-то думает, что не умеет. Есть и те, кто принципиально не хочет использовать ИИ.

НО! — все они всё равно пользуются ИИ. Мы используем смартфоны, а этот девайс напичкан ИИ (на программном и аппаратном уровне).

Многие камеры на ваших наладонниках сейчас используют ИИ для того, чтобы вы чувствовали себя отличным фотографом, фото будет докручено алгоритмом. В таких случаях ИИ может быть встроен уже прямо в железо смартфона.

Точно также некоторые используют функцию разблокировки по лицу. Это тоже ИИ, распознавание образов.

Вы можете общаться с голосовым ассистентом - а это уже распознавание и генерация речи.

Или может быть вы звонили в службу поддержки какой-то компании и вам голосом озвучивали набор вариантов, которые все нужно было слушать, чтобы в итоге добраться до оператора-человека. Это уже голосовой бот. Можно привести еще множество примеров того, что ИИ уже часть нашей жизни и мы используем эти технологии, даже не обращая внимания.

Другое дело - хайповые сейчас нейронные сети. Действительно, мало кто ими пользуется, кто-то не умеет, а кто и не хочет. Но это ровно до того момента, пока их не сделают доступными и легкими в применении.
🔥4
Популярные робо-собаки Spot от Boston Dynamics научились говорить после того, как разработчики встроили в них ChatGPT.

Это наглядно показывает, как много технологий лежит за каждым нововведением вокруг нас.

На текущем этапе, для обеспечения речи нужно было не только интегрировать популярную нейросеть для общения, но и реализовать возможность преобразования текста в речь (другая нейросеть), а также научить робота имитировать мимику речи.

Что еще интересно, вместе с говорением, в робота внедрили функцию ролевой модели, которую робот может отыгрывать. К примеру, на видео к этому посту с нами общается робот-дворецкий. Другая интересная ситуация случилась с разработчиками, когда робот выступал в роли гида. Робота спросили кто его родители, и он направился туда, где в офисе компании выставлены старые модели Spot.

Чтобы этот робот вообще появился, компания прошла огромный путь, работая себе в убыток и постоянно меняя владельца (тут описана история компании), чтобы доказать, что их эксперименты принесут практическую пользу. Интересно, как скоро найдутся практические плюсы от подобных роботов?


Бонусом замечу, что робот не говорит на русском, а озвучку первого ролика сделала другая нейросеть HeyGen, о которой я писал ранее.
Мы часто впадаем в заблуждения, что высокие технологии являются эксклюзивом и важной чертой богатых государств.

Однако, последнее время наблюдается обратное - именно общества с низким доходом более лояльны к внедрению прорывных технологий, в надежде, что это принесет столь нужное социальное и экономическое развитие.

Встретил текст на весьма экзотичную тему развития ИИ в Африке. Может быть, именно технологии приведут к началу века Африки, который неоднократно обещали исследователи?

https://ru.valdaiclub.com/a/highlights/tekhnologicheskiy-suverenitet-v-afrike/

P.s. этот пост мог быть сделан, как минимум для того, чтобы показать, как нейросетка видит "внедрение ИИ в Африке"
Все чаще говорят, что возросшая роль ИИ может принести нам как большую пользу, так и сулит огромное количество угроз, которые мы даже не можем заранее спрогнозировать.

Даже создатель самой топовой нейросети ChatGPT Сэм Альтман в мае призвал внимательнее отнестись к возросшей роли ИИ. Он фактически попросил американских законодателей вмешаться в процесс и сформировать регуляторные нормы, в рамках которых и будет идти развитие ИИ (т.е. зарегулировать свой бизнес).

И вот уже 30 октября президент США подписал Указ о безопасной разработке и использовании искусственного интеллекта в котором определяются стандарты защиты американцев от потенциальных рисков ИИ.

Из интересного:
разработчики должны разработать и внедрить обязательную систему стандартов и оценки безопасности своих самых мощных систем ИИ и отчитываться о результатах проверок американскому правительству.

Что еще более примечательно: предполагается внедрить систему маркировки контента, созданного с помощью ИИ. Интересно, как они это реализуют? Явно планируют стать законодателями мировых трендов.

P.s. за этим законом кроется подготовка к президентским выборам в Штата. Есть большие опасения у местных экспертов, что эти выборы могут стать первым соревнованием дипфейков и прочих нейросетей на политическом поле. Если кому интересно, тут больше
1🤔1
Вот тут писал про принятие Указа о безопасном ИИ в США. Однако инициативы по увеличению безопасности ИИ есть и на международном уровне.

Ранее создатель ChatGPT Сэм Альтман предложил
сформировать глобальную систему контроля за искусственным интеллектом по образцу Международного агентства по атомной энергии (МАГАТЭ). По его идее агентство смогло бы выдавать лицензии на ИИ-системы и иметь полномочия «отбирать эту лицензию и обеспечивать соблюдение стандартов безопасности». Идею Альтмана поддержал генсек ООН.

Возможной ступенью к реализации идеи может стать формирование Консультативного органа высокого уровня по искусственному интеллекту ООН. Ключевой задачей этого органа станет разработка политики и руководящие принципы, способствующие безопасному развитию и использованию ИИ.

В состав органа вошло 38 наиболее признанных мировых экспертов по ИИ. Среди них есть и эксперт из России: Анна Абрамова, директор центра ИИ при МГИМО. Вероятно, это позволит России более эффективно продвигать свои взгляды на развитие ИИ в мире
👍2
Неоднократно писал и говорил, что у России есть что привнести в мировое развитие ИИ: от технологий до философских концепций.

Мы сильно продвинулись в этическом регулировании, т.е. добровольном установлении принципов разработки и внедрения ИИ. В 2021 году ряд ключевых российский компаний разработали и подписали российский Кодекс этики в сфере ИИ.

Отсутствие жесткого регулирования позволяет как дать свободу ИИ-компаниям, так и обеспечивает доверие со стороны пользователя. Да и выгодно выделяет российскую ИИ-отрасль, которая одна из первых в мире начала думать о самостоятельном создании правил игры на зарождающемся рынке.

Помимо всего этого, этика ИИ это и про рассуждения: к примеру, может ли ИИ иметь авторские права, нести ответственность за свои действия или же это все дело разработчика, а может пользователя.

Чтобы обсудить все эти вопросы и нащупать новые актуальные темы, мой Центр уже второй раз организует Форум этики ИИ. Я тоже принимаю участие в организации.

Ниже будет подробный пост про мероприятие. Всех призываю как зарегистрироваться на Форум, так и подписаться на канал Тест Тьюринга, в нем иногда выходят материалы, которые я готовлю с коллегами
2
This media is not supported in your browser
VIEW IN TELEGRAM
🌍 «Форум этики в сфере искусственного интеллекта: Поколение GPT. Красные линИИ» пройдет 16 ноября в Москве

⚡️ Мероприятие станет площадкой для демонстрации лучших практик применения этики ИИ, присоединения новых организаций к Кодексу этики в сфере ИИ и формирования комплекса инициатив по совершенствованию этического и нормативного регулирования ИИ.  

⚡️ На форуме пройдет 11 сессий, где выступят представители Совета по правам человека, Минэкономразвития, Минцифры, Минобороны, Сбербанка, Яндекса, а также эксперты российских научно-образовательных организаций и представители религиозных конфессий. 

🌍 Регистрация на сайте форума

🇷🇺 Национальный центр развития искусственного интеллекта при Правительстве РФ

#Мероприятие #ФорумЭтикиИИ
Please open Telegram to view this post
VIEW IN TELEGRAM
3
Часто в ИИ видят инструмент, который позволит решить глобальный проблемы: голод, бедность или экологический кризис. Но есть ощущение, что как минимум одну проблему ИИ, наоборот, обострит - речь идет про изменение климата.

За общим очарование всесильности ChatGPT можно забыть, что работа мощных серверов требует большого количества ресурсов, в том числе воды и электричества (а ведь вода, как и энергия это дефицитный ресурс во многих точках земли).

Аналитики Gartner считают, что к 2030 году на обучение ИИ и хранение данных может приходиться 3,5% всего мирового потребления электроэнергии. При этом, потребление электричества растет в геометрической прогрессии год к году, а это в свою очередь ведет к прямому разогреву температуры Земли.

Исследователи из Калифорнийского университета в Беркли и Google обнаружили, что для обучения GPT-3 потребовалось 1287 мегаватт-часов электроэнергии, чего достаточно для снабжения средней семьи в США в течение примерно 120 лет.

Между тем миллионы ежедневных запросов к нейронке соответствует примерно 4000–6000 мегаватт-часам электроэнергии каждый день. Естественно, с ростом числа пользователей этот параметр тоже увеличивается. И это цифры лишь по одной нейросети, пусть и самой известной. Помимо этого некоторые исследователи говорят, что каждое обновление модели делает её еще более прожорливой.

Но отметим и позитивные моменты использования ИИ для решения проблем, связанных с изменением климата. ИИ показал себя мощным инструментом, помогающим сократить выбросы парниковых газов и повысить энергоэффективность — от оптимизации электросетей и создания «умных» зданий до совершенствования транспортных систем и содействия точному земледелию.

Теперь можно понять, для чего разработчики ИИ на своих презентациях сразу после слов об эффективности моделей сразу переходят на параметры их энергозатратности и высокий потенциал для решения глобальных проблем
👍21
#aiworld
В мировом ИИ-сообществе новостью номер один в эти выходные стало увольнение Сэма Альтмана, руководителя OpenAI, разработчика того самого ChatGPT.

Сразу появилось множество теорий, почему все это произошло.
1. Выходец из Нижнего Новгорода Илья Илья Суцкевер убрал конкурента из руководства компании.
2. У Альтмана возник конфликт интересов из-за его сторонних проектов, которые потенциально могли конкурировать с OpenAI
3. Совету директоров компании не понравилось стремление Альтмана максимально заработать на разработках компании, что вступает в противоречие с названием и начальной целью компании по распространению открытого ПО. В объяснение тут приводят гипотезу, что компания достигла сильного ИИ (т.е. ИИ достиг революционного превосходства над человеком), а Альтман был готов максимально быстро выпустить эту модель без должных просчетов рисков со стороны компании и без ожидания появления необходимого регулирования на уровне государств.

Но не столь важно какая версия верна. Интереснее то внимание, с которым мир наблюдал за переворотом в правлении компании. Начиная с 2022 года (с момента хайпа нейронок) ИИ-разработчики обрели статус творцов будущего. Именно они на своих, часто скучных, презентациях рассказывают, как изменится наша жизнь уже в ближайшее время. А OpenAI и Альтман стали символами этих перемен.

Интересно и то, что крупные компании понимают всю важность ИИ. Майкрософт, ключевой акционер компании, буквально за выходные создал под Альтмана новое структурное подразделение, чтобы тот не согласился на мгновенно возникшие предложения о работе от Амазон, Гугл и др. Все это привело к тому, что за сегодня акции Майкрософт достигли нового исторического максимума, а капитализация наконец-то достигла размера давнего соперника - Apple.

Это произошло потому, что ИИ не только про будущее, но и про огромную прибыль. Не зря в описании этого канала написано: ИИ - новая нефть
🔥4
Последние пару лет доказали, что ИИ способен решать различные задачи, выступая крайне полезным инструментом для человека. В России стала популярной история, как студент написал диплом, используя ChatGPT.

Большое количество людей задают вопросы нейронкам, полностью доверяя её ответам, ведь машина не может врать. Однако они ошибаются и иногда откровенно выдумывают различные сведения. В ИИ среде это называется галлюцинациями ИИ, по аналогии с галлюцинациями у человека, который может быть уверен, что с ним действительно произошло то или иное событие. Термин ввели исследователи Google в 2018 году.

Причиной подобных галлюцинаций является накопление цифрового шума (изначально неверно или ошибочно распознанных данных), возникающий в процессе обучения нейросети и нарушающий логику работы нейросети. Чем больше данных прошло, тем нейронка эрудированней, но и при этом растет вероятность накопления ошибок. Как показали исследования, после каждого выпуска новой модели ChatGPT происходит постепенное снижение качества ответов. Именно из-за накопленного шума в виде запросов пользователей.

Есть множество вариантов решения проблемы:
- обучать ИИ на предварительно подготовленных текстах, специально написанных простым и понятным языком
- сделать обязательным уведомление пользователя о возможном искажении ответа, в ситуации, когда ИИ основывает свой ответ на недостаточно точных данных
- включить обратную связь, чтобы сами пользователи дообучали модель, как это реализовано в переводчиках (пользователь может указать более точный перевод)
- встроить в ИИ алгоритм проверки запроса через иной источник. Условно говоря, запрос будет обработан ИИ, а второй будет использовать поисковую систему Гугл. В случае больших расхождений в ответе об этом будет сообщаться пользователю

Однако, сам факт подобных галлюцинаций лишний раз показывает, насколько текущий уровень развития ИИ далек от образа разумной машины из научной фантастики, обредшей что-то человеческое.

Напомню, картинки к постам создаются нейронками. Текущий запрос: Ошибки ИИ
#aihow
🔥3👍1
#aihow
В выходной хочу посоветовать ролик, в котором достаточно подробно описаны механизмы работы ИИ и ключевые возможности, которые нам доступны.

Ролик идет 50 минут и если вы сомневаетесь, готовы ли тратить на него своё время, можно применить специальное ИИ-решение, которое кратко перескажет основное содержание ролика.

Наиболее простой вариант для жителей России - это опция "Краткий пересказ", которая доступна каждому в Яндекс-браузере. По этой ссылке вы можете увидеть, что искусственному разуму получилось увидеть в обсуждаемом нами ролике.

Вообще, подобная категория ИИ получила название Summarizer. Такие "обобщатели" способны не только делать выжимки из видео, но и аудио, текста. Одна из самых интересных опций, которую предлагают некоторые ИИ - возможность загрузить в нейронку все свои файлы и провести обучение на них. В итоге вы получите помощника, который сможет оперировать всеми вашими знаниями. Не надо искать среди тонны файлов нужный факт, статистику, или подготовить презентацию - достаточно попросить ИИ. По этой ссылке пример, как это работает.

Если интересно, можете присмотреть себе что-то на сайтах, которые собирают нейронки по категориям. К примеру такой
👍2
Ранее писал, что ИИ активно интегрируется в военное дело и мы находимся на пути к роботизированным войнам. Приведу пример США.

В феврале 2022 года министерство обороны создало новую должность: директора по ИИ и цифровым технологиям, который курирует такие подразделения, как объединённый центр ИИ, службу цифровой защиты, а также вопросы безопасности данных.

В июне этого года Пентагон пошел дальше и опубликовал план внедрения «принципов ответственного использования ИИ-технологий» в военном деле. Эта доктринальная подготовка была нужна, чтобы подготовиться к широкому применению так называемых «роботов-убийц». Согласно официальным сообщениям, Пентагон работает над развертыванием тысяч дронов с искусственным интеллектом.

В своей речи заместитель министра обороны США Кэтлин Хикс заявила, что такие технологии, как рои дронов, управляемых искусственным интеллектом, позволят США компенсировать численное преимущество армии Китая в оружии и людях.

Несколько правительств лоббируют в ООН принятие обязательной резолюции, ограничивающей использование дронов-убийц с искусственным интеллектом, но США входят в группу стран, в которую также входят Россия, Австралия и Израиль, которые предпочитают необязывающую резолюцию.

Отмечу, что вопрос об «этичности» самой идеи использования ИИ в системах вооружений и военной техники не ставится как фактически решённый. Речь идёт о степени самостоятельности военных ИИ-систем в принятии решений о применении оружия. Уже близка к реальности ситуация, когда сам ИИ начнет принимать автономные решения о том, стоит ли убивать человеческие цели.

Стоит добавить, что летальное автономное оружие, способное выбирать цели с помощью искусственного интеллекта, разрабатывается в таких странах, как США, Китай и Израиль. И очевидно, что число разработок увеличивается от года к году. Спрос то растет.
👍2😱1
Глобальные технологические корпорации и не думают останавливаться в гонке за ИИ.

Вчера вышел анонс новой большой языковой модели, которую предложил всему миру теперь Google. И похоже известный многим ChatGPT уже скоро может быть потеснен с лидерских позиций. Как говорят разработчики, их нейронка, названная Gemini, превосходит GPT в 57 областях знаний, включая математику и физику.

Gemini свободно программирует на Python, Java, C++ и Go и уже показала, как создает сайты, которые динамически кодируют себя сами в процессе использования, если возникает необходимость в новых функциях. Разработчики обещают в обновлениях добавить в модель возможность осязание и тактильную обратную связь.

Мы всё ближе к тому моменту, когда нейронка станет комплексным продуктом, который будет изначально содержать в себе все необходимые пользователю функции, без нужды искать под каждую функцию отдельную нейронку (как это есть сейчас).

На фоне всего этого акции Google выросли на 7%, показав самый большой дневной рост компании почти за два лет торгов. Упали акции конкурента Microsoft. Ранее писал, что они также бодро росли, когда вышла новость про переход создателя ChatGPT на работу в Майкрософт.

Что примечательно, ни ChatGPT, ни новую Gemini не создали сами техногиганты,хотя основные коммерческие преимущества получили в итоге они. ChatGPT разработали в OpenAI, а Gemini в DeepMind.

Обе эти компании изначально были конкурентами и соревновались за внимание инвестора, а это было важно, ведь компании были убыточными ровно до нового хайпа ИИ, который начался в прошлом году. ИИ-создатели успели сменить ни одного ключевого инвестора и владельца и сталкивались с угрозой банкротства.

Как интересно устроен мир - сначала ИИ-разработчики соревновались за внимание IT-корпораций, а теперь уже техногиганты охотятся за их мозгами.
👍1
Forwarded from ИМИ МГИМО
🇨🇳 Китайская стратегия «больших данных»: реформа управления, инновации и глобальная конкуренция доклад Игоря Денисова:

• В Китае появилось первое в мире правительственное ведомство, которое будет определять национальную политику в области данных. В КНР стремятся придать развитию искусственного интеллекта (ИИ) общегосударственный, системный и стратегический характер.

• Ключевая идея, лежащая в основе изменений китайской стратегии использования данных, — концепция «данных как фактора производства». Власти КНР рассматривают данные как универсальный «двоякий ресурс», имеющий решающее значение как для политики, так и для экономики.

• Столкнувшись с турбулентностью международной обстановки и новыми рисками в связи с обострением отношений с Вашингтоном, Пекин уделяет особое внимание соблюдению баланса между развитием и безопасностью. Правительство Китая прилагает усилия для разработки комплексных мер по обеспечению безопасности инфраструктуры данных: эту политику можно назвать суверенизацией данных.

• Поставленная китайским руководством задача «запуска» общекитайского рынка данных по-настоящему амбициозна и может потребовать огромных усилий в рамках всей страны, так как упирается в ряд проблемных обстоятельств.

• Можно выделить пять сопутствующих проблемных вопросов: (1) адаптация традиционной аппаратной архитектуры для удовлетворения многократно возрастающих интенсивных вычислительных требований; (2) «стыковка» разнородных баз данных; (3) чёткая регламентация сбора и использования данных; (4) изменения в подходах к управлению; (5) обеспечение цифровых отраслей кадрами, заблаговременное принятие мер в связи с «вымыванием» с рынка ряда профессий на фоне прогресса ИИ.

• Китай стремится использовать данные как мощный инструмент для развития инноваций и стимулирования экономического роста. Вторая часть баланса — развитие, политическим лозунгом которого выступает идея Си Цзиньпина о великом возрождении китайской нации.

Ознакомиться с докладом по ссылке.
👍3🤔1
ПолитИИзация
В этом году для студентов-международников в Иркутске буду вести курс по ИИ в мировой политике. Для меня эксперимент в чистом виде, а для России почти уникальный курс. Разве что Павел Шариков ведёт что-то такое в МГУ https://lk.msu.ru/course/view?id=2378 (повезло…
Пришла пора напомнить про мой призыв к вам задавать темы, которые можно раскрыть в постах и в лекциях студентам.

Что примечательно: прошло менее полугода с этого поста, а в университетах России уже ведутся курсы, где ИИ рассматривается в политическом контексте. И я не перестаю утверждать, что это не хайп, как часто говорят мне собеседники на различных политологических площадках. Мы на пороге перемен, сравнимых с появление ядерной боеголовки.

Возможно, примерно тоже самое ощущали владельцы первых машин, скорость которых на тот момент уступала повозкам. Итог их соревнования всем известен.
🔥2👍1
На сегодняшней конференции Путина внимание досталось и тематике ИИ.

Встретился вопрос, который весьма характерен в деле внедрения ИИ (см.картинку к посту)

Из посыла явно видно, что ИИ вызывает непростые чувства - от непонимание принципов работы до его отрицания как такового. Это подтверждается опросами населения страны. Треть населения не понимают, как он работает (31% опрошенных), а 5% считают, что развитие искусственного интеллекта приводит к деградации человека.

Другой опрос показывает, что в большинстве своем россияне придерживаются мнения, что ИИ следует использовать только в некоторых сферах (67%), тогда как каждый девятый вовсе не видит в нем нужды («не должен использоваться вообще» — 11%). Лишь 18% не против повсеместного использования ИИ.

Подобная настороженная позиция не является чем-то особенным. Международные наблюдения говорят, что одобрение ИИ куда выше в развивающихся странах, чем в развитых. Это объясняется тем что, что население в развитых странах заботят различные вопросы использования личных данных и иные правовые и моральные вопросы, в то время как для развивающихся обществ ИИ ассоциируется с экономическим ростом.

Парадоксально, но внедрение ИИ само по себе повышает степень недоверия к этой технологии. Так что подобные вопросы от населения лишь подтверждают возрастающее проникновение ИИ на всех уровнях жизни человека
🔥6👍1
Недавно писал статью про международные призывы начать регулировать ИИ. До этого речь шла про роль бизнеса и государств в этом процессе. Однако есть достаточно необычный участник этого процесса: Ватикан и лично Папа Римский.

Стоит просто сказать, что еще в 2020 году Ватикан опубликовал набор принципов, получивший название «Римский призыв к этике ИИ» , который на идейном уровне пропагандирует ответственное и этичное использование ИИ.

В 2023 году Ватикан и американский Университет Санта-Клары основали Институт технологий, этики и культуры ITEC, целью которого является исследование путей сосуществования и взаимодействия современных технологий и религии. Этот Центр уже выпустили отчёт под названием «Этика в эпоху прорывных технологий: дорожная карта». Отчёт призван помочь технологическим компаниям ориентироваться в этических аспектах ИИ в формате практического руководства.

Недавно Ватикан выпустил послание под названием «Искусственный интеллект и мир». В нём Папа Франциск призвал к глобальному регулированию ИИ ради «мира и общего блага». Из примечательного: Папа утверждает, что государство теперь имеет обязанность регулировать использование ИИ, но что примечательнее, в этом процессе ему должны помогать международные организации и институции с высоким авторитетом.
Есть ощущение, что такой авторитет как-раз расположен в Ватикане.

Пример активности Папы на поле технологического развития неуникален. Орден доминиканцев еще в 2012 году основал свой научный центр, который ищет божественное начало в глобальной сети. Все еще помню своё удивление, когда в 2017 году узнал про хакатоны, который проводил в Ватикане этот центр.

Может быть именно такой путь позволит религии стать логичной частью формирующегося техноцентричного мира.

Вновь напомню, картинки генерирует ИИ
3👍1🔥1
По предложению Фонда Горчакова (занимаются развитием международных связей и различными экспертными мероприятиями) написал короткое эссе о том, как ИИ может быть применен в дипломатии (мой текст на странице 27, текст постом ниже).

Моё убеждение, что в ближайшем будущем ИИ будет использоваться в качестве дополнительного инструмента, а не замены человека.

Специально спросил у нейронки, почему она не сможет быть дипломатом и вот эти ответы мне показались интересными:

1. ИИ плохо работает в неоднозначных ситуациях.
Дипломатические ситуации зачастую предполагают работу в условиях неопределенности, двусмысленности и неоднозначности, где требуются сложные человеческие суждения, которые трудно автоматизировать.

2. ИИ не обеспечивает главное в дипломатии - доверие и расположение собеседника, ведь часто именно человеческие отношения становятся ключевым факторов дипломатического процесса.

P.s.
Отмечу, второй текст на тему ИИ написал мой коллега по иркутскому университету Сергей Себекин. Совместными усилиями создадим сибирскую школу по изучению политического искусственного интеллекта.
👍81🔥1