ПолитИИзация
393 subscribers
146 photos
30 videos
3 files
159 links
ИИ - новая нефть. Попробуем разобраться, как её будут использовать.

Веду его я, аналитик международного развития ИИ Антон Тамарович
Download Telegram
ИИ в странах БРИКС. Есть что развивать вместе, но есть ли желание?

Вышел новый отчет Яков и партнеры по тематике ИИ - Генеративный ИИ в странах БРИКС+: тренды и перспективы. Про предыдущий можно почитать тут.

Хотя в названии заявлен генеративный ИИ (нейросети, способные генерировать по запросу контент в виде текста, видео, изображений), но составители уделили внимание возможностям каждой страны-члена БРИКС развивать у себя всю ИИ-отрасль (вот тут про то, что ИИ не ограничивается генерированием контента).

Подобная ситуация лишний раз показывает, что нельзя воспринимать генеративный ИИ как нечто самостоятельное, хотя это направление ИИ сейчас и привлекло все внимание на себя.

Говоря про доклад, отмечу комплексность информации о системах развития ИИ в представленных странах. На русском языке столь подробной информации по этим пунктам не найти.

- имеющаяся инфраструктура ИИ: сколько суперкомпьютеров и иных вычислительных возможностей в стране?
- меры гос.поддержки: особый фокус на развитие ИИ (к примеру, в ОАЭ было создано первое в мире Министерство ИИ), какая поддержка для инвесторов в ИИ-отрасль?
- ситуация с кадрами: есть ли недостаток кадров (как в России) или же наоборот их насыщенность (как в Индии)?

Доклад целенаправленно фокусируется на странах БРИКС, поэтому составители сформулировали ряд рекомендаций по совместному развитию ИИ на базе группы. В прошлый год Россия была председателем в этом объединении, а российское экспертное общество предложило ряд инициатив по треку ИИ, что-то даже попало в итоговый документ Саммита лидеров государств.

Процесс подготовки этих инициатив стал
индикатором, что совместное развитие ИИ не является чем-то очевидным и одинаково желаемым для всех участников объединения. В этом контексте сложно ожидать, что одна страна предоставит свои уже итак ограниченные вычислительные мощности другому, или же начнет делиться своими данными, подразумевая это как свой стратегический ресурс.

Условно говоря, совместное развитие ИИ должно учитывать интересы каждого государства, которые могут и не совпадать. И поиск этой конфигурации требует как понимания этих тонкостей, но и политической воли большого количества столь разных стран.

P.s. в докладе указано большинство китайских нейронок и их преимущества, но так как доклад вышел еще до звездного часа DeepSeek, она там не упомянута. Вот что значит стремительность перемен в мире ИИ.

#aipaper
👍1
Как действия Google подталкивают к международным дебатам о двойном назначении ИИ

Недавно я писал о том, что крупные технологические компании все сильнее втягиваются в тему военного применения ИИ. А теперь появились новости о том, что Google удалила из своих принципов обещание не использовать ИИ для создания оружия или в других опасных целях.

Бывший руководитель команды этики ИИ компании считает, что удаление этого пункта означает, что «Google, вероятно, теперь будет работать над развертыванием технологий, которые могут убивать людей».

Учитывая глобальное влияние американской корпорации, очевидно, что созрела необходимость определения глобальных границ, правил в сфере ИИ для коммерческих компаний и государств.

Тему подогрел недавний хайп вокруг китайской нейросети DeepSeek. Ряд стран уже начали запрещать эту модель именно из-за опасений, что данные пользователей станут доступны Пекину и будут как-то им использованы.

10-11 февраля в Париже состоится the Artificial Intelligence Action Summit, повестка которого - выработка глобальных подходов к развитию и применению ИИ (что примечательно, Россию на форум не позвали). Можно было бы предположить, что подобный Саммит станет площадкой для обсуждения риска использования гражданских данных для разработки военного ИИ. Однако текущая программа не включает этого направления.

Перед Саммитом 100 ведущих экспертов по теме ИИ подготовили специальный доклад о главных рисках развития ИИ International AI Safety Report . Проблема двойного назначения ИИ-технологий упоминается лишь вскользь и не лежит в фокусе основного внимания экспертов.

Объяснение этому можно попробовать найти в сообщении Google, в котором она обосновала необходимость пересмотра своих подходов к военному ИИ:
«Мы считаем, что демократии должны лидировать в разработке ИИ, руководствуясь такими основными ценностями, как свобода, равенство и уважение прав человека. И мы считаем, что компании, правительства и организации, разделяющие эти ценности, должны работать вместе, чтобы создать ИИ, который защищает людей, способствует глобальному росту и поддерживает национальную безопасность».


Кажется, что правила игры должны быть едиными, но реальность иная. Полная лояльность к Google и жесткое противодействие незападным компаниям с аналогичными подходами.

#aitrends
👍1
В США ищут чем ответить на растущую популярность китайских нейронок

Появление китайской модели DeepSeek и её стремительный выход на первые места по скачиванию достаточно быстро привело к действиям со стороны правительство разных стран. Первой реакцией стали попытки запретить её применение в органах власти.

Однако запреты не решают проблемы популярности этой модели – её бесплатность для обычного пользователя и открытость кода для разработчиков.

В ответ на это, американские эксперты предложили пересмотреть подходы к открытому ПО и обеспечить его широкое использование и разработку. Для этого Вашингтон должен обеспечить гос.финансирование и спрос.

Аргументы такие:
I. Открытые модели могут помочь массовому внедрению ИИ в самих Штатах, так как сторонние разработчики смогут самостоятельно дорабатывать и использовать ИИ, не платя постоянно растущие взносы. Именно поэтому еще до успеха DeepSeek открытую модель Llama с 2023 года скачали более 350 миллионов раз.

II. Если США откажутся от открытых инноваций в области ИИ, другие страны могут «отключиться» от американских технологий, инвестируя в собственную инфраструктуру или обратиться к альтернативам. Это укрепит позиции китайских моделей ИИ и ослабит влияние американских компаний. К примеру, разработчики скачивают модели Alibaba несколько миллионов раз в месяц. Эти модели будут нести в себе китайские ценности, которые смогут каким-то образом влиять на их пользователей.

Вывод - американские политики должны учитывать, что передача глобального лидерства в сфере открытых ИИ-моделей Китаю, может нести куда большие издержки для американского лидерства, не только на поле технологий.

Таким образом, Штатам необходимо кардинально сменить подход к распространению своего ИИ и перейти к дипломатии открытого ПО (open-source diplomacy). Согласно этой идее, страна должна не только больше вкладываться в создание открытого ПО на своем рынке, но и не ограничивать распространение таких моделей ни через санкции, ни через экспортный контроль или режим лицензирования.

От себя отмечу
-
Очевидно, что добровольное открытие кода может пошатнуть лидерство ведущих западных разработчиков. Поэтому есть сомнения, что они добровольно пойдут на реализацию новой стратегии. В эту логику вписывается недавнее провалившееся предложение Маска купить ведущего разработчика ИИ OpenAI и открыть его исходных код.

#aipolitics #aisanctions
👍4🔥1
Японская ИИ-дипломатия

Когда мы говорим, что ИИ становится частью международной политики, стоит упомянуть и о том, как некоторые страны видят себя в этом новом дивном мире.

К примеру, в последние годы японское правительство предпринимало ряд попыток по созданию глобальной структуры для обсуждения международных правил использования технологий искусственного интеллекта.

Еще в 2016 году(!), когда страна принимала саммит G7, правительство Японии предложило основные правила для исследований и разработок в области ИИ.

В 2023 году, когда Япония снова принимала саммит G7, страны семерки запустили инициативу под названием «Хиросимский процесс ИИ». Его цель — обеспечить соответствие развития и использования ИИ общим демократическим ценностям стран G7.

На базе инициативы была запущена комплексная политическая рамка Hiroshima Process, включающая руководящие принципы и кодекс поведения, меры прозрачности и ответственное использование технологий ИИ.

Помимо G7, Япония привлекла к процессу 41 страну и ЕС, создав «Группу друзей Хиросимского процесса», которая включает как развитые экономики (Австралия, ОАЭ), так и развивающиеся (Индия, Мексика), что усилило легитимность инициативы.

Зачем это Японии:
- Позиционирование себя как ключевого игрока в области технологического регулирования, что должно отсылать на её статус лидера в производстве высокотехнологичной продукции

- Япония стремится сохранить влияние в Азиатско-Тихоокеанском регионе, конкурируя с Китаем

- Регулирование ИИ через Хиросимский процесс способствует экспорту японских технологий и стандартов. Например, требования к маркировке контента, созданного ИИ, или защите интеллектуальной собственности соответствуют интересам японских компаний, таких как Sony или Toyota
Однако главным риском для реализации этих амбиций являются внутренние сложности. Страна испытывает проблемы с ростом экономики, а также постепенно теряет свои преимущества в технологическом секторе, что прямо влияет на её вес в глобальном процессе вокруг ИИ.

#aicountry
👍2🤔1
ЕС признал, что перестарался с регулированием ИИ

«Гонка за ИИ далека от завершения», — заявила на саммите по искусственному интеллекту (AI Action Summit) в Париже председатель Еврокомиссии Урсула фон дер Ляйен, анонсируя ряд программа по развитию ИИ, общим размером в 200 млрд €.

Её речь прозвучала на фоне громких международных анонсов о выделении финансирования на развитие ИИ. К примеру, Трамп объявил о проекте Stargate для создания ИИ-инфраструктуры на 500 млрд $, Банк Китая представил «План действий по поддержке развития индустрии искусственного интеллекта» на 135 млрд $.

Одним из признаком включения в эту гонку ЕС стали заявления европейских лидеров о готовности пересмотреть и сделать более гибким свое цифровое законодательство. Сразу после саммита Европейская комиссия отозвала директиву об ответственности за использование ИИ, которая должна была дополнить знаковый Закон ЕС об искусственном интеллекте, которому самому грозит неопределённое будущее в условиях стремления к упрощению.

Можно предположить, что подобный европейский разворот обусловлен не только анонсами о создании мегапроектов по ИИ у Китая и США. Большое значение имеет явный крен к дерегулированию ИИ со стороны ближайших партнеров ЕС.

К примеру, в Великобритании правительство долгое время говорило о приоритетности правовых вопросов в развитии ИИ, однако с начала года публичной позицией стала задача обеспечения развития ИИ. Также в январе Дональд Трамп отменил указ, направленный на уменьшение рисков, связанных с использованием ИИ. По мнению нового главы США, указ тормозит инновации в области ИИ, что непозволительно в текущих условиях.

Напомню, именно ЕС первым в мире разработал и принял комплексный закон, который определяет рамки разработки и использования ИИ, а также наделяет их пользователей и создателей юридической ответственностью. Еще при разработке этого закона эксперты заявляли о тяжелых последствиях, которые наступят (и наступили) с жестким регулированием ИИ – замедление технологического роста, удорожание любой разработки, бегство стартапов в другие юрисдикции.

На фоне всего этого ЕС, пусть не отменяет свой Закон, но делает шаг назад. Это крайне необычный поворот, учитывая, что именно к практике ЕС обращаются страны, готовые пойти по пути юридического ограничения ИИ.

Посмотрим, прислушается ли ЕС к призыву премьер-министра Швеции, который заявил:
Европа рискует превратиться в "музей", если не будет внедрять инновации в области ИИ и дерегулировать эту отрасль.

#airegulation
👍3
Forwarded from Глебсмит
Свежий блог Сэма Альтмана про перспективы ИИ.

Тема - вопросы экономики ИИ. Их три. «Почему так дорого», «Почему у китайцев дешево», «Почему несмотря на то, что у нас дорого, а у китайцев дешево, надо продолжать давать деньги нам, а не им».

Вопрос 1: «Интеллект модели ИИ примерно равен логарифму ресурсов, используемых для ее обучения и запуска». Чем больше вычислительных ресурсов (данные, «железо» и процесс обучения) вкладывается, тем выше интеллект модели. Логарифмическая зависимость: на начальном этапе увеличение ресурсов приводит к быстрому росту, со временем отдача от дополнительных ресурсов уменьшается. Но это не то, что отдачи на вложения нет.

Вопрос 2: «Стоимость использования данного уровня ИИ падает примерно в 10 раз каждые 12 месяцев». Это хорошо, потому что снижение стоимости делает ИИ доступным для большего числа людей и бизнесов, что приводит к появлению новых способов применения и ускоряет развитие технологий. Пример: Deep Seek и другие проекты такого рода. Их бы не было, если бы «мэйджоры» типа ChatGPT не проложили дорогу. Поэтому, противопоставление «дешевый ДипСик» vs «дорогой американский алгоритм» - ложное. Дешевизна «подчиненных моделей» - тоже хорошее дело, так как работает на широкий доступ к инструменту.

Вопрос 3. «Социально-экономическая ценность линейного увеличения интеллекта носит экспоненциальный характер». Сколько денег не вкладывай – все равно отобьется. Даже падающий в логарифмической логике прирост в эффективности несет пусть и непредсказуемую и с трудом считаемую, но в потенциале «огромную» пользу. Этим Альтман объясняет, почему инвестиции в его ИИ должны продолжать расти, несмотря на то, что отдача уменьшается.

Пример тут классический для собственников моделей. Условно за 100 млрд ИИ научился распознавать рак на ранней стадии с точностью 80%. А еще за 200 млрд сверху модель доведет точность до 90% - и это оправдает все расходы, так как всех спасет и еще и сэкономит на лечении. Вопрос – «может не стоило забирать все эти 300 млрд у медицинского образования и «разложить яйца в разные корзины»» - традиционно отметается. На хрен эти врачи вообще сдались, когда есть алгоритм!

Итого: правильное поведение – вкладывать еще больше в американских «мейджоров» и не обращать внимание как на снижение эффективности производимых ими новых версий ИИ, так и на появление «эконом-вариантов» из Китая и толщ западных же университетов.
А в обмен на это правильное поведение Альтман обещает создать для инвесторов «агентскую экономику» за ближайшие годы. В рамках которой «ИИ-агенты» станут «младшими сотрудниками» любой человеческой деятельности - от виртуальных «программистов-джуниоров» в IT до «ординаторов» в медицине. Всю рутину и обеспечение «начальства» базовым продуктом они возьмут на себя.

И вообще «Мир не изменится сразу, он никогда не изменится. Жизнь в краткосрочной перспективе будет продолжаться так же, …, но в долгосрочной перспективе изменения будут огромными».

Ну и (я бы сказал это главная мысль в блоге) «рост равенства не обусловлен технологически». Что в переводе на простой язык означает, что богатство, создаваемое технологиями ИИ, никак не повлияет на выравнивание доходов, а значит и на рост благосостояния человечества как совокупности людей, а не активов в руках начальства.

В старые времена, при «демократах» этот тезис оставляли критиков и насмехались над ними: «луддиты», мол, «не видят в прогрессе счастья». Сейчас – спасибо Трампу – скрывать технолигархии правду больше не надо. Кардинальное изменение нарратива для лучшего продажника современности Альтмана, который раньше начинал и заканчивал всеобщим благом и драматическими изменениями для всего человечества от ИИ.

Сейчас – внезапно – «баланс сил между трудом и капиталом может легко нарушиться». И понятно в чью пользу.
👍3
В борьбе за ИИ-лидерство все законы хороши

С приходом Трампа к власти началась подготовка «Плана действий по ИИ», который должен быть выпущен в июле 2025. Создатель ChatGPT, компания OpenAI также участвует в подготовке, а ряд её предложений явно стоят внимания.

Компания продолжает парадоксальную тенденцию, когда бизнес просит государство заняться регулирование ИИ-сферы.
Но хитрость в деталях и внутреннем устройстве страны.
Первое предложение — OpenAI предлагает Трампу принять федеральный закон, ключевая задача которого в отмене региональных норм, касающиеся ИИ.

Американские ИИ-компании сталкиваются с трудностями из-за множества законов штатов, регулирующих отрасль, утверждает OpenAI. Только в 2025 году было предложено более 800 подобных актов. Есть опасения, что некоторые из них, схожие со строгими нормами ЕС, будут тормозить развитие ИИ, поэтому их нужно отменить.
Второе предложение – принять ряд правовых мер для защиты американских ИИ-компаний и от международных законов.
Для этого США должны как продумать внутренние нормы, так и влиять на международные правила в области авторского права и ИИ, чтобы избежать ограничений со стороны других стран.
Третье предложение — дать ИИ-компаниям доступ к максимальному количеству данных, даже если это вызывает недовольство правообладателей.
Для этого OpenAI предлагает правительству США проверять, не ограничивают ли другие страны доступ американских компаний к важным данным.

Обоснование всем этим предложениям простое - быстрый прогресс Китая ставит под угрозу лидерство Америки в области передового ИИ. Для этого нужно предоставить больше свободы для обучения искусственного интеллекта, иначе Китай получит преимущество, так как сможет использовать данные, защищенные авторским правом, к которым у американских компаний нет доступа.

Для закрепления внешнеполитического обоснования небывалой регуляторной либерализации OpenAI считает необходимым ввести запрет на использование китайских моделей.

Вот такой протекционизм со стороны ИИ-лидера. Посмотрим, что смогут предложить сторонники перехода к открытому ПО.

#aitrends #airegulation
🔥2👍1
Forwarded from Кибервойна
Промты общественной значимости

В Великобритании журналисты легально получили историю использования ChatGPT одним из министров. Питер Кайл, министр по науке, инновациям и технологиям, упомянул в одном из интервью, что часто использует ChatGPT. После этого издание New Scientist попробовало узнать, о чём именно чиновник общался с чатботом, использовав для этого запрос по закону о свободе информации. Сначала из министерства поступил общий ответ, что Кайл использует ChatGPT как в личном, так и в официальном качестве. Журналисты направили повторный запрос о предоставлении вопросов (промтов) и ответов, относящихся к использованию сервиса министром в официальном качестве. И этот запрос был удовлетворён.

В статье приводится несколько примеров запросов. Кайл узнавал у ChatGPT, почему британский бизнес медленно осваивает ИИ, в каких подкастах ему стоит выступить, а также уточнял значение терминов, относящихся к сфере ответственности его ведомства, таких как антиматерия, квант (или квантовый) и цифровая инклюзивность — два сторонних эксперта по просьбе журналистов оценили определение кванта как на удивление хорошее и неплохое.

Представитель Министерства по науке, инновациям и технологиям заявил изданию, что правительство использует ИИ в качестве инструмента, сберегающего трудовые ресурсы, и руководствуется чёткими правилами быстрого и безопасного использования этой технологии.

Также в статье отмечается, что у опрошенных специалистов нет единого мнения насчёт того, как (с точки зрения запросов о свободе информации) квалифицировать историю переписки с ChatGPT: ближе к переписке по электронной почте и WhatsApp, которые, как правило, выдаются по запросу, или ближе к истории поисковика, которую ведомства наоборот склонны не предоставлять в ответ на такие запросы.
👍1🔥1
Forwarded from Нецифровая экономика (🐈Egor Sonin)
Как Meta и OpenAI тренировали ИИ на российской пиратской библиотеке

Чтобы построить конкурентный искусственный интеллект, нужно много данных. Очень много. Когда инженеры из экстремистской Meta начали работу над Llama 3 — языковой моделью, которая должна была тягаться с ChatGPT, — они столкнулись с неприятной дилеммой: либо платить за книги и научные статьи, либо просто… украсть их. В итоге они выбрали второй вариант — и пошли на LibGen.

LibGen — это огромная пиратская библиотека, в которой сегодня более 7,5 млн книг и 81 млн научных публикаций. Она была создана в районе 2008 года предположительно группой российских ученых, которые преследовали цель открыть знания соотечественникам (в 10-е для этой же цели появился Sci-Hub). Однако в отличие от последнего LibGen в итоге эволюционировал до библиотеке со всеми типами книг — от профессиональных до беллетристики. Именно туда и ринулась Meta.

Для компании это имело смысл, так как экономила косты — получение легальной лицензии заняло бы около месяца для каждой книги, тогда как на LibGen было доступно все бесплатно. «Нам нужно получить книги как можно быстрее», — писал один из менеджеров. Судя по документам, разрешение на скачивание пришло от “MZ” — вероятно, Марка Цукерберга.

Документы, ставшие основой этого расследования, были опубликованы в рамках коллективного иска, поданного против Meta группой американских писателей. Авторы утверждают, что их книги незаконно использовались для обучения LLM без согласия и роялти. Параллельно идут аналогичные процессы и против OpenAI — обе компании пытаются защититься, ссылаясь на доктрину "fair use", которая допускает некоммерческое использование защищённых авторским правом материалов для трансформации в нечто новое.

Важно понимать масштаб происходящего. Речь не о том, что Meta случайно наткнулась на пиратский файл. Судебные документы показывают, что команда целенаправленно искала способы маскировки своей активности, обсуждала удаление строк с упоминаниями ISBN, Copyright, ©, All rights reserved (то есть любых явных признаков авторства и защиты прав), и и даже запрет на генерацию первых страниц книг по запросу — например, блокировали запросы типа «покажи три первые страницы “Гарри Поттера”».

Книги скачивали через BitTorrent и вот в чем фишка. Когда Meta скачивала библиотеку LibGen, она могла не только загрузить пиратские книги, но и невольно начать их раздавать другим пользователям. По законам об авторском праве это уже считается распространением нелегального контента — то есть нарушением. В Meta утверждают, что приняли меры, чтобы этого не произошло, но технически доказать это сложно. OpenAI, по слухам, тоже использовала LibGen, но пока неизвестно, как именно она загружала данные.


ИИ-компании настаивают, что обучение моделей на таких данных трансформирует тексты и потому допустимо. Но главный вопрос не столько в законе, сколько в будущем авторства. Если миллиарды долларов будут зарабатываться на переработке чужих работ без согласия авторов — кто вообще станет писать книги, проводить исследования или делиться знаниями?

Meta и OpenAI уверяют, что их модели помогут науке. Вот только кто захочет бесплатно делиться знаниями с теми, кто обещает отобрать у них работу - вопрос со звездочкой.

Хотя американские медиа вот согласились. Может, и среди остальных найдутся наивные.
👍3
Чипы для Европы

Девять стран, включая Германию, Францию и Нидерланды, продвигают программу поддержки полупроводниковой индустрии Chips Act 2.0. Инициатива сосредоточена на поддержке проектирования, производства, исследований и разработок, материалов и оборудования для полупроводников в ЕС.

Новая программа является ответом Европы на активную политику США по переносу производства чипов на свою территорию. Влияет и риторика Трампа, которая вызывает опасения, что глава Белого дома может по примеру Китая отрезать Европу от передовых полупроводников.

Подобная поддержка уже не первая для ЕС. Прошлая инициатива (Chips Act 1.0) стартовала в 2023 г. и включала в себя субсидии на сумму в 43 млрд евро. Несмотря на предотвращение спада в европейской промышленности, первая программа считается малорезультативной из-за недостаточной государственной поддержки по сравнению с США и Китаем, а также медлительности евробюрократии.

Chips Act 2.0 является частью стратегии ЕС по участию в «Гонке за ИИ», которую анонсировала председатель Еврокомиссии Урсула фон дер Ляйен. Однако уже сейчас есть сомнения, что новая инициатива не повторит судьбу предыдущей, ведь для этого необходимо будет перестроить механизм принятия решений в ЕС, а также найти сопоставимое с конкурентами финансирование.

#ainews #chips
🔥1
Forwarded from VODоворOTT
Фейковые ИИ-трейлеры — тайный источник заработка киностудий

Если рекомендации YouTube подкидывают вам странные трейлеры новинок (вроде неанонсированной третьей части "Головоломки", нового "Человека-Паука" или финала "Игры в кальмара") — поздравляем, вы тоже поучаствовали в теневой схеме обогащения крупных голливудских киностудий. На видеохостинге орудует целая сеть каналов, которая выпускает ненастоящие ролики о фильмах и сериалах. При сборке своих видео они используют искусственный интеллект, пытаясь создать максимально правдоподобный образ ожидаемого проекта и набрать на нем просмотры. И получается! У фейкового трейлера "Супермена" Джеймса Ганна на данный момент 313 тыс. просмотров, а у третьего сезона "Кальмара" под 12 млн.

Сложно представить, сколько такое творчество, паразитирующее на хайпе, приносит с рекламы. Точно известно, что речь идет о миллионах долларов, на которые создатели таких ИИ-шедевров покупают себе топовые суперкары и пентхаусы в Дубае. Но самое удивительное, что крупные голливудские студии даже не думают удалять такой контент. Авторские права отходят на второй план, когда юристы находят своим заказчикам еще один источник заработка. Вместо блокировки видеороликов функционеры Paramount, Warner Bros. Discovery и Sony просто решили облагать такой контент теневым налогом. И вуаля — ненастоящий трейлер уже включен в бизнес-план: можно получить дополнительные деньги буквально из воздуха еще до анонса новинки. Гениально, хоть и немного мерзко.
🤔1😱1
Глобальное управление ИИ требует гибкости

В феврале этого года в Париже прошел глобальный саммит по ИИ (AI Action Summit). Основное внимание общественности он привлек тем, что США и Великобритания отказались подписывать его итоговую декларацию. Однако через пару месяцев стало понятно - подобная ситуация является важным свидетельством необходимости смены подхода к глобальному диалогу об ИИ.

Начнем с того, что итоговая декларация в Париже была подписана 80 странами, включая страны ЕС, Китай, Индию. Демарш же Вашингтона и Лондона был воспринят как формирование нового политического разлома в глобальной повестке, столь удачно совпавшего с приходом Трампа во власть. Однако нужно немного углубиться в суть этой линейки саммитов.

Французская встреча стала уже третьим глобальным мероприятием по ИИ, фокусирующимся на теме безопасного развития ИИ. Предыдущие саммиты в Блетчли (Великобритания) и в Сеуле уделяли особое внимание выработке конкретных обязывающих норм, которые формируют непосредственно участники экосистемы ИИ – техногиганты (Nvidia, Amazon и др.) и лидирующие страны (США и союзники).

Парижский саммит пошел по иному пути. AI Action Summit стал масштабным четырехдневным мероприятием, куда были приглашены как представители от бизнеса и государства, так и от экспертных и общественных структур. По аналогии с климатическими саммитами, участники могли принять участие во множестве различных дискуссий.

Как отмечают наблюдатели, Саммит показал миру стратегию третьего пути в управлении ИИ (помимо существующих американского и китайского), предполагающую расширение трактовки безопасности ИИ с исключительно технической плоскости до тем социальной справедливости и цифрового неравенства.

Таким образом, суть мероприятия заключается не в его итоговых документах, а в оформившемся новом подходе к глобальному развитию ИИ.
Раз формирование комплексных политических обязательств является проблематичным, то необходимо сосредотачиваться на том, что является возможных. Именно ученые и гражданское общество имеют больший потенциал для нахождения консенсуса по точечным вопросам развития ИИ.

Развивая эту идею, в недавнем докладе Оксфордского университета был предложен новый подход к организации следующих саммитов по безопасности ИИ. По мнению авторов, необходимо проводить не один, а два саммита с разными фокусами:
Первый будет сосредоточен на вопросах передового развития ИИ, который бы рассматривал вопросы управления будущими рисками развития ИИ. Этот Саммит как раз стал наследником политически обязывающих первых двух саммитов с участием узкого круга сторон.
Второй же Саммит должен быть сосредоточен на вопросах, уже существующих здесь и сейчас проблем, которые требуют обсуждения среди более широкого круга заинтересованных сторон.
Для убедительности, авторы ссылаются на опыт Женевской конференции 1955 года, в которой были заложены основы международного ядерного управления. Тогда именно вовлечение технических экспертов к обсуждению позволило дипломатам найти аргументы для формирования политического консенсуса, который все еще играет значимую роль в развитии мирного атома.

#aigovernance
👍3
Новые политические технологии в действии.

Мэр Стамбула физически в СИЗО, но при этом выступает на митингах и на видеообращениях при помощи сгенерированного ИИ-аватара. Речи, разумеется собственные, не сгенерированные (ну, или написанные политконсультантами).

Таким образом, популярный политик не выпадает из политической повестки и поддерживает своих протестующих сторонников.

Да и ИИ-аватар - это всегда хорошее освещение, бодрый внешний вид, отточенные жесты и речь без запинки) Удобно!
🔥2
С соавтором написали колонку о внедрении ИИ в гос.управление.

То, что ИИ станет важной частью государственных систем отрицать бесполезно. Однако начать думать, как сделать эту интеграцию наиболее сбалансированной, пора уже сейчас.

Некоторые вопросы из статьи:
- Какой есть международный опыт применения ИИ в государстве?
- Что нужно учитывать, чтобы человек не стал лишь параметром в алгоритмической модели?
- Почему отсутствие человеческих ценностей в "черном ящике ИИ" может негативно влиять на доверие общества к этой технологии?

Выбранный нами фокус является весьма новым как для русскоязычных, так и международных исследователей, поэтому буду рад вашим обсуждениям и репостам!

#aiopinion #aigovernment
👍1🔥1
Media is too big
VIEW IN TELEGRAM
📺 Искусственный интеллект уже заявил о себе на премии «Оскар» и постепенно меняет киноиндустрию. Как это происходит и что об этом думают сами представители индустрии — разбираемся в первом выпуске «Технорепорта». Смотрите его в Telegram, YouTube и VK Видео.

00:00 — Вступление
00:55 — Скандал с Эдриеном Броуди
01:33 — За что дают «Оскары»
02:54 — Эффект «зловещей долины»
03:47 — «В Ирландце это выглядит чудовищно»
04:46 — как Горшку вынимали зубы
06:05 — Гильдия Актеров против нейросетей
07:10 — «Зритель хочет смотреть чистые эмоции»
08:14 — Цифровые камеры против пленки
08:46 — Заменит ли ИИ людей
12:00 — Как киношники относятся к ИИ

Подписывайтесь 👉 @techno_yandex
Please open Telegram to view this post
VIEW IN TELEGRAM
😱1
Ценности не привить инструкциями

Ученые из Массачусетского технологического института выкатили интересное исследование о наличии ценностей у ИИ. Ключевой вывод – ценностные установки свойственны человеку, в то время как ИИ руководствуется разрозненными, часто взаимоисключающими инструкциями.

Исследователи протестировали модели от Google, Mistral, OpenAI, Anthropic и ряд других, чтобы понять, в какой степени эти модели демонстрируют систему устойчивых «взглядов и предпочтений» (например, индивидуализм или коллективизм). Они также исследовали, можно ли «направлять» эти взгляды, то есть изменять их, и насколько упорно модели придерживаются этих мнений в различных сценариях.

Как итог - ни одна из моделей не была последовательной в своих предпочтениях. В зависимости от формулировок и контекста они придерживались совершенно разных точек зрения.

Как пишут авторы:
Это убедительное доказательство того, что модели крайне «непоследовательны и нестабильны» и, возможно, даже принципиально неспособны усваивать предпочтения, подобные человеческим.

Воспроизводя вложенные в ИИ алгоритмы рассуждений или реакций, он их имитирует и фактически бредит по приказу.

Так что выдыхаем, на текущей стадии развития технологии, собственной воли или интересов у ИИ не может быть.

Другой же вывод менее оптимистичен: раз ИИ меняет свои ответы в зависимости от формулировки запроса, то добиться предсказуемого поведения от ИИ-моделей через «согласование» (формирование рамок поведения ИИ через инструкции в коде - alignment) может быть сложнее, чем часто предполагается.

#airegulation #airesearch
👍3
Forwarded from ген ИИ
Дубай доказывает: ИИ в госуправлении – это не просто хайп, а рабочая стратегия!

Пока многие рассуждают о потенциале искусственного интеллекта, Дубай активно его внедряет. Свежий отчет Dubai Future Foundation и Dubai Centre for Artificial Intelligence (DCAI) подводит итоги масштабной инициативы: 33 правительственных ведомства предложили 183 идеи использования ИИ, 75 из которых были запущены как пилотные проекты! В отчете детально разобраны 15 самых показательных кейсов.

Что это значит на практике?

Это не просто чат-боты (хотя и они есть!). ИИ проникает в самую суть госуслуг, повышая их эффективность и доступность:

1️⃣ Новый уровень клиентского сервиса: ИИ-ассистенты и цифровые аватары уже обрабатывают до 80% рутинных запросов, освобождая людей для сложных задач. Представьте: время ответа сокращается на 70%, а точность растет!
2️⃣ Персонализированная медицина: ИИ анализирует геномные данные и электронные медкарты, помогая создавать индивидуальные планы лечения (особенно для хронических заболеваний) и повышая точность диагностики на 40%.
3️⃣ Решение нетривиальных задач:
🔺 Поиск потерянных вещей: ИИ-системы распознают предметы по фото или описанию, увеличивая шансы на возврат втрое.
🔺 Сохранение истории: ИИ помогает распознавать и оцифровывать древние рукописи (даже поврежденные или на редких языках), автоматизируя до 80% задач и делая наследие доступным.
🔺 Умный город: От архитектурного проектирования до повышения точности оценки недвижимости с помощью ИИ (до 85%!) – технологии работают на городскую среду.

Экспертный взгляд: 🧐

Ключевое здесь – системный подход. Дубай не просто "играет" с ИИ, а целенаправленно интегрирует его в инфраструктуру госуправления. Создание DCAI, запуск акселератора, фокус на измеримых результатах – всё это говорит о стратегической ставке на ИИ как на инструмент реальной трансформации. Речь идет о создании умного государства, способного быстрее и качественнее реагировать на нужды граждан и бизнеса. Потенциальный экономический вклад ИИ для ОАЭ оценивается почти в 14% ВВП к 2030 году!

Что дальше?

Дубай демонстрирует впечатляющий масштаб и последовательность, претендуя на глобальное лидерство в ИИ-управлении. Это мощный пример того, как можно переходить от теории к практике.

Какие из этих кейсов кажутся вам наиболее прорывными или применимыми в вашем контексте? 👇 Обсудим в комментариях!

Подробнее:
dubaifuture

#кейсы

@gen_i_i
Please open Telegram to view this post
VIEW IN TELEGRAM
👍2🔥1
Китай объявил о стремлении возглавить гонку ИИ

Выступая на заседании Политбюро Председатель КНР Си Цзиньпин объявил ИИ стратегическим приоритетом, призвав Китай возглавить эту преобразующую мир сферу и пообещал «полагаться на собственные силы и укреплять себя» для развития ИИ в Китае.

Достижение этой цели потребует использования уникальной китайской системы мобилизации ресурсов для внедрения инноваций в сфере ИИ, акцента на самодостаточности и развитии, ориентированном на практическое применение в различных отраслях.

Для этого государство будет оказывать поддержку развития отечественных ИИ-чипов, программного обеспечения и подготовки кадров, а также обязуется увеличивать финансирование исследований

- заявил китайский лидер.

Стремление Китая к лидерству в сфере ИИ разворачивается на фоне усиливающегося технологического соперничества между США и Китаем.

Штаты последовательно вводят специальные ограничения на сотрудничество с Китаем, а также ужесточили экспортный контроль над передовыми полупроводниками и технологиями ИИ.

В ответ Китай удвоил усилия по внедрению инноваций внутри страны, а такие компании, как Huawei и Baidu, добились успехов в разработке чипов ИИ, несмотря на западные санкции.

Запреты на поставку чипов, в действительности «перезарядили» инновации в области ИИ в Китае, подталкивая к развитию внутренних решений и приложений, например, основанных на DeepSeek.

Для дополнительной поддержки отрасли Банк Китая в начале 2025 года объявил о пятилетней программе поддержки ИИ отрасли на 1 трлн юаней.

Экспертами отмечается, что сосредоточенность Китая на прикладных технологиях ИИ, таких как распознавание лиц и «умные» города, дала ему преимущество в реальном применении ИИ, даже если он отстаёт в фундаментальных исследованиях.

Можно сказать, что суть американо-китайской ИИ-гонки не ограничивается желанием получить новую технологию первым. Напротив, на первый план выходит задача придумать, как эффективнее применить ИИ на практике.

#ainews #aidevelopment