BRIEFLY
121K subscribers
6.14K photos
322 videos
25.1K links
И целый мир в BRIEFLY.
Ведущие мировые медиа о России и не только. Без цензуры.
Download Telegram
CNAS: В сфере международной безопасности происходит столкновение двух тектонических тенденций. Первая тенденция - это усиление геополитического соперничества между США и КНР. Вторая тенденция - стремительное развитие технологий искусственного интеллекта (ИИ), в том числе для военного применения. Пекин считает, что ИИ играет роль как в гражданской экономике, так и в модернизации вооруженных сил - Народно-освободительной армии (НОАК). Внутри страны китайские лидеры хотят использовать ИИ для стимулирования роста и инноваций, решения экономических и социальных проблем и обеспечения внутренней власти Коммунистической партии Китая (КПК). ИИ также играет ключевую роль в военных амбициях Китая, особенно в его стремлении к середине века стать «вооруженными силами мирового класса», в том числе за счет «интеллектуализации» своих вооруженных сил. Интеллектуализация предполагает интеграцию ИИ и других новых технологий в объединенные силы с целью получения преимущества над США.

В развитие принятых на сегодняшний день мер американским политикам следует:
▪️Принять решительные меры по сдерживанию китайского прогресса в области ИИ в военных и репрессивных целях, но делать это узко, избегая саморазрушительных шагов;
▪️Наращивать возможности ИИ в вооруженных силах США, чтобы оставаться на передовых позициях;
▪️Разработать, обнародовать и внедрить нормы и лучшие практики ответственного военного ИИ;
▪️Активно взаимодействовать с союзниками и партнерами-единомышленниками, а также с многосторонними организациями по вопросам военного ИИ;
▪️Провести переговоры с Китаем о мерах по снижению рисков и укреплению доверия, связанных с военными ИИ;
▪️Продолжить работу по созданию универсальных механизмов снижения рисков и управления кризисами между США и Китаем, несмотря на сохраняющиеся проблемы;
▪️Сделать военный ИИ основополагающим элементом дипломатии с Китаем, связанной с ядерным оружием и стратегической стабильностью;
▪️Принять меры по снижению стратегических рисков, не вызванных непосредственно военным ИИ, но потенциально усугубляемых присущей военному ИИ скоростью и непредсказуемостью;
▪️Приоритет отдается сбору и анализу разведывательных данных, а также чистой оценке возможностей китайского военного ИИ. #ИИ #технологии

Подписаться.
Defense One: Компания Teleidoscope, специализирующаяся на разработке ПО для автоматизированного целеуказания в играх с дополненной реальностью, получила контракт стоимостью до $100 млн на обновление интегрированной системы ПВО Национального столичного региона (NCR-IADS) в Вашингтоне. Компания планирует внедрить в систему искусственный интеллект (ИИ), использовать его для анализа видеозаписей в режиме реального времени с целью выявления небезопасного поведения воздушных судов. Система определяет тип воздушного судна и информирует операторов о его траектории движения. Система также включает в себя функции улучшения изображения, такие как размытие и уменьшение. Если пилот воздушного судна не отвечает на радиосвязь, то в качестве первого средства защиты будет использоваться лазерный луч, сигнализирующий пилоту о том, что он входит в запретное воздушное пространство и должен установить связь. Если пилот по-прежнему не отвечает, то вскоре будут подняты в воздух истребители. #США #ИИ

Подписаться.
Politico: Гонка за выработкой правил регулирования искусственного интеллекта (ИИ) стала серьезной проблемой для западных правительств. Представители ведущих экономик соревнуются в создании окончательных правил для ИИ. Однако предстоящие соперничающие саммиты рискуют углубить разногласия между странами, что подрывает усилия по созданию единого международного свода правил в области ИИ. Ситуацию усугубляет и личный характер некоторых переговоров. Пока западные правительства спорят между собой, Китай продолжает разрабатывать свои собственные правила в области ИИ. Западные чиновники обеспокоены тем, что если Запад не будет продвигать свой собственный проект ИИ, то тоталитарный подход Китая может распространиться на развивающиеся страны. В сентябре ожидается встреча «Большой семерки» на которой будет выработан окончательный проект регулирования ИИ. Великобритания также проведет свой собственный саммит по ИИ в ноябре, рассматривая его как возможность заявить о своей глобальной роли после Brexit. ЕС выступает за более агрессивный подход, а США, Великобритания и Япония предпочитают обязательства, принятые на себя промышленностью. ЕС стремится к тому, чтобы его собственное законодательство в области ИИ, предусматривающее обязательные ограничения на использование ИИ с высокой степенью риска, легло в основу мер, принимаемых другими ведущими демократическими странами. В то же время США настаивают на более дружественном для промышленности подходе: такие компании, как Amazon и Microsoft, взяли на себя необязательные обязательства по устранению предвзятости и социальных проблем в своих системах ИИ. #ИИ #технологии

Подписаться.
Профессор кафедры коммуникативистики Улисес Али Мехиас для Al Jazeera «ИИ и тирания общедоступных данных» (часть 1): Наши персональные данные присваивают крупные технологические компании и в последующем используют их для обучения моделей искусственного интеллекта (ИИ). Также эти корпорации теперь призывают к регулированию отрасли, получая при этом прибыль от этого. Восприятие данных как неоригинального ресурса и концепция экономики совместного использования, в которой право собственности не имеет значения, заложили основу для массового присвоения данных. Но данные не являются товаром, не требующим затрат, поскольку они связаны с человеческими усилиями, творчеством и ресурсами. Противоречие между данными как неоригинальным товаром и конкурирующими товарами, необходимыми для их производства и использования, не находит должного признания в экономике данных. Их накопление корпорациями - это пример того, что я называю «колониализмом данных», а их перепрофилирование для обучения моделей ИИ представляет собой не трагедию, а тиранию общего достояния. Идея трагедии общин была популяризирована в 1968 году в статье эколога Гаррета Хардина, озабоченного проблемой перенаселения. В своем повествовании Хардин рассматривает, что происходит, когда пастух решает добавить к своему стаду одну овцу. А потом еще одну, и еще. Этот поступок, безусловно, приносит выгоду отдельному пастуху, но когда все пастухи поступают так же, ресурсы пастбища истощаются до предела. Хардин использовал аллегорию пастбища, которое не находилось в частной собственности, а использовалось пастухами совместно, чтобы продемонстрировать опасность неуправляемого роста населения. Он указал, что приватизация или государственный контроль - единственные способы избежать этого краха. С трагической моделью Хардина не согласны многие, в том числе лауреат Нобелевской премии экономист Элинор Остром, которая привела контрпримеры, где общины управляли вполне эффективно на своих условиях. #технологии #ИИ #мнение

Подписаться.
Профессор кафедры коммуникативистики Улисес Али Мехиас для Al Jazeera «ИИ и тирания общедоступных данных» (часть 2): Эти идеи о позитивной силе общества, ставшие популярными примерно в то же время, когда появился Интернет, в значительной степени повлияли на идеализм, лежащий в основе экономики совместного пользования. Нас убеждали в том, что в этой общности нет трагедии, что можно отдавать свои данные корпорациям, потому что данные - это не конкурирующее благо. Нас призывали проводить как можно большую часть своей жизни в этой цифровой стране изобилия, где все получают равные блага. Наши данные на Facebook, Twitter, Reddit и других социальных медиаплатформах вовсе не принадлежат нам. Они принадлежат корпорациям, которые больше заботятся о прибыли, чем об обществе. Мир экономики совместного пользования без денег был построен на основе мира, в котором деньги были всем, и вот наступил срок оплаты. Наши данные не только присвоены, но и все чаще используются против нас. Они стали топливом для моделей ИИ, силу и влияние которых на нашу жизнь мы только начинаем осознавать, но уже видим, что не все они позитивны и не все идут нам на пользу - особенно тем, кто наиболее уязвим в нашем обществе. Большие технологии будут и дальше придерживаться идеи о том, что данные - это не конкурирующее благо, утверждая, что экстрактивизм данных делается для нашего блага. Они даже могут пообещать, что их модели ИИ станут общественным достоянием с открытым исходным кодом, что якобы означает, что украденные нами данные вернутся к нам в виде более полезного продукта, способного решить мировые проблемы. Прецеденты подобного обмана существуют. Одним из таких прецедентов является создание природных заповедников и национальных парков в XX веке в США. После того как земля была украдена у ее законных владельцев-индейцев, часть ее была объявлена общественным достоянием для всеобщего пользования, чтобы скрыть первоначальный акт отчуждения. Мы должны предотвратить повторение этого в новых условиях и новых формах. #технологии #ИИ #мнение

Подписаться.
Bloomberg: Сенатор Чак Шумер планирует собрать вместе нескольких руководителей технологической отрасли для обсуждения последствий появления искусственного интеллекта, в том числе Илона Маска и Марка Цукерберга. Встреча станет первым форумом Шумера AI Insight Forums и частью его стратегии по расширению влияния Конгресса на будущее искусственного интеллекта, поскольку он играет все большую роль в профессиональной и личной жизни американцев. #технологии #ии #США

Подписаться.
Le Point: Том Хэнкс опроверг информацию о том, что он является представителем бренда по уходу за зубами, и предупредил своих поклонников о видеоролике, в котором рекламируется процедура ухода за зубами с использованием искусственного интеллекта (ИИ). В своем аккаунте в Instagram он пояснил, что не имеет никакого отношения к этой рекламе. Хотя ранее Хэнкс давал разрешение на цифровое изменение своего образа, он считает, что это создает как художественные, так и юридические проблемы. В подкаст-интервью с актером Адамом Бакстоном Хэнкс упомянул, что спектакли, созданные с помощью искусственного интеллекта или технологии глубокой подделки, могут продолжаться даже после смерти актера, что ставит вопрос о подлинности и юридических последствиях. Он подчеркнул, что зрители должны понимать, когда используется ИИ или глубокая подделка. Осознавая потенциальные риски, Хэнкс рассказал о том, что в настоящее время ведутся переговоры с агентствами и юридическими фирмами с целью определения юридических последствий использования и владения его лицом и голосом, а также голосами других людей. #технологии #ии #культура

Подписаться.
CNA: Акции китайской компании iFlytek, специализирующейся на искусственном интеллекте (ИИ), упали на 10% после того, как пользователи социальных сетей обвинили её устройство с ИИ, которое она продает китайским школьникам, в создании сочинения, в котором критикуется председатель Мао Цзэдун. Пользователи таких платформ, как Baidu's Baijiahao, поделились фотографиями человека, обратившегося в службу поддержки iFlyTek с жалобой на то, что устройство его ребенка описывает Мао как «узколобого» и «нетерпимого» за начало Культурной революции в Китае. #Китай #ИИ #технологии

Подписаться.
Reuters: Президент США Джо Байден представит указ, который потребует, чтобы разработчики систем искусственного интеллекта, представляющих риск для национальной безопасности США, экономики, здоровья или безопасности населения, делились результатами испытаний на безопасность с правительством США, в соответствии с Законом об оборонном производстве, прежде чем они будут опубликованы для общественности. Согласно сообщению Белого дома, он также предписывает агентствам установить стандарты проведения таких испытаний и устранить связанные с ними риски химической, биологической, радиологической, ядерной и кибербезопасности. Белый дом считает, что для управления ИИ необходимы также законодательные меры со стороны Конгресса. Байден призывает Конгресс, в частности, принять закон о конфиденциальности данных, говорится в сообщении Белого дома. #ИИ #технологии

Подписаться.
Научный сотрудник Инициативы «Цифровое общество» аналитического центра Chatham House в интервью Le Point:
▪️В обозримом будущем лидером в ИИ останутся США. Точнее, американские компании. Это представляет собой проблему для любого глобального многостороннего соглашения, поскольку не правительства двигают эти технологии вперед. Достаточно взглянуть на платформы социальных сетей, чтобы понять, что именно платформы американских технологических компаний оказывают глобальное влияние. Более того, Соединенные Штаты довольно сдержанно относятся к идее их регулирования или контроля.
▪️В 1990-х годах Гарри Каспаров (признан в РФ иноагентом — прим. BRIEFLY) проиграл в шахматы искусственному интеллекту. Ему противостоял шахматный симулятор, написанный одной строкой кода. Его длина составляла один килобайт. Лично мне так и не удалось победить эту программу. Каждая встреча в Tinder, каждый маршрут, выбранный на Google Maps, каждый твит, каждое видео на YouTube, которое вам рекомендуют, каждый страховой взнос, каждое предложение по ипотеке - все это в той или иной мере продиктовано ИИ: статистической моделью, основанной на компьютерной науке. ИИ является частью нашей повседневной жизни. Очень часто мы не знаем, как работают эти автоматизированные решения. И чаще всего они создаются частным сектором, который не подотчетен государственным органам. Кому можно пожаловаться, если Google направляет вас по ложному пути?
▪️Самые большие и непосредственные риски связаны с нарушением рынка труда: миллионы людей скоро потеряют работу. Я имею в виду бухгалтеров, юристов, корректоров, кодеров... Это те профессии, с которыми машины сегодня справляются гораздо лучше, чем люди.
#ИИ #технологии

Подписаться.
ABC News: Председатель КНР Си Цзиньпин заявил, что потенциальные риски, связанные с искусственным интеллектом, являются проблемами, которые страны должны решать сообща. Си призвал к обеспечению общей безопасности в киберпространстве вместо конфронтации. Он заявил, что Китай будет работать с другими странами над устранением рисков, связанных с развитием искусственного интеллекта, и высказался против «гегемонии в киберпространстве». По его словам, Китай готов «содействовать безопасному развитию ИИ», реализуя инициативу «Глобальное управление ИИ» - предложение, выдвинутое китайским правительством в прошлом месяце и призывающее к созданию открытой и справедливой среды для развития ИИ. #Китай #ИИ #технологии

Подписаться.
The Economist: Возвращение Сэма Альтмана знаменует новый этап развития OpenAI. Для OpenAI триумфальное возвращение Альтмана может стать стимулом для роста ее амбиций. Для Microsoft, поддержавшей Альтмана в трудную минуту, этот эпизод может привести к усилению контроля над самым «горячим» стартапом в области ИИ. Для компаний, занимающихся разработкой технологий в области искусственного интеллекта, это может стать предвестником более широкого отхода от академического идеализма и перехода к коммерческому прагматизму. А для пользователей технологии, если повезет, это может привести к усилению конкуренции и расширению выбора. По словам одного из сотрудников, персонал стартапа, который сплотился во время потрясений, станет еще более лояльным к Альтману и, возможно, будет готов следовать его коммерческому видению. Работа над самой мощной моделью фирмы — GPT-5, которая, как казалось, на несколько месяцев замедлилась, теперь, вероятно, пойдет полным ходом. Даже если OpenAI будет двигаться быстрее под новым руководством, она столкнется с более жесткой конкуренцией. Один из венчурных капиталистов, специализирующихся в области ИИ-технологий, сравнивает этот момент с крахом в начале этого года банка Silicon Valley Bank, который научил многие стартапы не складывать все яйца в одну корзину. По данным интернет-издания The Information, в то время как разворачивалась драма Альтмана, более 100 клиентов OpenAI обратились к конкуренту Anthropic. Некоторые обратились к другой компании Cohere, а также к облачному подразделению Google, которое инвестировало в Anthropic. Облачное подразделение компании Amazon, еще одного участника программы Anthropic, создало группу для работы с перешедшими сотрудниками. События в Openai являются ярким проявлением более широкого раскола в Кремниевой долине. С одной стороны – «думеры», которые считают, что, если не контролировать процесс, ИИ представляет экзистенциальную опасность для человечества, и поэтому выступают за ужесточение регулирования. Против них выступают «бумеры», которые преуменьшают опасения по поводу апокалипсиса и подчеркивают его потенциал для ускорения прогресса. Этот раскол отчасти отражает философские разногласия. Многие в лагере «бумеров» находятся под влиянием «эффективного альтруизма» - движения, обеспокоенного тем, что технологии могут уничтожить человечество. Бумеры придерживаются мировоззрения «эффективного акселеризма», которое утверждает, что развитие искусственных интеллектов следует ускорить. Альтман, похоже, симпатизировал обеим группам и сегодня он выглядит более бумером, как и большинство сотрудников OpenAI, которые хотели его возвращения. Обреченные на провал находятся на задворках. Это беспокоит политиков, которые пытаются показать, что они серьезно относятся к рискам. Поскольку в Кремниевой долине бумеры занимают все более прочные позиции, инспекторам Белого дома, проверяющим модели, следует ожидать, что у них будут заняты руки. #США #ИИ #технологии

Подписаться.
The New Yorker об истории с Сэмом Альтманом из Open AI. Часть 1: Сага о Сэме Альтмане в OpenAI подчеркивает тревожную истину – никто не знает, что на самом деле означает безопасность ИИ. Тысячи ученых, посвятивших жизнь работе над искусственным интеллектом, расходятся во мнениях - мыслят ли сегодняшние системы и станут ли способными на это. Сообщество ИИ четко разделено на фракции, одна из которых беспокоится о риске, а другая стремится двигаться вперед. Но большинство исследователей находятся где-то посередине, стремясь действовать осторожно, что бы это ни значило. И OpenAI уже давно представляет эту промежуточную позицию. Компания разработала Dall-e, ChatGPT и другие ведущие в отрасли продукты. Этому кентавру удавалось скакать галопом до прошлой недели, пока совет директоров не уволил Сэма Альтмана. Многие интерпретировали это как сигнал о разногласиях по поводу безопасности ИИ. Но сотрудников OpenAI это не убедило, и начался хаос. По правде говоря, никто за пределами узкого внутреннего круга не знает, что на самом деле мотивировало увольнение. Современные системы искусственного интеллекта часто работают, замечая сходства и проводя аналогии. Люди тоже думают так же. Когда ChatGPT не знает подробностей истории, он их выдумывает. Это тоже человеческая тенденция. Возможно появится больше подробностей о том, что побудило совет директоров уволить Альтмана. #ИИ #технологии

Подписаться.
The New Yorker об истории с Сэмом Альтманом из Open AI. Часть 2: Самая крайняя вероятность может заключаться в том, что OpenAI была на грани изобретения A.G.I. — общего искусственного интеллекта, универсального, потенциально автономной формы — способом, который совет директоров посчитал небезопасным. И в этой саге есть нечто абсурдное. Удивительно видеть, как выдающиеся люди в области ИИ ведут себя так по-человечески – импульсивны, разъярены и сбиты с толку. Но самое страшное, что путаница имеет глубокие корни. Насколько опасен искусственный интеллект? Насколько мы близки к изобретению A.G.I.? Кому можно доверить его безопасность и как это сделать? Никто на самом деле не знает ответов на эти вопросы, и в результате некоторые из самых квалифицированных людей в мире воюют между собой. В фильмах от «Терминатора» до «Создателя» обуздать ИИ так же просто, как взорвать его. Но в реальном мире контроль осуществляется с помощью корпоративных и финансовых средств, поэтому интересы человечества неизбежно переплетаются с коммерческими интересами. Совет директоров OpenAI решил использовать свою сдерживающую власть. Но когда значение предостережения неопределенно, все становится суждением. Одно можно сказать наверняка: никто не придет и не скажет нам, как управлять искусственным интеллектом. Нам придется искать путь самим. #ИИ #технологии

Подписаться.
Bellingcat: Американская компания AnyDream, занимающаяся искусственным интеллектом тайно собирала платежи за сервис, позволяющий создавать порнографические дипфейк материалы без согласия пользователя. Она использовала финансовую компанию Stripe. Компания направляла пользователей через сторонний сайт на аккаунт Stripe на имя своего основателя Цзюню Яна, вероятно, чтобы избежать обнаружения. AnyDream использовалась для создания порнографических подделок с использованием лиц людей, в том числе школьного учителя в Канаде и 17-летней актрисы. Пользователи делились порнографическим контентом, созданным искусственным интеллектом без согласия, на сервере Discord компании и на ее сайте. Несмотря на заявления AnyDream о противодействии созданию материалов, содержащих сексуальное насилие над детьми (CSAM), платформа с трудом справляется с задачей сдерживания таких материалов. Компания также признала, что, несмотря на применение фильтров, ей не удается предотвратить создание материалов для несовершеннолетних. Знаменитости также становились объектами несанкционированного ИИ-порно на платформе, хотя компания утверждает, что запретила тысячам знаменитостей использовать подсказки к изображениям. В ответ на эти проблемы компания AnyDream заявила, что в ближайшее время она намерена ограничить использование фейков только проверенными пользователями. Главный администратор Discord-сервера AnyDream в ответ на жалобы удалил оскорбительные изображения и пообещал усилить фильтры для предотвращения создания запрещенных материалов. #ИИ #технологии

Подписаться.
The Financial Times: «Как фейки, созданные искусственным интеллектом, отнимают бизнес у онлайн-инфлюенсеров».

▪️Гиперреалистичные «виртуальные инфлюенсеры» используются для продвижения ведущих брендов, вызывая гнев со стороны создателей контента. За розововолосой Айтаной Лопес следят более 200 000 человек в социальных сетях. Она публикует селфи с концертов и из своей спальни, а также отмечает такие бренды, как линия по уходу за волосами Olaplex и гигант нижнего белья Victoria's Secret. Бренды платили около 1000 долларов за пост за то, чтобы она продвигала их продукты в социальных сетях несмотря на то, что она полностью вымышленная.

▪️Айтана - это «виртуальный инфлюенсер», созданный с помощью инструментов искусственного интеллекта, один из сотен цифровых аватаров, которые ворвались в растущую экономику создателей контента стоимостью 21 миллиард долларов. Их появление вызвало беспокойство у инфлюенсеров-людей: их доходы находятся под угрозой со стороны цифровых конкурентов. Эту озабоченность разделяют люди более устоявшихся профессий по поводу того, что их средства к существованию находятся под угрозой из-за генеративного ИИ - технологии, которая может извергать человекоподобный текст, изображения и код за считанные секунды. Но те, кто стоит за гиперреалистичными творениями ИИ, утверждают, что они просто разрушают чрезмерно раздутый рынок. #ИИ

Подписаться.
The Financial Times: «Как фейки, созданные искусственным интеллектом, отнимают бизнес у онлайн-инфлюенсеров». Часть 2:

▪️Анализ рекламы H&M в Instagram с участием виртуального инфлюенсера Kuki показал, что она охватила в 11 раз больше людей и привела к снижению стоимости на человека, запомнившего рекламу, на 91% по сравнению с традиционной рекламой. «Это не влияет на покупку, как это сделал бы человек-инфлюенсер, но это повышает узнаваемость, благосклонность и запоминаемость бренда» - сообщила Бекки Оуэн, глобальный директор по маркетингу и инновациям в Billion Dollar Boy и бывший глава команды инноваций Meta.

▪️Бренды быстро начали взаимодействовать с виртуальными инфлюенсерами как с новым способом привлечь внимание при одновременном снижении затрат. Люди-инфлюенсеры утверждают, что их виртуальные двойники должны раскрывать информацию, что они не реальны. Творения The Clueless (например, Айтана Лопес), наряду с другими виртуальными инфлюенсерами, также подвергаются критике за чрезмерную сексуализацию, что Айтана регулярно появлялась в нижнем белье. Агентство заявило, что сексуализация «распространена среди реальных моделей и влиятельных лиц», и что его творения «просто отражают эти устоявшиеся практики, не отклоняясь от текущих норм в отрасли».

▪️Мерсер, инфлюенсер-человек, утверждает: «Кажется, что женщины в последние годы смогли вернуть себе некоторую свободу действий через OnlyFans, через социальные сети, они смогли взять под контроль свое тело и сказать: «Так долго мужчины зарабатывали на мне деньги, я собираюсь зарабатывать деньги для себя». Но творения, созданные искусственным интеллектом, часто сделанные мужчинами, снова извлекают выгоду из женской сексуальности. «Это и есть причина роста подписчиков этих аккаунтов. Это делается для того, чтобы зарабатывать деньги». #ИИ

Подписаться.
Associated Press: Производитель ChatGPT OpenAI изложил план по предотвращению использования своих инструментов для распространения дезинформации о выборах, поскольку избиратели в более чем 50 странах готовятся отдать свои голоса на национальных выборах в этом году.
▪️Меры безопасности, изложенные стартапом искусственного интеллекта из Сан-Франциско в своем блоге на этой неделе, включают в себя сочетание ранее существовавших политик и новых инициатив по предотвращению неправомерного использования его чрезвычайно популярных инструментов генеративного искусственного интеллекта.
▪️Эти шаги будут касаться именно OpenAI, всего лишь одного игрока в расширяющейся вселенной компаний, который разрабатывает передовые инструменты генеративного ИИ. Компания, которая объявила об этих шагах, заявила, что планирует «продолжить работу по обеспечению безопасности платформы, повышая точность информации о голосовании, применяя взвешенную политику и повышая прозрачность».
▪️Компания заявила, что запретит людям использовать ее технологию для создания чат-ботов, которые выдают себя за реальных кандидатов или правительства, чтобы исказить то, как работает голосование, или отбить у людей желание голосовать. Компания заявила, что до тех пор, пока не будут проведены дополнительные исследования, она не позволит своим пользователям создавать приложения для целей политических кампаний или лоббирования.
▪️OpenAI также сообщила, что начала добавлять цифровые водяные знаки на изображения ИИ, созданные с помощью генератора изображений DALL-E. Это навсегда пометит контент информацией о его происхождении, что упростит идентификацию того, было ли изображение, которое появляется где-либо еще в Интернете, создано с помощью инструмента ИИ. #ИИ #Давос

Подписаться.
Channel News Asia: Разработан проект по ответственному использованию ИИ в военных целях; Китай от него отказался.

▪️Около 60 стран, включая США, одобрили «проект действий» по ответственному использованию искусственного интеллекта (ИИ) в вооруженных силах на Саммите по ответственному использованию искусственного интеллекта в военной сфере (REAIM) в Сеуле. Китай оказался в числе тех, кто не поддержал этот юридически необязательный документ.

▪️Представители правительства заявили, что проект ориентирован на конкретные действия в соответствии с передовыми дискуссиями и событиями в военной сфере, такими как внедрение Украиной беспилотников с искусственным интеллектом.

▪️«Мы предпринимаем дальнейшие конкретные шаги», — заявил Reuters министр обороны Нидерландов Рубен Брекельманс.

▪️По его словам, это включает в себя определение того, какие оценки рисков должны проводиться; важные условия, такие как контроль со стороны человека, и меры по укреплению доверия, которые могут быть приняты для управления рисками.

▪️Среди деталей, добавленных в документ, — необходимость предотвращения использования ИИ для распространения оружия массового уничтожения (ОМУ) субъектами, включая террористические группы, и важность сохранения человеческого контроля и участия в использовании ядерного оружия.

▪️Китай был в числе примерно 30 стран, которые направили на саммит представителя правительства, но не поддержали документ, что свидетельствует о серьезных разногласиях между заинтересованными сторонами.

▪️«Мы также должны быть реалистами в том, что никогда не будет на борту весь мир», — сказал Брекельманс. #ИИ #Мир

Подписаться.