Bloomberg: Сенатор Чак Шумер планирует собрать вместе нескольких руководителей технологической отрасли для обсуждения последствий появления искусственного интеллекта, в том числе Илона Маска и Марка Цукерберга. Встреча станет первым форумом Шумера AI Insight Forums и частью его стратегии по расширению влияния Конгресса на будущее искусственного интеллекта, поскольку он играет все большую роль в профессиональной и личной жизни американцев. #технологии #ии #США
Подписаться.
Подписаться.
Le Point: Том Хэнкс опроверг информацию о том, что он является представителем бренда по уходу за зубами, и предупредил своих поклонников о видеоролике, в котором рекламируется процедура ухода за зубами с использованием искусственного интеллекта (ИИ). В своем аккаунте в Instagram он пояснил, что не имеет никакого отношения к этой рекламе. Хотя ранее Хэнкс давал разрешение на цифровое изменение своего образа, он считает, что это создает как художественные, так и юридические проблемы. В подкаст-интервью с актером Адамом Бакстоном Хэнкс упомянул, что спектакли, созданные с помощью искусственного интеллекта или технологии глубокой подделки, могут продолжаться даже после смерти актера, что ставит вопрос о подлинности и юридических последствиях. Он подчеркнул, что зрители должны понимать, когда используется ИИ или глубокая подделка. Осознавая потенциальные риски, Хэнкс рассказал о том, что в настоящее время ведутся переговоры с агентствами и юридическими фирмами с целью определения юридических последствий использования и владения его лицом и голосом, а также голосами других людей. #технологии #ии #культура
Подписаться.
Подписаться.
CNA: Акции китайской компании iFlytek, специализирующейся на искусственном интеллекте (ИИ), упали на 10% после того, как пользователи социальных сетей обвинили её устройство с ИИ, которое она продает китайским школьникам, в создании сочинения, в котором критикуется председатель Мао Цзэдун. Пользователи таких платформ, как Baidu's Baijiahao, поделились фотографиями человека, обратившегося в службу поддержки iFlyTek с жалобой на то, что устройство его ребенка описывает Мао как «узколобого» и «нетерпимого» за начало Культурной революции в Китае. #Китай #ИИ #технологии
Подписаться.
Подписаться.
Reuters: Президент США Джо Байден представит указ, который потребует, чтобы разработчики систем искусственного интеллекта, представляющих риск для национальной безопасности США, экономики, здоровья или безопасности населения, делились результатами испытаний на безопасность с правительством США, в соответствии с Законом об оборонном производстве, прежде чем они будут опубликованы для общественности. Согласно сообщению Белого дома, он также предписывает агентствам установить стандарты проведения таких испытаний и устранить связанные с ними риски химической, биологической, радиологической, ядерной и кибербезопасности. Белый дом считает, что для управления ИИ необходимы также законодательные меры со стороны Конгресса. Байден призывает Конгресс, в частности, принять закон о конфиденциальности данных, говорится в сообщении Белого дома. #ИИ #технологии
Подписаться.
Подписаться.
Научный сотрудник Инициативы «Цифровое общество» аналитического центра Chatham House в интервью Le Point:
▪️В обозримом будущем лидером в ИИ останутся США. Точнее, американские компании. Это представляет собой проблему для любого глобального многостороннего соглашения, поскольку не правительства двигают эти технологии вперед. Достаточно взглянуть на платформы социальных сетей, чтобы понять, что именно платформы американских технологических компаний оказывают глобальное влияние. Более того, Соединенные Штаты довольно сдержанно относятся к идее их регулирования или контроля.
▪️В 1990-х годах Гарри Каспаров (признан в РФ иноагентом — прим. BRIEFLY) проиграл в шахматы искусственному интеллекту. Ему противостоял шахматный симулятор, написанный одной строкой кода. Его длина составляла один килобайт. Лично мне так и не удалось победить эту программу. Каждая встреча в Tinder, каждый маршрут, выбранный на Google Maps, каждый твит, каждое видео на YouTube, которое вам рекомендуют, каждый страховой взнос, каждое предложение по ипотеке - все это в той или иной мере продиктовано ИИ: статистической моделью, основанной на компьютерной науке. ИИ является частью нашей повседневной жизни. Очень часто мы не знаем, как работают эти автоматизированные решения. И чаще всего они создаются частным сектором, который не подотчетен государственным органам. Кому можно пожаловаться, если Google направляет вас по ложному пути?
▪️Самые большие и непосредственные риски связаны с нарушением рынка труда: миллионы людей скоро потеряют работу. Я имею в виду бухгалтеров, юристов, корректоров, кодеров... Это те профессии, с которыми машины сегодня справляются гораздо лучше, чем люди.
#ИИ #технологии
Подписаться.
▪️В обозримом будущем лидером в ИИ останутся США. Точнее, американские компании. Это представляет собой проблему для любого глобального многостороннего соглашения, поскольку не правительства двигают эти технологии вперед. Достаточно взглянуть на платформы социальных сетей, чтобы понять, что именно платформы американских технологических компаний оказывают глобальное влияние. Более того, Соединенные Штаты довольно сдержанно относятся к идее их регулирования или контроля.
▪️В 1990-х годах Гарри Каспаров (признан в РФ иноагентом — прим. BRIEFLY) проиграл в шахматы искусственному интеллекту. Ему противостоял шахматный симулятор, написанный одной строкой кода. Его длина составляла один килобайт. Лично мне так и не удалось победить эту программу. Каждая встреча в Tinder, каждый маршрут, выбранный на Google Maps, каждый твит, каждое видео на YouTube, которое вам рекомендуют, каждый страховой взнос, каждое предложение по ипотеке - все это в той или иной мере продиктовано ИИ: статистической моделью, основанной на компьютерной науке. ИИ является частью нашей повседневной жизни. Очень часто мы не знаем, как работают эти автоматизированные решения. И чаще всего они создаются частным сектором, который не подотчетен государственным органам. Кому можно пожаловаться, если Google направляет вас по ложному пути?
▪️Самые большие и непосредственные риски связаны с нарушением рынка труда: миллионы людей скоро потеряют работу. Я имею в виду бухгалтеров, юристов, корректоров, кодеров... Это те профессии, с которыми машины сегодня справляются гораздо лучше, чем люди.
#ИИ #технологии
Подписаться.
ABC News: Председатель КНР Си Цзиньпин заявил, что потенциальные риски, связанные с искусственным интеллектом, являются проблемами, которые страны должны решать сообща. Си призвал к обеспечению общей безопасности в киберпространстве вместо конфронтации. Он заявил, что Китай будет работать с другими странами над устранением рисков, связанных с развитием искусственного интеллекта, и высказался против «гегемонии в киберпространстве». По его словам, Китай готов «содействовать безопасному развитию ИИ», реализуя инициативу «Глобальное управление ИИ» - предложение, выдвинутое китайским правительством в прошлом месяце и призывающее к созданию открытой и справедливой среды для развития ИИ. #Китай #ИИ #технологии
Подписаться.
Подписаться.
The Economist: Возвращение Сэма Альтмана знаменует новый этап развития OpenAI. Для OpenAI триумфальное возвращение Альтмана может стать стимулом для роста ее амбиций. Для Microsoft, поддержавшей Альтмана в трудную минуту, этот эпизод может привести к усилению контроля над самым «горячим» стартапом в области ИИ. Для компаний, занимающихся разработкой технологий в области искусственного интеллекта, это может стать предвестником более широкого отхода от академического идеализма и перехода к коммерческому прагматизму. А для пользователей технологии, если повезет, это может привести к усилению конкуренции и расширению выбора. По словам одного из сотрудников, персонал стартапа, который сплотился во время потрясений, станет еще более лояльным к Альтману и, возможно, будет готов следовать его коммерческому видению. Работа над самой мощной моделью фирмы — GPT-5, которая, как казалось, на несколько месяцев замедлилась, теперь, вероятно, пойдет полным ходом. Даже если OpenAI будет двигаться быстрее под новым руководством, она столкнется с более жесткой конкуренцией. Один из венчурных капиталистов, специализирующихся в области ИИ-технологий, сравнивает этот момент с крахом в начале этого года банка Silicon Valley Bank, который научил многие стартапы не складывать все яйца в одну корзину. По данным интернет-издания The Information, в то время как разворачивалась драма Альтмана, более 100 клиентов OpenAI обратились к конкуренту Anthropic. Некоторые обратились к другой компании Cohere, а также к облачному подразделению Google, которое инвестировало в Anthropic. Облачное подразделение компании Amazon, еще одного участника программы Anthropic, создало группу для работы с перешедшими сотрудниками. События в Openai являются ярким проявлением более широкого раскола в Кремниевой долине. С одной стороны – «думеры», которые считают, что, если не контролировать процесс, ИИ представляет экзистенциальную опасность для человечества, и поэтому выступают за ужесточение регулирования. Против них выступают «бумеры», которые преуменьшают опасения по поводу апокалипсиса и подчеркивают его потенциал для ускорения прогресса. Этот раскол отчасти отражает философские разногласия. Многие в лагере «бумеров» находятся под влиянием «эффективного альтруизма» - движения, обеспокоенного тем, что технологии могут уничтожить человечество. Бумеры придерживаются мировоззрения «эффективного акселеризма», которое утверждает, что развитие искусственных интеллектов следует ускорить. Альтман, похоже, симпатизировал обеим группам и сегодня он выглядит более бумером, как и большинство сотрудников OpenAI, которые хотели его возвращения. Обреченные на провал находятся на задворках. Это беспокоит политиков, которые пытаются показать, что они серьезно относятся к рискам. Поскольку в Кремниевой долине бумеры занимают все более прочные позиции, инспекторам Белого дома, проверяющим модели, следует ожидать, что у них будут заняты руки. #США #ИИ #технологии
Подписаться.
Подписаться.
The New Yorker об истории с Сэмом Альтманом из Open AI. Часть 1: Сага о Сэме Альтмане в OpenAI подчеркивает тревожную истину – никто не знает, что на самом деле означает безопасность ИИ. Тысячи ученых, посвятивших жизнь работе над искусственным интеллектом, расходятся во мнениях - мыслят ли сегодняшние системы и станут ли способными на это. Сообщество ИИ четко разделено на фракции, одна из которых беспокоится о риске, а другая стремится двигаться вперед. Но большинство исследователей находятся где-то посередине, стремясь действовать осторожно, что бы это ни значило. И OpenAI уже давно представляет эту промежуточную позицию. Компания разработала Dall-e, ChatGPT и другие ведущие в отрасли продукты. Этому кентавру удавалось скакать галопом до прошлой недели, пока совет директоров не уволил Сэма Альтмана. Многие интерпретировали это как сигнал о разногласиях по поводу безопасности ИИ. Но сотрудников OpenAI это не убедило, и начался хаос. По правде говоря, никто за пределами узкого внутреннего круга не знает, что на самом деле мотивировало увольнение. Современные системы искусственного интеллекта часто работают, замечая сходства и проводя аналогии. Люди тоже думают так же. Когда ChatGPT не знает подробностей истории, он их выдумывает. Это тоже человеческая тенденция. Возможно появится больше подробностей о том, что побудило совет директоров уволить Альтмана. #ИИ #технологии
Подписаться.
Подписаться.
The New Yorker об истории с Сэмом Альтманом из Open AI. Часть 2: Самая крайняя вероятность может заключаться в том, что OpenAI была на грани изобретения A.G.I. — общего искусственного интеллекта, универсального, потенциально автономной формы — способом, который совет директоров посчитал небезопасным. И в этой саге есть нечто абсурдное. Удивительно видеть, как выдающиеся люди в области ИИ ведут себя так по-человечески – импульсивны, разъярены и сбиты с толку. Но самое страшное, что путаница имеет глубокие корни. Насколько опасен искусственный интеллект? Насколько мы близки к изобретению A.G.I.? Кому можно доверить его безопасность и как это сделать? Никто на самом деле не знает ответов на эти вопросы, и в результате некоторые из самых квалифицированных людей в мире воюют между собой. В фильмах от «Терминатора» до «Создателя» обуздать ИИ так же просто, как взорвать его. Но в реальном мире контроль осуществляется с помощью корпоративных и финансовых средств, поэтому интересы человечества неизбежно переплетаются с коммерческими интересами. Совет директоров OpenAI решил использовать свою сдерживающую власть. Но когда значение предостережения неопределенно, все становится суждением. Одно можно сказать наверняка: никто не придет и не скажет нам, как управлять искусственным интеллектом. Нам придется искать путь самим. #ИИ #технологии
Подписаться.
Подписаться.
Bellingcat: Американская компания AnyDream, занимающаяся искусственным интеллектом тайно собирала платежи за сервис, позволяющий создавать порнографические дипфейк материалы без согласия пользователя. Она использовала финансовую компанию Stripe. Компания направляла пользователей через сторонний сайт на аккаунт Stripe на имя своего основателя Цзюню Яна, вероятно, чтобы избежать обнаружения. AnyDream использовалась для создания порнографических подделок с использованием лиц людей, в том числе школьного учителя в Канаде и 17-летней актрисы. Пользователи делились порнографическим контентом, созданным искусственным интеллектом без согласия, на сервере Discord компании и на ее сайте. Несмотря на заявления AnyDream о противодействии созданию материалов, содержащих сексуальное насилие над детьми (CSAM), платформа с трудом справляется с задачей сдерживания таких материалов. Компания также признала, что, несмотря на применение фильтров, ей не удается предотвратить создание материалов для несовершеннолетних. Знаменитости также становились объектами несанкционированного ИИ-порно на платформе, хотя компания утверждает, что запретила тысячам знаменитостей использовать подсказки к изображениям. В ответ на эти проблемы компания AnyDream заявила, что в ближайшее время она намерена ограничить использование фейков только проверенными пользователями. Главный администратор Discord-сервера AnyDream в ответ на жалобы удалил оскорбительные изображения и пообещал усилить фильтры для предотвращения создания запрещенных материалов. #ИИ #технологии
Подписаться.
Подписаться.
The Financial Times: «Как фейки, созданные искусственным интеллектом, отнимают бизнес у онлайн-инфлюенсеров».
▪️Гиперреалистичные «виртуальные инфлюенсеры» используются для продвижения ведущих брендов, вызывая гнев со стороны создателей контента. За розововолосой Айтаной Лопес следят более 200 000 человек в социальных сетях. Она публикует селфи с концертов и из своей спальни, а также отмечает такие бренды, как линия по уходу за волосами Olaplex и гигант нижнего белья Victoria's Secret. Бренды платили около 1000 долларов за пост за то, чтобы она продвигала их продукты в социальных сетях несмотря на то, что она полностью вымышленная.
▪️Айтана - это «виртуальный инфлюенсер», созданный с помощью инструментов искусственного интеллекта, один из сотен цифровых аватаров, которые ворвались в растущую экономику создателей контента стоимостью 21 миллиард долларов. Их появление вызвало беспокойство у инфлюенсеров-людей: их доходы находятся под угрозой со стороны цифровых конкурентов. Эту озабоченность разделяют люди более устоявшихся профессий по поводу того, что их средства к существованию находятся под угрозой из-за генеративного ИИ - технологии, которая может извергать человекоподобный текст, изображения и код за считанные секунды. Но те, кто стоит за гиперреалистичными творениями ИИ, утверждают, что они просто разрушают чрезмерно раздутый рынок. #ИИ
Подписаться.
▪️Гиперреалистичные «виртуальные инфлюенсеры» используются для продвижения ведущих брендов, вызывая гнев со стороны создателей контента. За розововолосой Айтаной Лопес следят более 200 000 человек в социальных сетях. Она публикует селфи с концертов и из своей спальни, а также отмечает такие бренды, как линия по уходу за волосами Olaplex и гигант нижнего белья Victoria's Secret. Бренды платили около 1000 долларов за пост за то, чтобы она продвигала их продукты в социальных сетях несмотря на то, что она полностью вымышленная.
▪️Айтана - это «виртуальный инфлюенсер», созданный с помощью инструментов искусственного интеллекта, один из сотен цифровых аватаров, которые ворвались в растущую экономику создателей контента стоимостью 21 миллиард долларов. Их появление вызвало беспокойство у инфлюенсеров-людей: их доходы находятся под угрозой со стороны цифровых конкурентов. Эту озабоченность разделяют люди более устоявшихся профессий по поводу того, что их средства к существованию находятся под угрозой из-за генеративного ИИ - технологии, которая может извергать человекоподобный текст, изображения и код за считанные секунды. Но те, кто стоит за гиперреалистичными творениями ИИ, утверждают, что они просто разрушают чрезмерно раздутый рынок. #ИИ
Подписаться.
The Financial Times: «Как фейки, созданные искусственным интеллектом, отнимают бизнес у онлайн-инфлюенсеров». Часть 2:
▪️Анализ рекламы H&M в Instagram с участием виртуального инфлюенсера Kuki показал, что она охватила в 11 раз больше людей и привела к снижению стоимости на человека, запомнившего рекламу, на 91% по сравнению с традиционной рекламой. «Это не влияет на покупку, как это сделал бы человек-инфлюенсер, но это повышает узнаваемость, благосклонность и запоминаемость бренда» - сообщила Бекки Оуэн, глобальный директор по маркетингу и инновациям в Billion Dollar Boy и бывший глава команды инноваций Meta.
▪️Бренды быстро начали взаимодействовать с виртуальными инфлюенсерами как с новым способом привлечь внимание при одновременном снижении затрат. Люди-инфлюенсеры утверждают, что их виртуальные двойники должны раскрывать информацию, что они не реальны. Творения The Clueless (например, Айтана Лопес), наряду с другими виртуальными инфлюенсерами, также подвергаются критике за чрезмерную сексуализацию, что Айтана регулярно появлялась в нижнем белье. Агентство заявило, что сексуализация «распространена среди реальных моделей и влиятельных лиц», и что его творения «просто отражают эти устоявшиеся практики, не отклоняясь от текущих норм в отрасли».
▪️Мерсер, инфлюенсер-человек, утверждает: «Кажется, что женщины в последние годы смогли вернуть себе некоторую свободу действий через OnlyFans, через социальные сети, они смогли взять под контроль свое тело и сказать: «Так долго мужчины зарабатывали на мне деньги, я собираюсь зарабатывать деньги для себя». Но творения, созданные искусственным интеллектом, часто сделанные мужчинами, снова извлекают выгоду из женской сексуальности. «Это и есть причина роста подписчиков этих аккаунтов. Это делается для того, чтобы зарабатывать деньги». #ИИ
Подписаться.
▪️Анализ рекламы H&M в Instagram с участием виртуального инфлюенсера Kuki показал, что она охватила в 11 раз больше людей и привела к снижению стоимости на человека, запомнившего рекламу, на 91% по сравнению с традиционной рекламой. «Это не влияет на покупку, как это сделал бы человек-инфлюенсер, но это повышает узнаваемость, благосклонность и запоминаемость бренда» - сообщила Бекки Оуэн, глобальный директор по маркетингу и инновациям в Billion Dollar Boy и бывший глава команды инноваций Meta.
▪️Бренды быстро начали взаимодействовать с виртуальными инфлюенсерами как с новым способом привлечь внимание при одновременном снижении затрат. Люди-инфлюенсеры утверждают, что их виртуальные двойники должны раскрывать информацию, что они не реальны. Творения The Clueless (например, Айтана Лопес), наряду с другими виртуальными инфлюенсерами, также подвергаются критике за чрезмерную сексуализацию, что Айтана регулярно появлялась в нижнем белье. Агентство заявило, что сексуализация «распространена среди реальных моделей и влиятельных лиц», и что его творения «просто отражают эти устоявшиеся практики, не отклоняясь от текущих норм в отрасли».
▪️Мерсер, инфлюенсер-человек, утверждает: «Кажется, что женщины в последние годы смогли вернуть себе некоторую свободу действий через OnlyFans, через социальные сети, они смогли взять под контроль свое тело и сказать: «Так долго мужчины зарабатывали на мне деньги, я собираюсь зарабатывать деньги для себя». Но творения, созданные искусственным интеллектом, часто сделанные мужчинами, снова извлекают выгоду из женской сексуальности. «Это и есть причина роста подписчиков этих аккаунтов. Это делается для того, чтобы зарабатывать деньги». #ИИ
Подписаться.
Associated Press: Производитель ChatGPT OpenAI изложил план по предотвращению использования своих инструментов для распространения дезинформации о выборах, поскольку избиратели в более чем 50 странах готовятся отдать свои голоса на национальных выборах в этом году.
▪️Меры безопасности, изложенные стартапом искусственного интеллекта из Сан-Франциско в своем блоге на этой неделе, включают в себя сочетание ранее существовавших политик и новых инициатив по предотвращению неправомерного использования его чрезвычайно популярных инструментов генеративного искусственного интеллекта.
▪️Эти шаги будут касаться именно OpenAI, всего лишь одного игрока в расширяющейся вселенной компаний, который разрабатывает передовые инструменты генеративного ИИ. Компания, которая объявила об этих шагах, заявила, что планирует «продолжить работу по обеспечению безопасности платформы, повышая точность информации о голосовании, применяя взвешенную политику и повышая прозрачность».
▪️Компания заявила, что запретит людям использовать ее технологию для создания чат-ботов, которые выдают себя за реальных кандидатов или правительства, чтобы исказить то, как работает голосование, или отбить у людей желание голосовать. Компания заявила, что до тех пор, пока не будут проведены дополнительные исследования, она не позволит своим пользователям создавать приложения для целей политических кампаний или лоббирования.
▪️OpenAI также сообщила, что начала добавлять цифровые водяные знаки на изображения ИИ, созданные с помощью генератора изображений DALL-E. Это навсегда пометит контент информацией о его происхождении, что упростит идентификацию того, было ли изображение, которое появляется где-либо еще в Интернете, создано с помощью инструмента ИИ. #ИИ #Давос
Подписаться.
▪️Меры безопасности, изложенные стартапом искусственного интеллекта из Сан-Франциско в своем блоге на этой неделе, включают в себя сочетание ранее существовавших политик и новых инициатив по предотвращению неправомерного использования его чрезвычайно популярных инструментов генеративного искусственного интеллекта.
▪️Эти шаги будут касаться именно OpenAI, всего лишь одного игрока в расширяющейся вселенной компаний, который разрабатывает передовые инструменты генеративного ИИ. Компания, которая объявила об этих шагах, заявила, что планирует «продолжить работу по обеспечению безопасности платформы, повышая точность информации о голосовании, применяя взвешенную политику и повышая прозрачность».
▪️Компания заявила, что запретит людям использовать ее технологию для создания чат-ботов, которые выдают себя за реальных кандидатов или правительства, чтобы исказить то, как работает голосование, или отбить у людей желание голосовать. Компания заявила, что до тех пор, пока не будут проведены дополнительные исследования, она не позволит своим пользователям создавать приложения для целей политических кампаний или лоббирования.
▪️OpenAI также сообщила, что начала добавлять цифровые водяные знаки на изображения ИИ, созданные с помощью генератора изображений DALL-E. Это навсегда пометит контент информацией о его происхождении, что упростит идентификацию того, было ли изображение, которое появляется где-либо еще в Интернете, создано с помощью инструмента ИИ. #ИИ #Давос
Подписаться.
Channel News Asia: Разработан проект по ответственному использованию ИИ в военных целях; Китай от него отказался.
▪️Около 60 стран, включая США, одобрили «проект действий» по ответственному использованию искусственного интеллекта (ИИ) в вооруженных силах на Саммите по ответственному использованию искусственного интеллекта в военной сфере (REAIM) в Сеуле. Китай оказался в числе тех, кто не поддержал этот юридически необязательный документ.
▪️Представители правительства заявили, что проект ориентирован на конкретные действия в соответствии с передовыми дискуссиями и событиями в военной сфере, такими как внедрение Украиной беспилотников с искусственным интеллектом.
▪️«Мы предпринимаем дальнейшие конкретные шаги», — заявил Reuters министр обороны Нидерландов Рубен Брекельманс.
▪️По его словам, это включает в себя определение того, какие оценки рисков должны проводиться; важные условия, такие как контроль со стороны человека, и меры по укреплению доверия, которые могут быть приняты для управления рисками.
▪️Среди деталей, добавленных в документ, — необходимость предотвращения использования ИИ для распространения оружия массового уничтожения (ОМУ) субъектами, включая террористические группы, и важность сохранения человеческого контроля и участия в использовании ядерного оружия.
▪️Китай был в числе примерно 30 стран, которые направили на саммит представителя правительства, но не поддержали документ, что свидетельствует о серьезных разногласиях между заинтересованными сторонами.
▪️«Мы также должны быть реалистами в том, что никогда не будет на борту весь мир», — сказал Брекельманс. #ИИ #Мир
Подписаться.
▪️Около 60 стран, включая США, одобрили «проект действий» по ответственному использованию искусственного интеллекта (ИИ) в вооруженных силах на Саммите по ответственному использованию искусственного интеллекта в военной сфере (REAIM) в Сеуле. Китай оказался в числе тех, кто не поддержал этот юридически необязательный документ.
▪️Представители правительства заявили, что проект ориентирован на конкретные действия в соответствии с передовыми дискуссиями и событиями в военной сфере, такими как внедрение Украиной беспилотников с искусственным интеллектом.
▪️«Мы предпринимаем дальнейшие конкретные шаги», — заявил Reuters министр обороны Нидерландов Рубен Брекельманс.
▪️По его словам, это включает в себя определение того, какие оценки рисков должны проводиться; важные условия, такие как контроль со стороны человека, и меры по укреплению доверия, которые могут быть приняты для управления рисками.
▪️Среди деталей, добавленных в документ, — необходимость предотвращения использования ИИ для распространения оружия массового уничтожения (ОМУ) субъектами, включая террористические группы, и важность сохранения человеческого контроля и участия в использовании ядерного оружия.
▪️Китай был в числе примерно 30 стран, которые направили на саммит представителя правительства, но не поддержали документ, что свидетельствует о серьезных разногласиях между заинтересованными сторонами.
▪️«Мы также должны быть реалистами в том, что никогда не будет на борту весь мир», — сказал Брекельманс. #ИИ #Мир
Подписаться.
The Washington Post: Израиль построил «фабрику искусственного интеллекта» для войны. Он запустил ее в Газе
▪️После жестокой атаки ХАМАС 7 октября 2023 года Армия обороны Израиля засыпала Газу бомбами, опираясь на кропотливо собранную в течение многих лет базу данных с подробным списком домашних адресов, расположения туннелей и других объектов инфраструктуры, важных для боевиков.
▪️Но потом банк целей иссяк. Чтобы сохранить бешеный темп войны, ЦАХАЛ прибегнул к помощи сложного инструмента искусственного интеллекта под названием «Хабсора» — или «Евангелие» — который мог быстро генерировать сотни дополнительных целей.
▪️По словам двух человек, знакомых с операцией, использование ИИ для быстрого пополнения банка целей ЦАХАЛ позволило военным продолжать кампанию без перерыва.
▪️Это пример того, как десятилетняя программа по внедрению передовых инструментов ИИ в центр разведывательных операций ЦАХАЛ способствовала жестокости 14-месячной войны Израиля в Газе.
▪️ЦАХАЛ широко освещал существование этих программ, которые некоторые эксперты считают самой передовой военной инициативой в области ИИ из когда-либо развернутых. Однако расследование Washington Post раскрывает ранее не сообщавшиеся подробности внутренней работы программы машинного обучения, а также секретную десятилетнюю историю ее разработки.
▪️Расследование также раскрывает ожесточенные дебаты в высших эшелонах армии, начавшиеся за несколько лет до 7 октября, о качестве разведданных, полученных с помощью ИИ, о том, достаточно ли тщательно проверяются рекомендации технологий и не ослабляет ли внимание к ИИ разведывательные возможности ЦАХАЛ.
▪️Некоторые внутренние критики утверждают, что программа ИИ стала закулисной силой, увеличившей рост числа жертв в Газе. По данным министерства здравоохранения Газы, погибли 45 000 человек, более половины из которых — женщины и дети.
▪️Люди, знакомые с практикой ЦАХАЛ, в том числе солдаты, которые служили на войне, говорят, что израильские военные значительно расширили число допустимых жертв среди гражданского населения по сравнению с историческими нормами.
▪️Некоторые утверждают, что этому способствовала автоматизация, которая облегчила быструю генерацию большого количества целей, в том числе боевиков низкого уровня, участвовавших в атаках 7 октября.
▪️«То, что происходит в Газе — предвестник более широких изменений в том, как ведутся войны», — сказал старший научный сотрудник Фонда Карнеги, изучающий использование искусственного интеллекта на войне, Стивен Фельдштейн.
▪️Он отметил, что во время войны в Газе ЦАХАЛ, похоже, снизил порог допустимого числа жертв среди гражданского населения. «Соедините это с ускорением, которое предлагают эти системы, а также с вопросами точности — и в итоге количество жертв окажется выше, чем можно было представить себе на войне», — сказал Фельдштейн.
▪️ЦАХАЛ заявил — утверждения, что использование ИИ ставит под угрозу жизни людей, «не соответствуют действительности». #Израиль #СекторГаза #ИИ
Подписаться.
▪️После жестокой атаки ХАМАС 7 октября 2023 года Армия обороны Израиля засыпала Газу бомбами, опираясь на кропотливо собранную в течение многих лет базу данных с подробным списком домашних адресов, расположения туннелей и других объектов инфраструктуры, важных для боевиков.
▪️Но потом банк целей иссяк. Чтобы сохранить бешеный темп войны, ЦАХАЛ прибегнул к помощи сложного инструмента искусственного интеллекта под названием «Хабсора» — или «Евангелие» — который мог быстро генерировать сотни дополнительных целей.
▪️По словам двух человек, знакомых с операцией, использование ИИ для быстрого пополнения банка целей ЦАХАЛ позволило военным продолжать кампанию без перерыва.
▪️Это пример того, как десятилетняя программа по внедрению передовых инструментов ИИ в центр разведывательных операций ЦАХАЛ способствовала жестокости 14-месячной войны Израиля в Газе.
▪️ЦАХАЛ широко освещал существование этих программ, которые некоторые эксперты считают самой передовой военной инициативой в области ИИ из когда-либо развернутых. Однако расследование Washington Post раскрывает ранее не сообщавшиеся подробности внутренней работы программы машинного обучения, а также секретную десятилетнюю историю ее разработки.
▪️Расследование также раскрывает ожесточенные дебаты в высших эшелонах армии, начавшиеся за несколько лет до 7 октября, о качестве разведданных, полученных с помощью ИИ, о том, достаточно ли тщательно проверяются рекомендации технологий и не ослабляет ли внимание к ИИ разведывательные возможности ЦАХАЛ.
▪️Некоторые внутренние критики утверждают, что программа ИИ стала закулисной силой, увеличившей рост числа жертв в Газе. По данным министерства здравоохранения Газы, погибли 45 000 человек, более половины из которых — женщины и дети.
▪️Люди, знакомые с практикой ЦАХАЛ, в том числе солдаты, которые служили на войне, говорят, что израильские военные значительно расширили число допустимых жертв среди гражданского населения по сравнению с историческими нормами.
▪️Некоторые утверждают, что этому способствовала автоматизация, которая облегчила быструю генерацию большого количества целей, в том числе боевиков низкого уровня, участвовавших в атаках 7 октября.
▪️«То, что происходит в Газе — предвестник более широких изменений в том, как ведутся войны», — сказал старший научный сотрудник Фонда Карнеги, изучающий использование искусственного интеллекта на войне, Стивен Фельдштейн.
▪️Он отметил, что во время войны в Газе ЦАХАЛ, похоже, снизил порог допустимого числа жертв среди гражданского населения. «Соедините это с ускорением, которое предлагают эти системы, а также с вопросами точности — и в итоге количество жертв окажется выше, чем можно было представить себе на войне», — сказал Фельдштейн.
▪️ЦАХАЛ заявил — утверждения, что использование ИИ ставит под угрозу жизни людей, «не соответствуют действительности». #Израиль #СекторГаза #ИИ
Подписаться.