Forwarded from Россия в глобальной политике
Огромное полотно в журнале Time о том, как Украина превратилась в грандиозный испытательный полигон самых разных технологий, но прежде всего – военного применения искусственного интеллекта и связанных с ним явлений. Наблюдается гармония – украинская сторона готова способствовать тестированию чего угодно, технологические гиганты не прочь попробовать то, чего они не могут сделать дома.
Явно не без приукрашиваний, но мысль понятна.
https://time.com/6691662/ai-ukraine-war-palantir/
Явно не без приукрашиваний, но мысль понятна.
But Ukraine and its private-sector allies say they are playing a longer game: creating a war lab for the future. Ukraine “is the best test ground for all the newest tech,” Fedorov says, “because here you can test them in real-life conditions.” Says Karp: “There are things that we can do on the battlefield that we could not do in a domestic context.”
https://time.com/6691662/ai-ukraine-war-palantir/
TIME
How Tech Giants Turned Ukraine Into an AI War Lab
AI tools provided by companies like Palantir raise questions about when and how invasive tech should be used in wartime
🔥2
Маркировка и ИИ
Известия опубликовали обзорную статью про мировые подходы к маркированию контента, сделанного ИИ. Весьма советую к прочтению. Ниже ряд наблюдений из текста:
- Нейросети позволяют генерировать видео, картинки и др., однако всегда есть вероятность, что этот сгенерированный контент будет использоваться в сомнительных целях. К примеру, вот как дипфейк кандидаты участвовали в выборной кампании Индии, а Штаты решили срочно обязать ИИ-разработчиков внедрить обязательную систему маркирования ИИ-контента, чтобы не повторить опыт Индии.
- Маркировка контента может быть как в заметной для человеческого глаза форме водяных знаков, так и в виде специальных пометок в файлах.
- Маркировка контента требует от отрасли большого вложения ресурсов, однако именно она будет развиваться как для борьбы с недобросовестным использованием технологии, так и для повышения доверия к ИИ среди населения
- В мире нет единого подхода к тому, как маркировать контент. Если ЕС принял специальный закон об ИИ, то в Штатах сами компании взяли на себя внедрение системы маркировки.
- То, какой подход к маркировке контента будет выбран, повлияет на скорость развития и внедрения ИИ в стране. Есть наглядный пример ЕС, где местные разработчики из-за регуляторных требований не могут разработать конкурентные на международном рынке ИИ-решения, а ряд техногигантов ограничили доступ к своим ИИ-моделям в Европе.
#aitrends
Известия опубликовали обзорную статью про мировые подходы к маркированию контента, сделанного ИИ. Весьма советую к прочтению. Ниже ряд наблюдений из текста:
- Нейросети позволяют генерировать видео, картинки и др., однако всегда есть вероятность, что этот сгенерированный контент будет использоваться в сомнительных целях. К примеру, вот как дипфейк кандидаты участвовали в выборной кампании Индии, а Штаты решили срочно обязать ИИ-разработчиков внедрить обязательную систему маркирования ИИ-контента, чтобы не повторить опыт Индии.
- Маркировка контента может быть как в заметной для человеческого глаза форме водяных знаков, так и в виде специальных пометок в файлах.
- Маркировка контента требует от отрасли большого вложения ресурсов, однако именно она будет развиваться как для борьбы с недобросовестным использованием технологии, так и для повышения доверия к ИИ среди населения
- В мире нет единого подхода к тому, как маркировать контент. Если ЕС принял специальный закон об ИИ, то в Штатах сами компании взяли на себя внедрение системы маркировки.
- То, какой подход к маркировке контента будет выбран, повлияет на скорость развития и внедрения ИИ в стране. Есть наглядный пример ЕС, где местные разработчики из-за регуляторных требований не могут разработать конкурентные на международном рынке ИИ-решения, а ряд техногигантов ограничили доступ к своим ИИ-моделям в Европе.
#aitrends
👍7
Forwarded from Колаборатория (Maria)
Этика в сфере ИИ. Вы много слышали, но хотели бы получше разобраться, о чем речь?
❗️ Делимся с вами совместной лекцией Колаборатории AIIR в лице аспиранта МГИМО М.М. Базлуцкой и руководителя направления аналитики Центра глобальной ИТ-кооперации А.Г. Игнатьева, прошедшей в Летней школе Университета Иннополис AIETHICS.
1️⃣ В первой части вы познакомитесь с философскими основами этики, на которых строится глобальная дискуссия. Без этой базы очень сложно разобраться, что стоит за обширными фразами в международных документах.
2️⃣ А уже вторая часть познакомит вас именно с тем, как разные организации и государства формулируют собственные этические принципы в сфере ИИ, и в чем заключаются коренные отличия.
P.S. Для вашего удобства разделили лекцию на 2 файла.
Желаем успехов с освоением нового материала и выражаем благодарность Университету Иннополис за предоставленную площадку!
#AIIR_лекция #AIIR_образование #AI #Ethics #Digital
P.S. Для вашего удобства разделили лекцию на 2 файла.
Желаем успехов с освоением нового материала и выражаем благодарность Университету Иннополис за предоставленную площадку!
#AIIR_лекция #AIIR_образование #AI #Ethics #Digital
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥2👍1
Для прослушивания на выходных советую выпуск подкаста Мировой факультет как раз про ИИ.
Подобные беседы вносят нужный вклад в общее понимание, почему тема ИИ несет в себе куда больше международной политики, чем мы могли бы ожидать.
Чтобы в этом разобраться пора отойти от обсуждения ИИ в категориях отрицания или подтверждения хайпа. Нужен трезвый взгляд, на что может рассчитывать та или иная страна от активного участия в международном развитии ИИ.
К примеру, для многих станет удивлением, что арабские монархии становятся активными игроками в этом процессе, а Индия пытается отойти от роли бесправного поставщика данных и кадров для IT-корпораций. Есть свои преимущества и ограничения и у России.
#aipodcast
Подобные беседы вносят нужный вклад в общее понимание, почему тема ИИ несет в себе куда больше международной политики, чем мы могли бы ожидать.
Чтобы в этом разобраться пора отойти от обсуждения ИИ в категориях отрицания или подтверждения хайпа. Нужен трезвый взгляд, на что может рассчитывать та или иная страна от активного участия в международном развитии ИИ.
К примеру, для многих станет удивлением, что арабские монархии становятся активными игроками в этом процессе, а Индия пытается отойти от роли бесправного поставщика данных и кадров для IT-корпораций. Есть свои преимущества и ограничения и у России.
#aipodcast
Россия в глобальной политике
Был искусный, станет искусственный? Эволюция интеллекта || Подкаст «Мировой факультет»
Нет сейчас более широко употребительного понятия, чем «искусственный интеллект». Мечты и страхи человечества сбываются одновременно. Способен ли прогресс в ИИ кардинально изменить жизнь человека и…
🔥3🤝2❤1👍1
Forwarded from Хайтек+
Оказалось, что ИИ-помощники не решают проблемы программистов
Согласно новому исследованию компании Uplevel, ИИ-инструменты, такие как GitHub Copilot, не помогают программистам работать продуктивнее и чувствовать себя счастливее. Разработчики должны были стать одними из основных бенефициаров растущего интереса к генеративному ИИ, но этого не произошло. Специалисты все также работают в авральном режиме и сталкиваются с выгоранием. Исследование охватило около 800 разработчиков и сравнило их производительность с использованием и без использования Copilot в течение 3 месяцев.
https://hightech.plus/2024/10/04/okazalos-chto-ii-pomoshniki-ne-reshayut-problemi-programmistov
Согласно новому исследованию компании Uplevel, ИИ-инструменты, такие как GitHub Copilot, не помогают программистам работать продуктивнее и чувствовать себя счастливее. Разработчики должны были стать одними из основных бенефициаров растущего интереса к генеративному ИИ, но этого не произошло. Специалисты все также работают в авральном режиме и сталкиваются с выгоранием. Исследование охватило около 800 разработчиков и сравнило их производительность с использованием и без использования Copilot в течение 3 месяцев.
https://hightech.plus/2024/10/04/okazalos-chto-ii-pomoshniki-ne-reshayut-problemi-programmistov
😢2
Вместе с коллегами принимал участие в подготовке этого форума.
Старались, по возможности, добавить международный взгляд на развитие ИИ, поэтому в программе организованы два международных блока .
Для каждой сессии будет организована трансляция с переводом
Старались, по возможности, добавить международный взгляд на развитие ИИ, поэтому в программе организованы два международных блока .
Для каждой сессии будет организована трансляция с переводом
❤1
Forwarded from Тест Тьюринга
• Церемония присоединения новых российских и зарубежных организаций к Кодексу этики в сфере ИИ;
• Церемония награждения лауреатов Премии за вклад в развитие этики искусственного интеллекта;
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥3
ИИ-компании США призывают власти начать их регулировать
Интересные новости приходят из США. В преддверии выборов в стране представители индустрии ИИ выражают недовольство темпами работы Конгресса США в области ИИ-регулирования.
Эксперты указывают, что отсутствие правовых норм приводит к распространению дипфейков и других видов дезинформации на основе ИИ. Федеральные законы регулирующие применение ИИ так и не приняты, хотя еще год назад власти США анонсировали внедрение норм разработки и использования ИИ.
Причиной подобных задержек называется сложность поиска компромисса в подходах законодателей.
Один подход предполагает формирование единой законодательной базы для ИИ, который мог бы приблизить США к ЕС с их дотошным регулированием всего связанного с ИИ.
Второй же подход отказывается от необходимости масштабной нормативной базы, а апеллирует к разработке норм для конкретных отраслей, а также задачам по повышению ИИ-грамотности всего населения.
В итоге, ИИ-отрасль Штатов сталкивается с растущим «лоскутным одеялом» локальных законов в разных Штатах, что усложняет для ИИ-разработчиков соблюдение этих, иногда противоречащих друг другу, правил. Следствием этого могут стать различные инциденты с применением ИИ уже в президентские выборы.
Сложно предугадать, как правовая система США будет реагировать на ситуации, когда дипфейк, созданный в лояльном для генерации контента Штате, будет применен в Штате с более жестким регуляторном подходом.
#ailaws
Интересные новости приходят из США. В преддверии выборов в стране представители индустрии ИИ выражают недовольство темпами работы Конгресса США в области ИИ-регулирования.
Эксперты указывают, что отсутствие правовых норм приводит к распространению дипфейков и других видов дезинформации на основе ИИ. Федеральные законы регулирующие применение ИИ так и не приняты, хотя еще год назад власти США анонсировали внедрение норм разработки и использования ИИ.
Причиной подобных задержек называется сложность поиска компромисса в подходах законодателей.
Один подход предполагает формирование единой законодательной базы для ИИ, который мог бы приблизить США к ЕС с их дотошным регулированием всего связанного с ИИ.
Второй же подход отказывается от необходимости масштабной нормативной базы, а апеллирует к разработке норм для конкретных отраслей, а также задачам по повышению ИИ-грамотности всего населения.
В итоге, ИИ-отрасль Штатов сталкивается с растущим «лоскутным одеялом» локальных законов в разных Штатах, что усложняет для ИИ-разработчиков соблюдение этих, иногда противоречащих друг другу, правил. Следствием этого могут стать различные инциденты с применением ИИ уже в президентские выборы.
Сложно предугадать, как правовая система США будет реагировать на ситуации, когда дипфейк, созданный в лояльном для генерации контента Штате, будет применен в Штате с более жестким регуляторном подходом.
#ailaws
ИИ в повестке Саммита БРИКС
В этом году Россия является председателем в БРИКС, что позволило российской стороне формировать повестку более 150 международных мероприятий. Что примечательно для моего канала, в повестку были внесены и вопросы развития ИИ.
Результатом стало включение в Казанскую декларацию БРИКС пункта про поддержку формирования системы глобального управления ИИ при ключевой роли ООН. Также было объявлено о создании специальной исследовательской группы по ИИ, целью которой станет сотрудничество стран-участниц по формированию общего взгляда на развитие ИИ.
В ходе Саммита глав государств объединения Президент России предложил создать альянс БРИКС в области ИИ для выработки и продвижений совместных подходов к развитию и применению ИИ. Помимо этого Путин пригласил членов БРИКС и другие страны присоединиться к Кодексу Этики ИИ, который был разработан и принят в России в 2021 году.
Стоит добавить, что в 2024 году в Москве был проведен международный Форум Этики ИИ, а в ходе Академического форума БРИКС российское экспертное сообщество представило проект по созданию единого индекса оценки развития и внедрения ИИ под эгидой организации.
Тематика ИИ все больше становится полем для международного взаимодействия. Интересно, что же выиграет на этом поле: идея сотрудничество или же соревнования.
#aipolitics
В этом году Россия является председателем в БРИКС, что позволило российской стороне формировать повестку более 150 международных мероприятий. Что примечательно для моего канала, в повестку были внесены и вопросы развития ИИ.
Результатом стало включение в Казанскую декларацию БРИКС пункта про поддержку формирования системы глобального управления ИИ при ключевой роли ООН. Также было объявлено о создании специальной исследовательской группы по ИИ, целью которой станет сотрудничество стран-участниц по формированию общего взгляда на развитие ИИ.
В ходе Саммита глав государств объединения Президент России предложил создать альянс БРИКС в области ИИ для выработки и продвижений совместных подходов к развитию и применению ИИ. Помимо этого Путин пригласил членов БРИКС и другие страны присоединиться к Кодексу Этики ИИ, который был разработан и принят в России в 2021 году.
Стоит добавить, что в 2024 году в Москве был проведен международный Форум Этики ИИ, а в ходе Академического форума БРИКС российское экспертное сообщество представило проект по созданию единого индекса оценки развития и внедрения ИИ под эгидой организации.
Тематика ИИ все больше становится полем для международного взаимодействия. Интересно, что же выиграет на этом поле: идея сотрудничество или же соревнования.
#aipolitics
❤7👍2
Forwarded from Глебсмит
Интересная речь советника по нацбезу США Салливана про перспективы ИИ в Национальном университете обороны (смесь РАНХИГС с Академией Генштаба, где из штатских госслужащих куют "вашингтонских ястребов").
⬛️ ИИ НАЦИНТЕРЕСОВ
"В этом мире использование ИИ определит будущее, и наша страна должна разработать, как сказал бы генерал Эйзенхауэр, новую доктрину для гарантии, что ИИ работает на нас, наши интересы и наши ценности, а не против нас".
⬛️ Три важные вещи из пониманмя нацбеза США про ИИ:
1⃣ Скорость развития. Быстрее, чем видели в других технологиях. В логике "мы только начали что-то пытаться регулировать, а это уже устарело и надо придумывать регулирование под новые вещи".
2⃣ Неопределенность траектории роста ИИ. Наиболее непредсказуемая инновация в истории человечества. Вплоть до того, что никто по-настоящему не знает, принесет ли ИИ ту пользу и даст ли те возможности, которые обещают энтузиасты. Пессимисты тоже очень убедительны. Но властям надо быть готовыми к любому сценарию – от взлета возможностей вертикально вверх до стагнации и разочарования.
3⃣ Минимальная роль государства в инициировании разработки и внедрения. Всем занимаются частные компании. Это создает риски для системы нацбезопасности.
3️⃣ Основы лидерства. "Крупные технологические компании, которые разрабатывают и внедряют системы ИИ, будучи американскими, дали Америке лидерство". Лидерство надо "защитить и расширить" усилиями государства. Американский частник должен конкурировать с "такими компаниями КНР, как Huawei, чтобы предоставлять цифровые услуги людям по всему миру".
Задача: США должны быть "единственным технологическим партнером для стран по всему миру".
⬛️⏩ Что будут делать США?
1⃣ Регулирование: США "создали самое лучшее в мире регуляторное пространство для ИИ" и сейчас идет работа над распространением его принципов на страны-союзники. Регулирование не ограничения, а способ обеспечить надежные, безопасные, вызывающие доверие и ограничивающие враждебную конкуренцию условия для лидерства.
2⃣ Люди. Больше "виз талантов" и гринкарт. США должны "пылесосить" мир в поисках людей способных к работе в этой области и забирать их себе "везде, где это возможно".
3⃣ Оборудование. Чипы: больше для себя, меньше для других. Все "передовые чипы" либо должны быть произведены американскими компаниями, либо их распределение должно находиться под контролем США. Ограничения для других должны касаться не только чипов, но и оборудования для их производства.
4⃣ Электроэнергия. Вся инфраструктура для работы современного ИИ должна возводиться на территории США, а значит быть обеспечена американской дешевой энергией. В переводе с чиновничьего с "климатическими целями" на человеческий – больше разрешений на строительство и эксплуатацию атомных станций.
5⃣ "Комиссары" от правительства, следящие за соблюдением нацбеза в работе ИИ-компаний. "Люди из правительства должны тесно сотрудничать с разработчиками ИИ из частного сектора, чтобы обеспечить им своевременные услуги по кибербезопасности и контрразведке для сохранения их технологий".
⬛️ Главный конкурент и оппонент – Китай. Который ИИ будет использовать непременно в "плохих целях": цензура, фейки, влияние на выборы в других странах, подрыв демократии и так далее по списку. Этому надо "противостоять", заставив человечество использовать только американский ИИ. Но победа – не предопределена. Поэтому работа здесь – ключевая для будущих администраций США.
✔️Речь выглядит как заявка внятной стратегии в данном направлении. Которая – если убрать шелуху про демократию – сводится к защите лидерства через контроль и недопущение любого развития у любых конкурентов.
Все что человечество может предложить или сделать в сфере ИИ должно быть не просто подконтрольно США, а производится и контролироваться на их физической территории. С Китаем или нами понятно – мы оппоненты, но мысль о том, что даже собственные союзники вроде Европы или Японии с Тайванем не имеют права голоса и должны полностью подчинить свои интересы американским частным компаниям хорошо показывает настоящий расклад сил на Западе.
⬛️ ИИ НАЦИНТЕРЕСОВ
"В этом мире использование ИИ определит будущее, и наша страна должна разработать, как сказал бы генерал Эйзенхауэр, новую доктрину для гарантии, что ИИ работает на нас, наши интересы и наши ценности, а не против нас".
⬛️ Три важные вещи из пониманмя нацбеза США про ИИ:
1⃣ Скорость развития. Быстрее, чем видели в других технологиях. В логике "мы только начали что-то пытаться регулировать, а это уже устарело и надо придумывать регулирование под новые вещи".
2⃣ Неопределенность траектории роста ИИ. Наиболее непредсказуемая инновация в истории человечества. Вплоть до того, что никто по-настоящему не знает, принесет ли ИИ ту пользу и даст ли те возможности, которые обещают энтузиасты. Пессимисты тоже очень убедительны. Но властям надо быть готовыми к любому сценарию – от взлета возможностей вертикально вверх до стагнации и разочарования.
3⃣ Минимальная роль государства в инициировании разработки и внедрения. Всем занимаются частные компании. Это создает риски для системы нацбезопасности.
3️⃣ Основы лидерства. "Крупные технологические компании, которые разрабатывают и внедряют системы ИИ, будучи американскими, дали Америке лидерство". Лидерство надо "защитить и расширить" усилиями государства. Американский частник должен конкурировать с "такими компаниями КНР, как Huawei, чтобы предоставлять цифровые услуги людям по всему миру".
Задача: США должны быть "единственным технологическим партнером для стран по всему миру".
⬛️⏩ Что будут делать США?
1⃣ Регулирование: США "создали самое лучшее в мире регуляторное пространство для ИИ" и сейчас идет работа над распространением его принципов на страны-союзники. Регулирование не ограничения, а способ обеспечить надежные, безопасные, вызывающие доверие и ограничивающие враждебную конкуренцию условия для лидерства.
2⃣ Люди. Больше "виз талантов" и гринкарт. США должны "пылесосить" мир в поисках людей способных к работе в этой области и забирать их себе "везде, где это возможно".
3⃣ Оборудование. Чипы: больше для себя, меньше для других. Все "передовые чипы" либо должны быть произведены американскими компаниями, либо их распределение должно находиться под контролем США. Ограничения для других должны касаться не только чипов, но и оборудования для их производства.
4⃣ Электроэнергия. Вся инфраструктура для работы современного ИИ должна возводиться на территории США, а значит быть обеспечена американской дешевой энергией. В переводе с чиновничьего с "климатическими целями" на человеческий – больше разрешений на строительство и эксплуатацию атомных станций.
5⃣ "Комиссары" от правительства, следящие за соблюдением нацбеза в работе ИИ-компаний. "Люди из правительства должны тесно сотрудничать с разработчиками ИИ из частного сектора, чтобы обеспечить им своевременные услуги по кибербезопасности и контрразведке для сохранения их технологий".
⬛️ Главный конкурент и оппонент – Китай. Который ИИ будет использовать непременно в "плохих целях": цензура, фейки, влияние на выборы в других странах, подрыв демократии и так далее по списку. Этому надо "противостоять", заставив человечество использовать только американский ИИ. Но победа – не предопределена. Поэтому работа здесь – ключевая для будущих администраций США.
✔️Речь выглядит как заявка внятной стратегии в данном направлении. Которая – если убрать шелуху про демократию – сводится к защите лидерства через контроль и недопущение любого развития у любых конкурентов.
Все что человечество может предложить или сделать в сфере ИИ должно быть не просто подконтрольно США, а производится и контролироваться на их физической территории. С Китаем или нами понятно – мы оппоненты, но мысль о том, что даже собственные союзники вроде Европы или Японии с Тайванем не имеют права голоса и должны полностью подчинить свои интересы американским частным компаниям хорошо показывает настоящий расклад сил на Западе.
❤3
Forwarded from HCAI // Регулирование ИИ
7 ноября состоялась пленарная сессия международного дискуссионного клуба «Валдай», где участники обсудили перспективы развития технологий искусственного интеллекта в России.
Спикеры затронули вопросы замены человека ИИ и пришли к выводу, что ИИ скорее ускоряет научный прогресс, а не вытесняет человека, и усиливает потребность в высококвалифицированных специалистах.
«Решение проблем в сфере экономики в будущем лежит на пути развития современных технологий, из которых использование ИИ – одно из главнейших, важнейших направлений».
«Платформы развития ИИ формируются за рубежом, а они формируют определенное мировоззрение. Мы должны понимать это и развивать свой суверенный ИИ. Конечно, нужно пользоваться всем, что есть, но и развивать свои направления. «Сбер» и «Яндекс» активно над этим работают».
Please open Telegram to view this post
VIEW IN TELEGRAM
❤4🤬2
ИИ-компании на страже безопасности выборов в США
Ранее неоднократно писал (к примеру, тут и тут), что одним из двигателей регулирования ИИ в США были опасения, что технология будет использоваться в избирательной кампании.
Выборы прошли и вот первые результаты: согласно данным OpenAI, ChatGPT отклонил более 250 000 запросов на создание политических изображений в течение месяца, предшествовавшего Дню выборов. В целом, эксперты сходятся во мнении, что ни одного значимого случая политического использования генерированного контента во время выборов не было зафиксировано.
При этом еще в августе компания сообщала "о срыве операции Ирана по оказанию влияния на внутреннюю политику США". Как заявлялось, иранская сеть Storm-2035 использовала чат-бота компании для создания контента, в том числе «комментариев о кандидатах от обеих сторон на президентских выборах в США».
Заявлялось, что ChatGPT использовался для создания статей, которые публиковались на пяти сайтах, выдававших себя за прогрессивные или консервативные новостные издания, а также для написания коротких комментариев в социальных сетях на английском и испанском языках.
Тогда же компания заявила, что продолжит следить за ChatGPT, чтобы гарантировать точность и этичность ответов. Для этого периодически публикуются отчеты о том, как компания пресекает использование своих сервисов. К примеру, один из отчетов был посвящен теме использования её сервисов пятью прогосударственными хакерскими группировками (утверждается, что они были связаны с Китаем, КНДР, Ираном и Россией)
Ранее неоднократно писал (к примеру, тут и тут), что одним из двигателей регулирования ИИ в США были опасения, что технология будет использоваться в избирательной кампании.
Выборы прошли и вот первые результаты: согласно данным OpenAI, ChatGPT отклонил более 250 000 запросов на создание политических изображений в течение месяца, предшествовавшего Дню выборов. В целом, эксперты сходятся во мнении, что ни одного значимого случая политического использования генерированного контента во время выборов не было зафиксировано.
При этом еще в августе компания сообщала "о срыве операции Ирана по оказанию влияния на внутреннюю политику США". Как заявлялось, иранская сеть Storm-2035 использовала чат-бота компании для создания контента, в том числе «комментариев о кандидатах от обеих сторон на президентских выборах в США».
Заявлялось, что ChatGPT использовался для создания статей, которые публиковались на пяти сайтах, выдававших себя за прогрессивные или консервативные новостные издания, а также для написания коротких комментариев в социальных сетях на английском и испанском языках.
Тогда же компания заявила, что продолжит следить за ChatGPT, чтобы гарантировать точность и этичность ответов. Для этого периодически публикуются отчеты о том, как компания пресекает использование своих сервисов. К примеру, один из отчетов был посвящен теме использования её сервисов пятью прогосударственными хакерскими группировками (утверждается, что они были связаны с Китаем, КНДР, Ираном и Россией)
❤4
Forwarded from Кибервойна
Как минимум один значимый пример использования ИИ в американских выборах был — не в плане влияния на результат, а по последствиям. В сентябре в США оштрафовали на 6 млн долларов политконсультанта Стивена Крамера. Крамер, работая на конкурента Байдена на демократических праймериз Дина Филлипса, организовал автоматический обзвон избирателей, которых сгенерированным голосом Байдена убеждали не голосовать на праймериз в Нью-Гемпшире. На 1 млн был оштрафован оператор Lingo Telecom, осуществлявший обзвон.
Но вообще наличие или отсутствие заметных инцидентов не так важно, как общая тенденция. В выборах в США в частности, но и в интернете вообще количество сгенерированного контента растёт колоссальными темпами, стоимость создания правдоподобных подделок прежде всего голоса, но также и изображений и видео снизилась. Всё это в совокупности повышает недоверие к информации — на эту тему есть свежее исследование Institute for Strategic Dialogue.
Но вообще наличие или отсутствие заметных инцидентов не так важно, как общая тенденция. В выборах в США в частности, но и в интернете вообще количество сгенерированного контента растёт колоссальными темпами, стоимость создания правдоподобных подделок прежде всего голоса, но также и изображений и видео снизилась. Всё это в совокупности повышает недоверие к информации — на эту тему есть свежее исследование Institute for Strategic Dialogue.
❤1
Forwarded from PlugoNews
This media is not supported in your browser
VIEW IN TELEGRAM
🎶 ИИ к нам приходит
Немного праздника в понедельник:
Coca-Cola представила новую версию новогодней рекламы колы с узнаваемыми красными грузовиками. Всё согласно с последними техно-трендами — с использованием генеративного ИИ.
Задумался о таком использовании ИИ... Не могу ответить на вопрос: дает ли оно ощущение приближающего праздника?
(до Нового года — 44 дня, кстати)
Немного праздника в понедельник:
Coca-Cola представила новую версию новогодней рекламы колы с узнаваемыми красными грузовиками. Всё согласно с последними техно-трендами — с использованием генеративного ИИ.
Задумался о таком использовании ИИ... Не могу ответить на вопрос: дает ли оно ощущение приближающего праздника?
(до Нового года — 44 дня, кстати)
❤3
Безопасность ИИ попала в сеть
20 ноября прошло первое собрание Международной сети институтов безопасности ИИ из 9 стран (США, Великобритании, Австралии, Канады, Франции, Японии, Кении, Южной Кореи и Сингапура), а также Европейской комиссии.
На мероприятии собрались технические эксперты из правительств, промышленности, академических кругов и гражданского общества, чтобы обсудить, как управлять рисками, создаваемыми все более мощными системами искусственного интеллекта.
Встреча знаменует собой значительный шаг вперед в международном сотрудничестве по управлению ИИ. Отправной точкой для этого стало проведение в ноябре прошлого года первого саммита по безопасности ИИ, организованного Великобританией. Тогда была подписана Декларация Блетчли, согласно которой 28 стран взяли на себя обязательства совместно работать над формированием международной системы безопасного развития ИИ. Как раз в рамках форума Англия и США объявили о создании своих институтов безопасности ИИ (AISI), для того чтобы стать первопроходцами этого процесса. Другие же страны обязались создавать собственные институты.
Уже в мае этого года в Сеуле прошел второй форум безопасного ИИ, где США объявили о создании сети Международной сети институтов безопасности искусственного интеллекта, первая встреча которой прошла сейчас в Сан-Франциско.
В совместном заявлении члены Международной сети институтов безопасности ИИ изложили свою миссию: «быть форумом, объединяющим технические знания со всего мира», «способствовать общему техническому пониманию рисков безопасности ИИ и мер по их снижению на основе работы наших институтов и более широкого научного сообщества» и «способствовать общему пониманию и подходу к безопасности ИИ во всем мире, что позволит разделить преимущества инноваций в области ИИ между странами на всех этапах развития».
Примечательно, что подобная инициатива появилась на фоне растущей напряженности по вопросам ИИ между США и Китаем, чье отсутствие в сети примечательно. Сенатор США Чак Шумер так объяснил задачу новой сети: необходимо, чтобы Китай не мог «писать правила дорожного движения для ИИ».
Ключевая роль США в создании этой сети лишний раз подтверждает, что вопросы безопасного развития ИИ уже давно не только про безопасность, но и про политическое лидерство.
#aipolitics #aisafety
20 ноября прошло первое собрание Международной сети институтов безопасности ИИ из 9 стран (США, Великобритании, Австралии, Канады, Франции, Японии, Кении, Южной Кореи и Сингапура), а также Европейской комиссии.
На мероприятии собрались технические эксперты из правительств, промышленности, академических кругов и гражданского общества, чтобы обсудить, как управлять рисками, создаваемыми все более мощными системами искусственного интеллекта.
Встреча знаменует собой значительный шаг вперед в международном сотрудничестве по управлению ИИ. Отправной точкой для этого стало проведение в ноябре прошлого года первого саммита по безопасности ИИ, организованного Великобританией. Тогда была подписана Декларация Блетчли, согласно которой 28 стран взяли на себя обязательства совместно работать над формированием международной системы безопасного развития ИИ. Как раз в рамках форума Англия и США объявили о создании своих институтов безопасности ИИ (AISI), для того чтобы стать первопроходцами этого процесса. Другие же страны обязались создавать собственные институты.
Уже в мае этого года в Сеуле прошел второй форум безопасного ИИ, где США объявили о создании сети Международной сети институтов безопасности искусственного интеллекта, первая встреча которой прошла сейчас в Сан-Франциско.
В совместном заявлении члены Международной сети институтов безопасности ИИ изложили свою миссию: «быть форумом, объединяющим технические знания со всего мира», «способствовать общему техническому пониманию рисков безопасности ИИ и мер по их снижению на основе работы наших институтов и более широкого научного сообщества» и «способствовать общему пониманию и подходу к безопасности ИИ во всем мире, что позволит разделить преимущества инноваций в области ИИ между странами на всех этапах развития».
Примечательно, что подобная инициатива появилась на фоне растущей напряженности по вопросам ИИ между США и Китаем, чье отсутствие в сети примечательно. Сенатор США Чак Шумер так объяснил задачу новой сети: необходимо, чтобы Китай не мог «писать правила дорожного движения для ИИ».
Ключевая роль США в создании этой сети лишний раз подтверждает, что вопросы безопасного развития ИИ уже давно не только про безопасность, но и про политическое лидерство.
#aipolitics #aisafety
👍3
Forwarded from РСМД
🇮🇳🤖 БДП заявляет о намерениях превратить Индию в глобального лидера ИИ за счет «развития внутреннего потенциала разработок для обеспечения технологического суверенитета».Основным конкурентным преимуществом страны являются кадры: более 420 тыс. человек работают в области ИИ (второе место в мире), причем Индия входит в пятерку стран с кратным ростом числа профессионалов в этой сфере. Насколько эта цель актуальна для государства, где 45,7% населения работают в первичном секторе, а 129 млн человек живут в условиях крайней бедности?
Иван Щедров и Екатерина Косарева анализируют, насколько амбиции руководства страны соотносятся с реальной ситуацией в технологическом, правовом и научном развитии Индии.
Проблемы, связанные с развитием ИИ-технологий в Индии, можно условно разделить на два блока проблем:
1. Масштабирование национальных программ. Сегодня основными драйверами технологического развития выступают американские корпорации. Роль местных игроков сравнительно невелика. Кроме того, Индия довольно сильно отстает по показателям патентования и публикационной активности. Наконец, уровень развития научно-технологической инфраструктуры в Индии пока не соответствует амбициям политических элит. Необходимость комплексного развития сферы ставит на повестку дня вопрос увеличения финансирования, а также потребность оперативной выработки регуляторных норм.
2. Последствия распространения технологий ИИ в Индии и «оторванность» технологического развития от нужд экономики. Технологический прорыв, на который делает ставку правительство, влечет за собой изменение производственных отношений. Вполне вероятно, что массовая автоматизация приведет к росту безработицы и социальному расслоению. Особенно уязвимыми станут городские жители с низкой и средней квалификацией (электоральная база БДП), а также работники сельскохозяйственного сектора (более 40% трудоспособного населения). Потенциально большие трансформации ждут ИТ-сектор Индии — «армия» младших разработчиков может остаться без работы за счет процесса автоматизации написания кода. В условиях нагрузки на систему образования создать масштабную систему переквалификации будет крайне проблематично.
https://russiancouncil.ru/analytics-and-comments/analytics/zachem-indii-ii/
Иван Щедров и Екатерина Косарева анализируют, насколько амбиции руководства страны соотносятся с реальной ситуацией в технологическом, правовом и научном развитии Индии.
Проблемы, связанные с развитием ИИ-технологий в Индии, можно условно разделить на два блока проблем:
1. Масштабирование национальных программ. Сегодня основными драйверами технологического развития выступают американские корпорации. Роль местных игроков сравнительно невелика. Кроме того, Индия довольно сильно отстает по показателям патентования и публикационной активности. Наконец, уровень развития научно-технологической инфраструктуры в Индии пока не соответствует амбициям политических элит. Необходимость комплексного развития сферы ставит на повестку дня вопрос увеличения финансирования, а также потребность оперативной выработки регуляторных норм.
2. Последствия распространения технологий ИИ в Индии и «оторванность» технологического развития от нужд экономики. Технологический прорыв, на который делает ставку правительство, влечет за собой изменение производственных отношений. Вполне вероятно, что массовая автоматизация приведет к росту безработицы и социальному расслоению. Особенно уязвимыми станут городские жители с низкой и средней квалификацией (электоральная база БДП), а также работники сельскохозяйственного сектора (более 40% трудоспособного населения). Потенциально большие трансформации ждут ИТ-сектор Индии — «армия» младших разработчиков может остаться без работы за счет процесса автоматизации написания кода. В условиях нагрузки на систему образования создать масштабную систему переквалификации будет крайне проблематично.
https://russiancouncil.ru/analytics-and-comments/analytics/zachem-indii-ii/
РСМД
Зачем Индии ИИ?
Правительство Индии делает ставку на развитие новых технологий, обсуждая перспективы создания «суверенного ИИ», который подразумевает высокий уровень локализации данных и развитие возможностей их обработки и хранения. За счет внедрения ИИ правительство намерено…
❤2