Место для развития ИИ в бюджете США
Исполнительный офис Президента США издал документ, в котором определены основные приоритетные направления финансирования научных исследований на 2025 год. Интересно, что именно технологии в сфере ИИ заняли первое место по важности, опережая внешнюю политику, климат, безопасность, здоровье нации и т.п.
В документе отмечается, что ИИ является одной из самых влиятельных технологий современности. Поэтому связанные с развитием и применением ИИ решения будут иметь значительные последствия для гражданских прав и свобод, безопасности, рабочих мест и экономики, а также демократических ценностей.
Федеральное правительство играет большую роль в развитии ИИ-индустрии, а также в решении имеющихся проблем. Такие масштабные задачи не могут быть выполнены самостоятельно – без участия государства. В связи с этим по инициативе государственных агентств следует финансировать НИОКР, направленные на поддержку и достижение следующих целей:
– создание инструментов, методов, а также вовлечение общества в формирование регулирования и правоприменения для снижения угроз от ИИ в отношении таких ценностей, как: истина, доверие, демократия, безопасность, неприкосновенность частной жизни, гражданские права и свободы, а также равные экономические возможности для всех;
– разработка, апробация и оценка результатов новых подходов к применению ИИ для совершенствования государственных функций и услуг;
– разработка надежных, мощных и продвинутых систем ИИ, способствующих достижению национальных целей.
Исполнительный офис Президента США издал документ, в котором определены основные приоритетные направления финансирования научных исследований на 2025 год. Интересно, что именно технологии в сфере ИИ заняли первое место по важности, опережая внешнюю политику, климат, безопасность, здоровье нации и т.п.
В документе отмечается, что ИИ является одной из самых влиятельных технологий современности. Поэтому связанные с развитием и применением ИИ решения будут иметь значительные последствия для гражданских прав и свобод, безопасности, рабочих мест и экономики, а также демократических ценностей.
Федеральное правительство играет большую роль в развитии ИИ-индустрии, а также в решении имеющихся проблем. Такие масштабные задачи не могут быть выполнены самостоятельно – без участия государства. В связи с этим по инициативе государственных агентств следует финансировать НИОКР, направленные на поддержку и достижение следующих целей:
– создание инструментов, методов, а также вовлечение общества в формирование регулирования и правоприменения для снижения угроз от ИИ в отношении таких ценностей, как: истина, доверие, демократия, безопасность, неприкосновенность частной жизни, гражданские права и свободы, а также равные экономические возможности для всех;
– разработка, апробация и оценка результатов новых подходов к применению ИИ для совершенствования государственных функций и услуг;
– разработка надежных, мощных и продвинутых систем ИИ, способствующих достижению национальных целей.
🔥6
Европейских законодателей просят защитить права человека
Правозащитные организации ЕС (151 подписант) обратились к союзным органам с просьбой обратить дополнительное внимание на обеспечение права человека в ходе согласования финального текста в рамках трилога. Организации отдельно указали на необходимость постановки в центр нормативного регулирования именно интересов человека, а не бизнеса.
Предложения по смыслу можно объединить в три группы:
Во-первых, защитить лица, которые потенциально могут пострадать от применения систем ИИ. Для этого предлагается, например, привлекать представителей гражданского общества к оценке влияния систем ИИ на основные права человека, предусмотреть возможность для пострадавших возможность обжалования решений, принятых системами ИИ, в том числе и через правозащитников, установить гибкие компенсации для пострадавших.
Во-вторых, установить ограничения по использованию систем ИИ в правопримении в особо чувствительных областях (правоохранительная деятельность, миграционный контроль, национальная безопасность). Например, предлагается распространить действие проекта Регламента ЕС об ИИ на сферу национальной безопасности, запретить любые формы рейтингования и биометрическую идентификацию в публичных местах.
В-третьих, убрать все оценочные и размытые формулировки из проекта Регламента ЕС об ИИ, которые бы могли быть результатом лоббирования со стороны технологических компаний.
Например, предлагается убрать из текста проекта Регламента новую оговорку, которая позволяет признавать ряд систем ИИ выскокорисковыми только в случае, если их использование создает значительную угрозу нарушения прав человека. Таким образом, правозащитники предлагают фактически вернуться к прошлой редакции классификации систем ИИ по уровням риска.
Также указывается на необходимость более равномерного распределения обязанностей между всеми субъектами, участвующими в выводе систем ИИ на рынок. Так, мелкие конечные поставщики не должны нести больше обязанностей относительно разработчиков базовых моделей.
Несмотря на то, что большая часть текста проекта Регламента уже так или иначе согласована между органами ЕС по ряду вопросов все еще продолжаются дискуссии. С одной стороны, большие технологические компании пытаются лоббировать уменьшение регуляторного бремени, а с другой - европейские общественники и авторы контента просят союзные органы защитить их права.
Таким образом, законодателям приходятся выполнять крайне сложную работу и балансировать между будущим развитием европейских компаний, угрозой выпадения из глобального рынка и правами человека.
Правозащитные организации ЕС (151 подписант) обратились к союзным органам с просьбой обратить дополнительное внимание на обеспечение права человека в ходе согласования финального текста в рамках трилога. Организации отдельно указали на необходимость постановки в центр нормативного регулирования именно интересов человека, а не бизнеса.
Предложения по смыслу можно объединить в три группы:
Во-первых, защитить лица, которые потенциально могут пострадать от применения систем ИИ. Для этого предлагается, например, привлекать представителей гражданского общества к оценке влияния систем ИИ на основные права человека, предусмотреть возможность для пострадавших возможность обжалования решений, принятых системами ИИ, в том числе и через правозащитников, установить гибкие компенсации для пострадавших.
Во-вторых, установить ограничения по использованию систем ИИ в правопримении в особо чувствительных областях (правоохранительная деятельность, миграционный контроль, национальная безопасность). Например, предлагается распространить действие проекта Регламента ЕС об ИИ на сферу национальной безопасности, запретить любые формы рейтингования и биометрическую идентификацию в публичных местах.
В-третьих, убрать все оценочные и размытые формулировки из проекта Регламента ЕС об ИИ, которые бы могли быть результатом лоббирования со стороны технологических компаний.
Например, предлагается убрать из текста проекта Регламента новую оговорку, которая позволяет признавать ряд систем ИИ выскокорисковыми только в случае, если их использование создает значительную угрозу нарушения прав человека. Таким образом, правозащитники предлагают фактически вернуться к прошлой редакции классификации систем ИИ по уровням риска.
Также указывается на необходимость более равномерного распределения обязанностей между всеми субъектами, участвующими в выводе систем ИИ на рынок. Так, мелкие конечные поставщики не должны нести больше обязанностей относительно разработчиков базовых моделей.
Несмотря на то, что большая часть текста проекта Регламента уже так или иначе согласована между органами ЕС по ряду вопросов все еще продолжаются дискуссии. С одной стороны, большие технологические компании пытаются лоббировать уменьшение регуляторного бремени, а с другой - европейские общественники и авторы контента просят союзные органы защитить их права.
Таким образом, законодателям приходятся выполнять крайне сложную работу и балансировать между будущим развитием европейских компаний, угрозой выпадения из глобального рынка и правами человека.
European Digital Rights (EDRi)
AI Act trilogue negotiations start - European Digital Rights (EDRi)
As EU institutions start meetings on the A) Act, a broad civil society coalition is urging them to prioritise people and fundamental rights.
🔥5👍2👎1
Что если робот-уборщик причинил легкий вред здоровью
Сегодня хотим поделиться оригинальной статьей, в которой на трех юз кейсах разбирается процесс установления субъекта гражданско-правовой ответственности за вред, причиненный системой ИИ.
Речь пойдет про кейс с беспилотным роботом-уборщиком (это те маленькие машины на тротуарах крупных городов, которые то водой нас обливают, то ботинки пылесосят – только в них есть водитель). Так вот, представьте, что рядом с рекламным баннером мать оставляет коляску с ребенком и при этом цветовая палитра коляски схожа с той, которая изображена на стенде. И пока мама разговаривает по телефону, робот-уборщик задевает коляску и тем самым ребенку причиняется легкий вред здоровью. В статье авторы предлагают свою методологию установления субъекта гражданско-правовой ответственности:
Вероятные причины
– дефект в компоненте системы зрения, который привел к сбою в обнаружении коляски, поскольку ее цветовая палитра была схожа с рисунком, изображенном на баннере. Это привело к ложноотрицательному результату, т.е. коляска была определена как часть фона баннера;
– стороннее вмешательство (кибератака);
– ошибка, связанная с обновлением системы зрения, направленным на уменьшение количества ложных реакций робота. То есть увеличение порога, определяющего является ли препятствие истинным или нет. В нашем случае потенциальное препятствие в виде коляски обнаружено не было;
– поставщик системы зрения своевременно не разработал обновление для ПО в целях устранения известного дефекта или уязвимости системы ИИ;
– оператор системы ИИ своевременно не обновил ПО, которое было предоставлено поставщиком для устранения дефекта или уязвимости системы;
– удаленный оператор-человек надлежащим образом не контролировал функционирование робота.
Потенциальные ответчики
– производитель робота;
– поставщик отдельных компонентов системы ИИ, интегрированных в робота (например, систем навигации, зрения, планирования пути);
– муниципалитет или компания, эксплуатирующая роботов-уборщиков на улицах города;
– злоумышленники, которые вмешались в работу системы, используя уязвимости в ее компонентах (например, недоброжелательное машинное обучение).
Порядок присуждения компенсации
При таком инциденте для возмещения причиненного вреда потерпевшей стороне необходимо будет доказать в судебном порядке наличие вины ответчика или факт неисправности продукта.
Для этого истцу необходимо привлекать экспертов. Например, можно определить, что результат работы системы зрения в момент столкновения был неверным, поскольку коляска отсутствует в списке обнаруженных объектов (если такой список есть). Таким способом эксперт может доказать, что коляска была обнаружена неправильно (без указания причины). Эксперт также может исключить возможность того, что датчики были заблокированы или подделаны, поскольку исходные данные выглядят корректными (исходные данные должны быть интерпретируемыми). Далее эксперт может предположить наличие корреляции между таким отказом в обнаружении и принятием решения роботом двигаться вперед до столкновения с коляской.
Следует отметить, что в любом случае для проведения оценки инцидента и восстановления фактов, побудивших робота сбить коляску, истцу потребуется доступ к логам робота и технической информации о функционировании системы ИИ. Зачастую такая информация не раскрывается, из-за чего достаточно сложным может оказаться процесс доказывания наличия вины ответчика или неисправности продукта.
Эту проблему, например, в ЕС планируют разрешить через предоставление права истцу получать через суд информацию у ответчика, которая касается функционирования системы ИИ. При этом истцу потребуется привести суду убедительные аргументы, подтверждающие правдоподобность того, что именно система ИИ привела к причинению вреда. Право на раскрытие информации для случаев, в которых требуется доказать наличие вины ответчика, возникает в силу AI Liability Directive, а для доказывания наличия неисправности продукта в соответствии с Product Liability Directive (оба документа находятся на рассмотрении).
Сегодня хотим поделиться оригинальной статьей, в которой на трех юз кейсах разбирается процесс установления субъекта гражданско-правовой ответственности за вред, причиненный системой ИИ.
Речь пойдет про кейс с беспилотным роботом-уборщиком (это те маленькие машины на тротуарах крупных городов, которые то водой нас обливают, то ботинки пылесосят – только в них есть водитель). Так вот, представьте, что рядом с рекламным баннером мать оставляет коляску с ребенком и при этом цветовая палитра коляски схожа с той, которая изображена на стенде. И пока мама разговаривает по телефону, робот-уборщик задевает коляску и тем самым ребенку причиняется легкий вред здоровью. В статье авторы предлагают свою методологию установления субъекта гражданско-правовой ответственности:
Вероятные причины
– дефект в компоненте системы зрения, который привел к сбою в обнаружении коляски, поскольку ее цветовая палитра была схожа с рисунком, изображенном на баннере. Это привело к ложноотрицательному результату, т.е. коляска была определена как часть фона баннера;
– стороннее вмешательство (кибератака);
– ошибка, связанная с обновлением системы зрения, направленным на уменьшение количества ложных реакций робота. То есть увеличение порога, определяющего является ли препятствие истинным или нет. В нашем случае потенциальное препятствие в виде коляски обнаружено не было;
– поставщик системы зрения своевременно не разработал обновление для ПО в целях устранения известного дефекта или уязвимости системы ИИ;
– оператор системы ИИ своевременно не обновил ПО, которое было предоставлено поставщиком для устранения дефекта или уязвимости системы;
– удаленный оператор-человек надлежащим образом не контролировал функционирование робота.
Потенциальные ответчики
– производитель робота;
– поставщик отдельных компонентов системы ИИ, интегрированных в робота (например, систем навигации, зрения, планирования пути);
– муниципалитет или компания, эксплуатирующая роботов-уборщиков на улицах города;
– злоумышленники, которые вмешались в работу системы, используя уязвимости в ее компонентах (например, недоброжелательное машинное обучение).
Порядок присуждения компенсации
При таком инциденте для возмещения причиненного вреда потерпевшей стороне необходимо будет доказать в судебном порядке наличие вины ответчика или факт неисправности продукта.
Для этого истцу необходимо привлекать экспертов. Например, можно определить, что результат работы системы зрения в момент столкновения был неверным, поскольку коляска отсутствует в списке обнаруженных объектов (если такой список есть). Таким способом эксперт может доказать, что коляска была обнаружена неправильно (без указания причины). Эксперт также может исключить возможность того, что датчики были заблокированы или подделаны, поскольку исходные данные выглядят корректными (исходные данные должны быть интерпретируемыми). Далее эксперт может предположить наличие корреляции между таким отказом в обнаружении и принятием решения роботом двигаться вперед до столкновения с коляской.
Следует отметить, что в любом случае для проведения оценки инцидента и восстановления фактов, побудивших робота сбить коляску, истцу потребуется доступ к логам робота и технической информации о функционировании системы ИИ. Зачастую такая информация не раскрывается, из-за чего достаточно сложным может оказаться процесс доказывания наличия вины ответчика или неисправности продукта.
Эту проблему, например, в ЕС планируют разрешить через предоставление права истцу получать через суд информацию у ответчика, которая касается функционирования системы ИИ. При этом истцу потребуется привести суду убедительные аргументы, подтверждающие правдоподобность того, что именно система ИИ привела к причинению вреда. Право на раскрытие информации для случаев, в которых требуется доказать наличие вины ответчика, возникает в силу AI Liability Directive, а для доказывания наличия неисправности продукта в соответствии с Product Liability Directive (оба документа находятся на рассмотрении).
🔥6
ИИ-концепции стран Европы
Наиболее часто, когда разговор про регулирование применения систем ИИ заходит про Европу, то речь идет о проекте Регламента ЕС об ИИ. Мы о нем тоже многократно писали.
Вместе с тем существуют и другие акты, в том числе и на уровне отдельных стран. В связи с этим обращаем ваше внимание на статью, в которой авторы анализируют законодательство и документы концептуального характера в 25 странах Европы и Великобритании, посвященные применению систем ИИ в деятельности органов публичной власти (перечень актов по странам приложен к посту).
Также авторы исследования выделили наиболее популярные вопросы, которые нашли отражение в рассматриваемых документах (также приложена табличка со всеми тематиками).
В качестве лидеров выделяются следующие темы:
Совершенствование доступа к данным и управления ими (16.9%).
Этические принципы в сфере разработки систем ИИ (12%).
Содействие развитию партнерских отношений с частным сектором (11.5%).
Наиболее часто, когда разговор про регулирование применения систем ИИ заходит про Европу, то речь идет о проекте Регламента ЕС об ИИ. Мы о нем тоже многократно писали.
Вместе с тем существуют и другие акты, в том числе и на уровне отдельных стран. В связи с этим обращаем ваше внимание на статью, в которой авторы анализируют законодательство и документы концептуального характера в 25 странах Европы и Великобритании, посвященные применению систем ИИ в деятельности органов публичной власти (перечень актов по странам приложен к посту).
Также авторы исследования выделили наиболее популярные вопросы, которые нашли отражение в рассматриваемых документах (также приложена табличка со всеми тематиками).
В качестве лидеров выделяются следующие темы:
Совершенствование доступа к данным и управления ими (16.9%).
Этические принципы в сфере разработки систем ИИ (12%).
Содействие развитию партнерских отношений с частным сектором (11.5%).
👍4🔥1
Акт о цифровых услугах ЕС и противодействие дезинформации
Сегодня расскажем про то, как в Европейском союзе планируют бороться с дезинформацией на онлайн-платформах и в поисковых системах типа TikTok, Wikipedia, YouTube, Google Search. Релевантным в этой связи является разбор отдельных положений Акта о цифровых услугах (Digital Services Act). Мы про него уже писали, но в другом аспекте.
Этот Акт содержит императивные требования, в частности, в отношении компаний, являющихся особо крупными онлайн-платформами или поисковыми системами. Такие компании обязаны проводить оценку т.н. системных рисков, к которым относятся: распространение нелегального контента; воспрепятствование реализации фундаментальных прав человека (право на частную жизнь, свобода слова и др.); негативное влияние на общественные дискуссии, избирательный процесс и общественную безопасность; негативные последствия для физического и психического благополучия человека.
Если оценивать Акт формально-юридически, то дезинформация относится не к системным рискам, а к социальным. Вместе с тем есть исcледователи, которые из положений Акта (recital 9; article 34) делают однозначный вывод о том, что дезинформация также относится к системным рискам. Представляется, что вне зависимости от этого предусмотренные Актом обязательные меры, направленные на сокращение системных рисков, могут положительно повлиять на объем неправдивой информации в сети. К таким мерам относятся:
– корректировка (адаптация) пользовательских соглашений и их соблюдения;
– корректировка модерации контента, включая скорость и качество обработки уведомлений, связанных с конкретным нелегальным контентом, и, при необходимости, оперативное удаление или отключение доступа к такому контенту;
– развитие внутренних процессов, ресурсов, тестирования, документирования или надзора за своей деятельностью, в частности, в отношении выявления системного риска;
– обеспечение того, чтобы контент, представляющий собой сгенерированное изображение, аудио- или видеоматериал, значительно напоминающий существующих людей, предметы, места или другие сущности или явления и ложно представляющийся человеку подлинным, был различим с помощью заметной маркировки при их размещении в онлайне.
Кроме того, поставщики услуг обязаны предусмотреть на своих сервисах легкодоступные механизмы, позволяющие любым лицам отмечать контент, который, по их мнению, является нелегальным. При этом поставщики в последующем должны рассматривать такие уведомления от пользователей и проверять на легальность соответствующий контент.
Сегодня расскажем про то, как в Европейском союзе планируют бороться с дезинформацией на онлайн-платформах и в поисковых системах типа TikTok, Wikipedia, YouTube, Google Search. Релевантным в этой связи является разбор отдельных положений Акта о цифровых услугах (Digital Services Act). Мы про него уже писали, но в другом аспекте.
Этот Акт содержит императивные требования, в частности, в отношении компаний, являющихся особо крупными онлайн-платформами или поисковыми системами. Такие компании обязаны проводить оценку т.н. системных рисков, к которым относятся: распространение нелегального контента; воспрепятствование реализации фундаментальных прав человека (право на частную жизнь, свобода слова и др.); негативное влияние на общественные дискуссии, избирательный процесс и общественную безопасность; негативные последствия для физического и психического благополучия человека.
Если оценивать Акт формально-юридически, то дезинформация относится не к системным рискам, а к социальным. Вместе с тем есть исcледователи, которые из положений Акта (recital 9; article 34) делают однозначный вывод о том, что дезинформация также относится к системным рискам. Представляется, что вне зависимости от этого предусмотренные Актом обязательные меры, направленные на сокращение системных рисков, могут положительно повлиять на объем неправдивой информации в сети. К таким мерам относятся:
– корректировка (адаптация) пользовательских соглашений и их соблюдения;
– корректировка модерации контента, включая скорость и качество обработки уведомлений, связанных с конкретным нелегальным контентом, и, при необходимости, оперативное удаление или отключение доступа к такому контенту;
– развитие внутренних процессов, ресурсов, тестирования, документирования или надзора за своей деятельностью, в частности, в отношении выявления системного риска;
– обеспечение того, чтобы контент, представляющий собой сгенерированное изображение, аудио- или видеоматериал, значительно напоминающий существующих людей, предметы, места или другие сущности или явления и ложно представляющийся человеку подлинным, был различим с помощью заметной маркировки при их размещении в онлайне.
Кроме того, поставщики услуг обязаны предусмотреть на своих сервисах легкодоступные механизмы, позволяющие любым лицам отмечать контент, который, по их мнению, является нелегальным. При этом поставщики в последующем должны рассматривать такие уведомления от пользователей и проверять на легальность соответствующий контент.
Telegram
howtocomply_AI
Как связаны Акт о цифровых услугах, цифровые платформы, поисковики и системы ИИ
Европейская комиссия определила в соответствии с Актом о цифровых услугах (Digital Services Act) список из семнадцати особо крупных цифровых платформ (Instagram, TikTok, Wikipedia…
Европейская комиссия определила в соответствии с Актом о цифровых услугах (Digital Services Act) список из семнадцати особо крупных цифровых платформ (Instagram, TikTok, Wikipedia…
👍6
И снова про системы ИИ и авторство
Ведомство по патентам и товарным знакам США во второй раз отказало Джейсону Аллену в регистрации авторского права на работу “Théâtre D’opéra Spatial”. Примечательно, что в 2022 году она выиграла на ежегодном конкурсе изобразительного искусства на ярмарке штата Колорадо.
Американский орган выяснил, что работа была создана в три этапа: во-первых, путем создания изображения с помощью Midjourney, во-вторых, путем улучшения и корректировки изображения Midjourney с помощью Adobe Photoshop и, наконец, путем увеличения разрешения с помощью Gigapixel AI.
Оценив заявку, ведомство пришло к выводу, что работа содержит значительное количество материала, созданного системой ИИ, превышающее минимальное пороговое значение.
В частности, ведомство определило, что изображение Midjourney, которое осталось практически неизменным в окончательном варианте работы, не является результатом авторства человека.
Также Джейсоном Алленом не была предоставлена необходимая информация для рассмотрения в качестве объектов авторского права изменений, внесенных с помощью Adobe Photoshop. А использование Gigapixel AI не добавило в изображение новых элементов.
Интересно, что ведомство не согласилось с заявителем в том, что промт (Аллен указал, что использовал более 600 вариаций), является необходимым творческим вкладом. Наоборот, именно особенности архитектуры и данных, на которых основана Midjourney, и предопределили финальный результат.
Ведомство по патентам и товарным знакам США во второй раз отказало Джейсону Аллену в регистрации авторского права на работу “Théâtre D’opéra Spatial”. Примечательно, что в 2022 году она выиграла на ежегодном конкурсе изобразительного искусства на ярмарке штата Колорадо.
Американский орган выяснил, что работа была создана в три этапа: во-первых, путем создания изображения с помощью Midjourney, во-вторых, путем улучшения и корректировки изображения Midjourney с помощью Adobe Photoshop и, наконец, путем увеличения разрешения с помощью Gigapixel AI.
Оценив заявку, ведомство пришло к выводу, что работа содержит значительное количество материала, созданного системой ИИ, превышающее минимальное пороговое значение.
В частности, ведомство определило, что изображение Midjourney, которое осталось практически неизменным в окончательном варианте работы, не является результатом авторства человека.
Также Джейсоном Алленом не была предоставлена необходимая информация для рассмотрения в качестве объектов авторского права изменений, внесенных с помощью Adobe Photoshop. А использование Gigapixel AI не добавило в изображение новых элементов.
Интересно, что ведомство не согласилось с заявителем в том, что промт (Аллен указал, что использовал более 600 вариаций), является необходимым творческим вкладом. Наоборот, именно особенности архитектуры и данных, на которых основана Midjourney, и предопределили финальный результат.
🔥8👾1
TIME100/AI
Сегодня журнал Time выпустил список из ста наиболее влиятельных людей в сфере ИИ.
Нашлось в нем место и для людей, связанных с юриспруденцией и госуправлением. Работы и выступления многих из них мы разбирали в наших постах.
Изучаем!
Сегодня журнал Time выпустил список из ста наиболее влиятельных людей в сфере ИИ.
Нашлось в нем место и для людей, связанных с юриспруденцией и госуправлением. Работы и выступления многих из них мы разбирали в наших постах.
Изучаем!
Time
The 100 Most Influential People in AI 2023
Here’s who made the 2023 TIME100 AI list of the most influential people in artificial intelligence.
🔥8
О регулировании рекомендательных алгоритмов в Китае
Совсем недавно в России был принят федеральный закон, регулирующий применение рекомендательных алгоритмов. О нем мы писали подробно здесь. Он вступает в силу с 1 октября этого года. В свете этого стало любопытно посмотреть, как же в других странах осуществляется подобное регулирование.
Одной из первых стран, в которых был принят акт о рекомендательных алгоритмах, является Китай. В этой стране еще с марта 2022 года действует Приказ Администрации киберпространства Китая “О регулировании применения рекомендательных алгоритмов информационных Интернет-служб”.
Первая половина акта посвящена таким общим вопросам, как необходимость преследования социально полезных целей и соблюдения запрета на размещение и продвижение нелегального контента на онлайн-платформах. Конкретные права и обязанности поставщиков услуг и пользователей предусмотрены в главе 3, среди них:
– поставщики услуг должны ясно информировать пользователей о применении рекомендательных алгоритмов и публиковать сведения о принципах, целях и основных механизмах, используемых при оказании пользователям услуг при помощи такой технологии;
– поставщики услуг должны предоставлять пользователям выбор не использовать в их отношении рекомендательный алгоритм или легкодоступную возможность полного отключения алгоритма. В случаях, когда пользователь решил отключить рекомендательный алгоритм, поставщик должен немедленно прекратить его применение;
– поставщики услуг должны предоставлять пользователям возможность выбора или удаления пользовательских меток (ориентированных на их персональные характеристики), используемых рекомендательными алгоритмами;
– поставщики услуг не вправе продвигать несовершеннолетним лицам информацию, которая может привести к вредным для них последствиям, например, негативно влиять на их физическое или психическое здоровье;
– при оказании услуг при помощи рекомендательных алгоритмов пожилым людям необходимо соблюдать их потребности и особенности, связанные с возрастом. Например, необходимо защищать их от интернет-мошенничества;
– если поставщики услуг применяют рекомендательные алгоритмы на платформах, на которых люди ищут работу, то они должны защищать права и интересы работников, такие как право на получение вознаграждения, отдых и отпуск и т.д., а также совершенствовать алгоритмы, связанные с регистрацией и распределением заказов на платформе, рабочим временем, выплатой вознаграждения и т.д.;
– если поставщики услуг продают товары или оказывают услуги пользователям, то они должны защищать их права на честную торговлю, запрещается использование алгоритмов, влекущих к созданию необоснованно разных условий, например, установление разных цен на товары и услуги в зависимости от покупательских привычек и других подобных характеристик потребителей.
За нарушение положений Приказа предусматривается различная ответственность. Указывается, что если за противоправное деяние предусмотрена ответственность другими актами, то наказание применяется на их основании. В отношении остальных случаев компетентным органам предписывается направлять поставщикам услуг предупреждения (при наличии информации о несоблюдении положений Приказа), а если они не будут принимать меры для прекращения неправомерного поведения, то органы вправе приостановить доступ к соответствующим интернет-ресурсам и наложить на поставщиков услуг штраф в размере от 10 000 до 100 000 юаней.
Китайские законодатели в целом занимают активную позицию в регулировании применения технологий ИИ. Помимо акта про рекомендательные алгоритмы у них уже действует регулирование, касающееся использования генеративных систем ИИ. Мы ранее делали отдельный пост на эту тему.
Совсем недавно в России был принят федеральный закон, регулирующий применение рекомендательных алгоритмов. О нем мы писали подробно здесь. Он вступает в силу с 1 октября этого года. В свете этого стало любопытно посмотреть, как же в других странах осуществляется подобное регулирование.
Одной из первых стран, в которых был принят акт о рекомендательных алгоритмах, является Китай. В этой стране еще с марта 2022 года действует Приказ Администрации киберпространства Китая “О регулировании применения рекомендательных алгоритмов информационных Интернет-служб”.
Первая половина акта посвящена таким общим вопросам, как необходимость преследования социально полезных целей и соблюдения запрета на размещение и продвижение нелегального контента на онлайн-платформах. Конкретные права и обязанности поставщиков услуг и пользователей предусмотрены в главе 3, среди них:
– поставщики услуг должны ясно информировать пользователей о применении рекомендательных алгоритмов и публиковать сведения о принципах, целях и основных механизмах, используемых при оказании пользователям услуг при помощи такой технологии;
– поставщики услуг должны предоставлять пользователям выбор не использовать в их отношении рекомендательный алгоритм или легкодоступную возможность полного отключения алгоритма. В случаях, когда пользователь решил отключить рекомендательный алгоритм, поставщик должен немедленно прекратить его применение;
– поставщики услуг должны предоставлять пользователям возможность выбора или удаления пользовательских меток (ориентированных на их персональные характеристики), используемых рекомендательными алгоритмами;
– поставщики услуг не вправе продвигать несовершеннолетним лицам информацию, которая может привести к вредным для них последствиям, например, негативно влиять на их физическое или психическое здоровье;
– при оказании услуг при помощи рекомендательных алгоритмов пожилым людям необходимо соблюдать их потребности и особенности, связанные с возрастом. Например, необходимо защищать их от интернет-мошенничества;
– если поставщики услуг применяют рекомендательные алгоритмы на платформах, на которых люди ищут работу, то они должны защищать права и интересы работников, такие как право на получение вознаграждения, отдых и отпуск и т.д., а также совершенствовать алгоритмы, связанные с регистрацией и распределением заказов на платформе, рабочим временем, выплатой вознаграждения и т.д.;
– если поставщики услуг продают товары или оказывают услуги пользователям, то они должны защищать их права на честную торговлю, запрещается использование алгоритмов, влекущих к созданию необоснованно разных условий, например, установление разных цен на товары и услуги в зависимости от покупательских привычек и других подобных характеристик потребителей.
За нарушение положений Приказа предусматривается различная ответственность. Указывается, что если за противоправное деяние предусмотрена ответственность другими актами, то наказание применяется на их основании. В отношении остальных случаев компетентным органам предписывается направлять поставщикам услуг предупреждения (при наличии информации о несоблюдении положений Приказа), а если они не будут принимать меры для прекращения неправомерного поведения, то органы вправе приостановить доступ к соответствующим интернет-ресурсам и наложить на поставщиков услуг штраф в размере от 10 000 до 100 000 юаней.
Китайские законодатели в целом занимают активную позицию в регулировании применения технологий ИИ. Помимо акта про рекомендательные алгоритмы у них уже действует регулирование, касающееся использования генеративных систем ИИ. Мы ранее делали отдельный пост на эту тему.
👍3👎1🔥1
Парадокс Моравека: почему системы ИИ хорошо играют в го, но плохо бегают
Парадокс Моравека - это концепция, которая заключается в том, что отдельные присущие человеку и иным живым существам навыки крайне сложно воспроизвести. Концепция была сформулирована Хансом Моравеком, Родни Бруксом, Марвином Минским и другими учеными в 1980-х годах.
Ханс Моравек писал в 1988 году: «сравнительно легко заставить компьютеры демонстрировать показатели взрослого человека в тестах на интеллект или при игре в шашки, и трудно или невозможно привить им навыки годовалого ребенка, когда речь идет о восприятии и мобильности».
Иными словами, задачи, которые люди считают легкими и интуитивными, такие как распознавание лиц, понимание естественного языка, навигация и перемещение в пространстве, часто требуют для их воспроизведения разработки более сложных алгоритмов и значительных вычислительных мощностей. С другой стороны, задачи, которые люди считают сложными, такие как комплексные математические вычисления, игра в шахматы или го на уровне гроссмейстера, поддаются программированию намного проще.
Парадокс возникает из-за того факта, что эволюция миллионы лет готовила наше «железо» и «софт» для задач выживания. Однако навыки, связанные с более молодыми функциями мозга, даются нам крайне сложно.
Парадокс Моравека - это концепция, которая заключается в том, что отдельные присущие человеку и иным живым существам навыки крайне сложно воспроизвести. Концепция была сформулирована Хансом Моравеком, Родни Бруксом, Марвином Минским и другими учеными в 1980-х годах.
Ханс Моравек писал в 1988 году: «сравнительно легко заставить компьютеры демонстрировать показатели взрослого человека в тестах на интеллект или при игре в шашки, и трудно или невозможно привить им навыки годовалого ребенка, когда речь идет о восприятии и мобильности».
Иными словами, задачи, которые люди считают легкими и интуитивными, такие как распознавание лиц, понимание естественного языка, навигация и перемещение в пространстве, часто требуют для их воспроизведения разработки более сложных алгоритмов и значительных вычислительных мощностей. С другой стороны, задачи, которые люди считают сложными, такие как комплексные математические вычисления, игра в шахматы или го на уровне гроссмейстера, поддаются программированию намного проще.
Парадокс возникает из-за того факта, что эволюция миллионы лет готовила наше «железо» и «софт» для задач выживания. Однако навыки, связанные с более молодыми функциями мозга, даются нам крайне сложно.
👍8❤1🔥1
Политика Великобритании в сфере ИИ: между парламентом и правительством
Нижняя палата парламента Великобритании опубликовала отчет, в котором содержится обширный анализ текущей политики правительства в области ИИ. Парламентарии выделили двенадцать актуальных проблем, требующих принятия мер со стороны государства. К ним отнесены вызовы, касающиеся вопросов предвзядости и непрозрачности алгоритмов, риска нарушения приватности при обучении базовых моделей, необходимости адаптации режимов ответственности и некоторые другие. Не стали перечислять все, поскольку они достаточно хорошо известны. Смысл подготовленного отчета заключается в том, что правительство будет обязано представить Палате общин план мер по разрешению всех обозначенных в отчете проблем.
Из любопытных деталей отчета можно выделить то, что в Великобритании со скепсисом относятся к риск-ориентированному подходу, в частности, к проекту Регламента Европейского союза об ИИ. В документе отмечается, что такой подход является чрезмерно жестким. Он ставит под угрозу технологическую конкурентоспособность европейцев, поскольку соблюдение его положений повлечет очень высокие затраты для технологических компаний.
Одновременно с этим парламентарии поддерживают ранее разработанную правительством Белую книгу, в соответствии с которой регулирование ИИ должно происходить на основе “про-инновационного подхода”. Суть этого подхода состоит в следующем:
– предлагается регулировать использование систем ИИ в зависимости от сфер применения. Обязанность по первичному регулированию возлагается на отраслевые государственные органы;
– предусматривается регулирование только в отношении очевидно опасных систем ИИ, а не тех, использование которых несет гипотетический или низкий риск для человека;
– регулирование на первом этапе будет осуществляться преимущественно отраслевыми органами на основе специально разработанных межотраслевых принципов – при этом они не будут закреплены законодательно;
– предлагается межотраслевые принципы в начале сделать необязательными. Регулирующим органам рекомендуется сперва использовать «мягкое регулирование», в частности, принимать руководства, не имеющие обязательную юридическую силу для субъектов индустрии ИИ.
Идея британцев заключается в том, чтобы апробировать такой подход на практике и в последующем – в зависимости от результатов – законодательно обязать отраслевые органы регулировать применение систем ИИ в своих секторах. На этот момент обращается внимание парламентариев в отчете. Они опасаются, что принятие такого законодательного акта может затянуться аж до конца 2025 года, т.е. до тех пор, пока не будет избран новый состав Палаты общин. Таким образом, в Великобритании, возможно, не скоро появится полноценное законодательное регулирование в сфере ИИ.
Нижняя палата парламента Великобритании опубликовала отчет, в котором содержится обширный анализ текущей политики правительства в области ИИ. Парламентарии выделили двенадцать актуальных проблем, требующих принятия мер со стороны государства. К ним отнесены вызовы, касающиеся вопросов предвзядости и непрозрачности алгоритмов, риска нарушения приватности при обучении базовых моделей, необходимости адаптации режимов ответственности и некоторые другие. Не стали перечислять все, поскольку они достаточно хорошо известны. Смысл подготовленного отчета заключается в том, что правительство будет обязано представить Палате общин план мер по разрешению всех обозначенных в отчете проблем.
Из любопытных деталей отчета можно выделить то, что в Великобритании со скепсисом относятся к риск-ориентированному подходу, в частности, к проекту Регламента Европейского союза об ИИ. В документе отмечается, что такой подход является чрезмерно жестким. Он ставит под угрозу технологическую конкурентоспособность европейцев, поскольку соблюдение его положений повлечет очень высокие затраты для технологических компаний.
Одновременно с этим парламентарии поддерживают ранее разработанную правительством Белую книгу, в соответствии с которой регулирование ИИ должно происходить на основе “про-инновационного подхода”. Суть этого подхода состоит в следующем:
– предлагается регулировать использование систем ИИ в зависимости от сфер применения. Обязанность по первичному регулированию возлагается на отраслевые государственные органы;
– предусматривается регулирование только в отношении очевидно опасных систем ИИ, а не тех, использование которых несет гипотетический или низкий риск для человека;
– регулирование на первом этапе будет осуществляться преимущественно отраслевыми органами на основе специально разработанных межотраслевых принципов – при этом они не будут закреплены законодательно;
– предлагается межотраслевые принципы в начале сделать необязательными. Регулирующим органам рекомендуется сперва использовать «мягкое регулирование», в частности, принимать руководства, не имеющие обязательную юридическую силу для субъектов индустрии ИИ.
Идея британцев заключается в том, чтобы апробировать такой подход на практике и в последующем – в зависимости от результатов – законодательно обязать отраслевые органы регулировать применение систем ИИ в своих секторах. На этот момент обращается внимание парламентариев в отчете. Они опасаются, что принятие такого законодательного акта может затянуться аж до конца 2025 года, т.е. до тех пор, пока не будет избран новый состав Палаты общин. Таким образом, в Великобритании, возможно, не скоро появится полноценное законодательное регулирование в сфере ИИ.
publications.parliament.uk
The governance of artificial intelligence: interim report
This is a House of Commons Committee report, with recommendations to government. The Government has two months to respond.
🔥6👍2❤1
Новые законодательные инициативы в сфере ИИ в США
В сентябре сенаторы Ричард Блюменталь и Джош Хоули представили первые концептуальные положения будущего нормативного правового регулирования в сфере ИИ, которые были согласованы обеими партиями.
В рамках концепции предполагается:
Ввести обязательное лицензирование для отдельных базовых моделей, применяющихся в сферах повышенного риска. Для этого предполагается создать независимый надзорный орган, который будет иметь широкую компетенцию по текущей и последующей проверке базовых моделей, подлежащих лицензированию.
Установить юридическую ответственность за вред, причиненный системами ИИ. Для этого предполагается обеспечить возможность подачи судебных исков против компаний-разработчиков за нарушение прав человека (например, неприкосновенности частной жизни), а также необходимым образом актуализировать законодательство.
Защитить национальную безопасность и конкуренцию. Предполагается ввести ограничения на экспорт передовых базовых моделей и иных связанных с ИИ технологий в недружественные страны.
Обеспечить прозрачность разработки и применения систем ИИ, включая раскрытие необходимой информации о работе системы, уведомления пользователей о том, что они взаимодействуют с системой ИИ, и маркировку дипфейков.
Ввести дополнительные меры безопасности для обеспечения контроля за оборотом персональных данных и установить ограничения на использование систем ИИ детьми.
Ранее Блюменталь-Хоули также инициировали законопроект, который предполагает отказ в отношении генеративных систем ИИ от иммунитета в соответствии с разделом 230 Закона о связи от 1934 года (раздел проводит различие между теми, кто создает контент, и теми, кто предоставляет доступ к нему, предоставляя иммунитет от иска последней группе).
В продолжение развития концепции Блюменталя-Хоули сенатор Эми Клобучар инициировала законопроект, позволяющий защищать кандидатов от использования дипфейков в политической рекламе в преддверии предстоящих выборов в 2024 году.
В сентябре сенаторы Ричард Блюменталь и Джош Хоули представили первые концептуальные положения будущего нормативного правового регулирования в сфере ИИ, которые были согласованы обеими партиями.
В рамках концепции предполагается:
Ввести обязательное лицензирование для отдельных базовых моделей, применяющихся в сферах повышенного риска. Для этого предполагается создать независимый надзорный орган, который будет иметь широкую компетенцию по текущей и последующей проверке базовых моделей, подлежащих лицензированию.
Установить юридическую ответственность за вред, причиненный системами ИИ. Для этого предполагается обеспечить возможность подачи судебных исков против компаний-разработчиков за нарушение прав человека (например, неприкосновенности частной жизни), а также необходимым образом актуализировать законодательство.
Защитить национальную безопасность и конкуренцию. Предполагается ввести ограничения на экспорт передовых базовых моделей и иных связанных с ИИ технологий в недружественные страны.
Обеспечить прозрачность разработки и применения систем ИИ, включая раскрытие необходимой информации о работе системы, уведомления пользователей о том, что они взаимодействуют с системой ИИ, и маркировку дипфейков.
Ввести дополнительные меры безопасности для обеспечения контроля за оборотом персональных данных и установить ограничения на использование систем ИИ детьми.
Ранее Блюменталь-Хоули также инициировали законопроект, который предполагает отказ в отношении генеративных систем ИИ от иммунитета в соответствии с разделом 230 Закона о связи от 1934 года (раздел проводит различие между теми, кто создает контент, и теми, кто предоставляет доступ к нему, предоставляя иммунитет от иска последней группе).
В продолжение развития концепции Блюменталя-Хоули сенатор Эми Клобучар инициировала законопроект, позволяющий защищать кандидатов от использования дипфейков в политической рекламе в преддверии предстоящих выборов в 2024 году.
🔥4👍1👾1
В Сенате США обсудили новые законодательные инициативы
В Подкомитете по неприкосновенности частной жизни, технологиям и законодательству при Комитете по судебной власти Сената США состоялись слушания на тему Контроль над ИИ: законодательство в сфере ИИ. Во многом обсуждение касалось законодательных инициатив, которые мы рассматривали в нашем предыдущем посте. На мероприятии выступили ведущие представители бизнеса и науки:
Брэд Смит (вице-председатель и президент Microsoft) подчеркнул то, что компания в целом поддерживает концепцию Блюменталя-Хоули. В частности, он выразил согласие с необходимостью создания независимого надзорного органа, а также введения лицензирования отдельных систем ИИ на основе риск-ориентированного подхода с учетом сценариев их использования.
Также он выделил несколько других интересных аспектов, на которые, по его мнению, стоит обратить внимание законодателям.
Во-первых, необходимо добавить для систем ИИ, которые используются в критической инфраструктуре и других областях повышенного риска, “аварийный тормоз”.
Во-вторых, обязать разработчиков проводить процедуру, аналогичную идентификации контрагентов в финансовой сфере (KYC). Эту процедуру он предложил именовать KY3C (знай своего клиента, облако и контент (customer, cloud, and content)). Необходимость получения полной информации о контрагентах и используемых облачных вычислительных мощностях крайне важна для передовых базовых моделей и систем ИИ, которые используются в областях повышенного риска. Это поможет избежать утечек и повысит безопасность их использования.
Вудро Хартцог (профессор права, Бостонский университет, научный сотрудник, Вашингтонский университет в Сент-Луисе) высказал важную мысль, с которой трудно не согласиться, работая в юридической сфере. Он предостерег законодателя о том, что фокусирование на этических принципах, требованиях о прозрачности, подотчетности и уменьшении предвзятостей является лишь ширмой, которая создает видимость системного регулирования, но фактически создает еще больше рисков в будущем. Вместе с тем он подчеркнул, что эти вопросы, безусловно, являются важными, но параллельно необходимо системно регулировать общественные отношения вокруг создания и применения ИИ. В отказе от разработки нормативного регулирования или в занятии выжидательной позиции сейчас можно упрекнуть много стран, в том числе и Россию.
Уильям Дэлли (главный научный сотрудник и старший вице-президент по исследованиям NVIDIA) также поддержал концепцию Блюменталя-Хоули, а также рассказал о важной роли компании во всем, что происходит с ИИ. NVIDIA сейчас является одним из бенефициаров современной ИИ революции (и всего того, что происходило и происходит вокруг криптовалют), так как является одним из лидеров по производству железа. Также он призвал к международному сотрудничеству в области разработки нормативного регулирования. По его мнению, это необходимо прежде всего из-за того, что сейчас многие страны и компании вкладывают огромные ресурсы в развитие ИИ-технологий. Соответственно, невозможно предсказать, где именно произойдет следующий большой прорыв в исследованиях.
В Подкомитете по неприкосновенности частной жизни, технологиям и законодательству при Комитете по судебной власти Сената США состоялись слушания на тему Контроль над ИИ: законодательство в сфере ИИ. Во многом обсуждение касалось законодательных инициатив, которые мы рассматривали в нашем предыдущем посте. На мероприятии выступили ведущие представители бизнеса и науки:
Брэд Смит (вице-председатель и президент Microsoft) подчеркнул то, что компания в целом поддерживает концепцию Блюменталя-Хоули. В частности, он выразил согласие с необходимостью создания независимого надзорного органа, а также введения лицензирования отдельных систем ИИ на основе риск-ориентированного подхода с учетом сценариев их использования.
Также он выделил несколько других интересных аспектов, на которые, по его мнению, стоит обратить внимание законодателям.
Во-первых, необходимо добавить для систем ИИ, которые используются в критической инфраструктуре и других областях повышенного риска, “аварийный тормоз”.
Во-вторых, обязать разработчиков проводить процедуру, аналогичную идентификации контрагентов в финансовой сфере (KYC). Эту процедуру он предложил именовать KY3C (знай своего клиента, облако и контент (customer, cloud, and content)). Необходимость получения полной информации о контрагентах и используемых облачных вычислительных мощностях крайне важна для передовых базовых моделей и систем ИИ, которые используются в областях повышенного риска. Это поможет избежать утечек и повысит безопасность их использования.
Вудро Хартцог (профессор права, Бостонский университет, научный сотрудник, Вашингтонский университет в Сент-Луисе) высказал важную мысль, с которой трудно не согласиться, работая в юридической сфере. Он предостерег законодателя о том, что фокусирование на этических принципах, требованиях о прозрачности, подотчетности и уменьшении предвзятостей является лишь ширмой, которая создает видимость системного регулирования, но фактически создает еще больше рисков в будущем. Вместе с тем он подчеркнул, что эти вопросы, безусловно, являются важными, но параллельно необходимо системно регулировать общественные отношения вокруг создания и применения ИИ. В отказе от разработки нормативного регулирования или в занятии выжидательной позиции сейчас можно упрекнуть много стран, в том числе и Россию.
Уильям Дэлли (главный научный сотрудник и старший вице-президент по исследованиям NVIDIA) также поддержал концепцию Блюменталя-Хоули, а также рассказал о важной роли компании во всем, что происходит с ИИ. NVIDIA сейчас является одним из бенефициаров современной ИИ революции (и всего того, что происходило и происходит вокруг криптовалют), так как является одним из лидеров по производству железа. Также он призвал к международному сотрудничеству в области разработки нормативного регулирования. По его мнению, это необходимо прежде всего из-за того, что сейчас многие страны и компании вкладывают огромные ресурсы в развитие ИИ-технологий. Соответственно, невозможно предсказать, где именно произойдет следующий большой прорыв в исследованиях.
www.judiciary.senate.gov
Oversight of A.I.: Legislating on Artificial Intelligence | United States Senate Committee on the Judiciary
👍4
Оценка требований в рамках проекта Регламента ЕС об ИИ
Исследователи из Future of Life Institute выпустили небольшой сервис, который позволяет бизнесу в общем виде понять, с какими требованиями грядущего акта им предстоит иметь дело. Для этого необходимо ответить на несколько вопросов относительно систем ИИ, которые предполагается выводить на рынок, а также об участии в этом самой компании.
Вместе с тем обращаем внимание, что подобные сервисы нацелены на информирование и не являются юридическими консультациями. Нормативные требования отражены в сервисе в упрощенном виде, а сам текст проекта Регламента еще не финализирован и не принят.
Исследователи из Future of Life Institute выпустили небольшой сервис, который позволяет бизнесу в общем виде понять, с какими требованиями грядущего акта им предстоит иметь дело. Для этого необходимо ответить на несколько вопросов относительно систем ИИ, которые предполагается выводить на рынок, а также об участии в этом самой компании.
Вместе с тем обращаем внимание, что подобные сервисы нацелены на информирование и не являются юридическими консультациями. Нормативные требования отражены в сервисе в упрощенном виде, а сам текст проекта Регламента еще не финализирован и не принят.
🔥5👍1
Международные органы в сфере ИИ
Обращаем ваше внимание на исследование, подготовленное в рамках Legal Priorities Project. Авторы задались целью сформулировать рекомендации относительно потенциального дизайна будущего международного органа в сфере ИИ. Для этого на данном этапе они сосредоточились на анализе уже существующих инициатив.
По его итогам были выделены семь моделей создания таких органов, которые обсуждались учеными и практиками:
1. достижение научного консенсуса;
2. поиск политического консенсуса и принятие нормативных актов;
3. координация политики и нормативного регулирования;
4. обеспечение соблюдения стандартов и нормативных ограничений;
5. обеспечение безопасности и реагирования на чрезвычайные ситуации;
6. кооперация в рамках совместных международных исследований;
7. доступ к технологиям и распределение выгод от их применения.
Краткую табличку с обзором прилагаем к посту.
Обращаем ваше внимание на исследование, подготовленное в рамках Legal Priorities Project. Авторы задались целью сформулировать рекомендации относительно потенциального дизайна будущего международного органа в сфере ИИ. Для этого на данном этапе они сосредоточились на анализе уже существующих инициатив.
По его итогам были выделены семь моделей создания таких органов, которые обсуждались учеными и практиками:
1. достижение научного консенсуса;
2. поиск политического консенсуса и принятие нормативных актов;
3. координация политики и нормативного регулирования;
4. обеспечение соблюдения стандартов и нормативных ограничений;
5. обеспечение безопасности и реагирования на чрезвычайные ситуации;
6. кооперация в рамках совместных международных исследований;
7. доступ к технологиям и распределение выгод от их применения.
Краткую табличку с обзором прилагаем к посту.
👍5
Роботы тоже любят йогу
На днях на канале Теслы в Ютьюбе появился ролик, в котором их бот Оптимус демонстрирует новые способности по взаимодействию с окружающем миром. Теперь он умеет лучше распознавать образы и понимать положение конечностей в пространстве. Это позволило ему научиться, например, сортировать вещи и дообучаться решению небольших конкретных задач на ходу. Ответ на вопрос, почему системам ИИ так сложно научиться взаимодействовать с физическим пространством, мы рассматривали в нашем недавнем посте про парадокс Моравека.
Однако и на этом поприще наблюдаются интересные результаты. Toyota, MIT и Columbia Engineering публиковали статью, в которой описывают новую методику. Последняя позволяет обучать системы ИИ на основе имитации ими человеческих движений. Сейчас они обучили модели около 60 небольшим движениям, которые характерны для людей на кухне. А к 2024 году планируют расширить возможности до 1000 задач. На основе этого исследователи планируют построить единую модель, способную автономно взаимодействовать с внешним миром через получение непрерывного потока разного рода данных. Такую модель предполагают назвать LBM (Large Behavior Model).
Таким образом, нынешняя волна генеративного ИИ является лишь первой ступенью для дальнейшего возникновения сначала виртуальных автономных агентов, а затем воплощенных. Соответственно, и развитие подходов к нормативному регулированию сейчас находится фактически в начальной стадии.
На днях на канале Теслы в Ютьюбе появился ролик, в котором их бот Оптимус демонстрирует новые способности по взаимодействию с окружающем миром. Теперь он умеет лучше распознавать образы и понимать положение конечностей в пространстве. Это позволило ему научиться, например, сортировать вещи и дообучаться решению небольших конкретных задач на ходу. Ответ на вопрос, почему системам ИИ так сложно научиться взаимодействовать с физическим пространством, мы рассматривали в нашем недавнем посте про парадокс Моравека.
Однако и на этом поприще наблюдаются интересные результаты. Toyota, MIT и Columbia Engineering публиковали статью, в которой описывают новую методику. Последняя позволяет обучать системы ИИ на основе имитации ими человеческих движений. Сейчас они обучили модели около 60 небольшим движениям, которые характерны для людей на кухне. А к 2024 году планируют расширить возможности до 1000 задач. На основе этого исследователи планируют построить единую модель, способную автономно взаимодействовать с внешним миром через получение непрерывного потока разного рода данных. Такую модель предполагают назвать LBM (Large Behavior Model).
Таким образом, нынешняя волна генеративного ИИ является лишь первой ступенью для дальнейшего возникновения сначала виртуальных автономных агентов, а затем воплощенных. Соответственно, и развитие подходов к нормативному регулированию сейчас находится фактически в начальной стадии.
YouTube
Tesla Bot Update | Sort & Stretch
Optimus can now sort objects autonomously 🤖 . Its neural network is trained fully end-to-end: video in, controls out.
Join us to help develop Optimus (& improve its yoga routine 🧘) → https://tesla.com/AI
Join us to help develop Optimus (& improve its yoga routine 🧘) → https://tesla.com/AI
🔥3
GPAI и уровни риска
Вчера исследователи из The Future Society опубликовали отчет о нормативном регулировании систем ИИ общего назначения (GPAI). По сути, они предлагают распространить на эти системы риск-ориентированный подход, на котором основана концепция проекта Регламента ЕС об ИИ.
Исследователи предлагают разделить все системы ИИ общего назначения на три большие группы по уровням риска, которые они представляют для прав человека:
1. генеративные системы ИИ (400+ поставщиков);
2. системы ИИ общего назначения первой группы (базовые модели) (~14 поставщиков);
3. системы ИИ общего назначения второй группы (передовые базовые модели) (~10 поставщиков).
Для каждой группы будет характерен разный набор юридических требований (пирамида от меньших к большим). Именно поэтому их отчет носит название “Heavy is the Head that Wears the Crown”. Подробно все требования можно увидеть на скриншоте, приложенном к посту.
Также при разделении на группы учитываются и их технические характеристики: вычислительные мощности, которые потребовались для обучения модели, ее общая эффективность и сложность, эффективность приобретения новых навыков, универсальность в применении, специфические показатели по отдельным модальностям.
Для третей группы будут характерны самые объемные нормативные требования, которые включают, помимо требований ко всем остальным группам, еще, например, такие, как: внутренний и внешний независимый аудит, регулярное взаимодействие с Офисом ИИ (его предполагается создать в соответствии с актуальным текстом проекта Регламента), полная прозрачность и т.д.
Вместе с тем, очевидно слабыми сторонами такого подхода являются деление на слишком малое число групп и излишняя привязка к современным технологическим реалиям.
Вчера исследователи из The Future Society опубликовали отчет о нормативном регулировании систем ИИ общего назначения (GPAI). По сути, они предлагают распространить на эти системы риск-ориентированный подход, на котором основана концепция проекта Регламента ЕС об ИИ.
Исследователи предлагают разделить все системы ИИ общего назначения на три большие группы по уровням риска, которые они представляют для прав человека:
1. генеративные системы ИИ (400+ поставщиков);
2. системы ИИ общего назначения первой группы (базовые модели) (~14 поставщиков);
3. системы ИИ общего назначения второй группы (передовые базовые модели) (~10 поставщиков).
Для каждой группы будет характерен разный набор юридических требований (пирамида от меньших к большим). Именно поэтому их отчет носит название “Heavy is the Head that Wears the Crown”. Подробно все требования можно увидеть на скриншоте, приложенном к посту.
Также при разделении на группы учитываются и их технические характеристики: вычислительные мощности, которые потребовались для обучения модели, ее общая эффективность и сложность, эффективность приобретения новых навыков, универсальность в применении, специфические показатели по отдельным модальностям.
Для третей группы будут характерны самые объемные нормативные требования, которые включают, помимо требований ко всем остальным группам, еще, например, такие, как: внутренний и внешний независимый аудит, регулярное взаимодействие с Офисом ИИ (его предполагается создать в соответствии с актуальным текстом проекта Регламента), полная прозрачность и т.д.
Вместе с тем, очевидно слабыми сторонами такого подхода являются деление на слишком малое число групп и излишняя привязка к современным технологическим реалиям.
🔥3👍1