Друзья, всем привет!
Меня зовут Дмитрий Кутейников. Я занимаюсь юридическим сопровождением IT-проектов и академическими исследованиями. Но моя главная страсть – AI Governance и регулирование в сфере ИИ как его неотъемлемая часть.
В этой сфере я работаю с 2017 года, сразу после защиты кандидатской диссертации. С 2018 по 2022 я руководил большим исследовательским проектом, по итогам которого мы с коллегами выпустили книгу «Искусственный интеллект и право: от фундаментальных проблем к прикладным задачам».
В рамках своей деятельности я консультирую бизнес, юрфирмы и госорганы, а также принимаю участие в разработке законодательства в России и Европе.
Также я активно преподаю. Мои лекции о нормативном регулировании в сфере ИИ и робототехники можно услышать в разных вузах, онлайн-школах и курсах. Из последнего, например, могу отметить RPPA, CyberLaw School, MDS, ВШЭ.
Канал я создал, чтобы делиться собственной аналитикой, полезными материалами и новостями регулирования в сфере искусственного интеллекта и цифровых технологий.
Мне можно смело писать, если вам необходима консультация, вы хотите позвать меня в качестве спикера или повысить ИИ-грамотность ваших сотрудников.
Для обратной связи можно написать сообщение напрямую в канал.
Please open Telegram to view this post
VIEW IN TELEGRAM
Litgid
Искусственный интеллект и право: от фундаментальных проблем к прикладным задачам. Монография
Настоящая монография представляет собой междисциплинарное исследование фундаментальных проблем и ...
❤13👍7 1
howtocomply_AI: право и ИИ pinned «🛸 Познакомимся? Немного о канале и его авторе Друзья, всем привет! Меня зовут Дмитрий Кутейников. Я…»
системы_ИИ_обзор_определений.pdf
1.8 MB
Удивительно, но в мире все еще нет общего мнения о том, что следует понимать под термином «искусственный интеллект».
Между тем выбранный той или иной юрисдикцией подход предопределит границы предмета регулирования. Это повлияет на то, какие именно программные продукты, функционирующие на основе ИИ, будут подпадать под различные новые требования законодательства. Чем шире будет определение, тем большее количество продуктов должны будут соответствовать нормативным актам. И наоборот. Такая определенность крайне важна для развития технологического бизнеса.
Мы делимся с вами нашим обзором определений термина «искусственный интеллект» в документах международных организаций, в нормативных правовых актах разных стран и регионов, а также в научной доктрине.
Между тем выбранный той или иной юрисдикцией подход предопределит границы предмета регулирования. Это повлияет на то, какие именно программные продукты, функционирующие на основе ИИ, будут подпадать под различные новые требования законодательства. Чем шире будет определение, тем большее количество продуктов должны будут соответствовать нормативным актам. И наоборот. Такая определенность крайне важна для развития технологического бизнеса.
Мы делимся с вами нашим обзором определений термина «искусственный интеллект» в документах международных организаций, в нормативных правовых актах разных стран и регионов, а также в научной доктрине.
👍4🔥3
Скрытые таланты систем ИИ
Поговорим про эмерджентные способности больших языковых моделей (системы ИИ). Сперва объясним, что эмерджентность, это когда у частей системы нет качеств, которые есть у системы в целом.
Важной характеристикой больших языковых моделей является то, что эти модели умеют делать то, что не умеют их аналоги с меньшим количеством параметров. Например, GPT-3 с 13 миллиардами параметров может выполнять 2 вида заданий, а GPT-3 со 175 миллиардами уже способен выполнять 15 разных задач. Вот и получается, что происходит переход количества в качество. Еще это сопроваждается тем, что разработчики не всегда знают какие именно способности приобретет система по мере увеличения модели. Между тем для регулирования важно понимать, что система технически сможет сделать, а что нет. Иначе невозможно определить, представляет ли она опасность и какое нужно регулирование. В связи с этим сейчас появляется все больше материалов, из которых можно узнать насколько системы ИИ могут приобретать новые способности, изначально не заложенные в них разработчиками. Подробнее о том, какие способности могут появиться у систем ИИ, о которых разработчики не догадывались, можно почитать в The Unpredictable Abilities Emerging From Large AI Models.
Поговорим про эмерджентные способности больших языковых моделей (системы ИИ). Сперва объясним, что эмерджентность, это когда у частей системы нет качеств, которые есть у системы в целом.
Важной характеристикой больших языковых моделей является то, что эти модели умеют делать то, что не умеют их аналоги с меньшим количеством параметров. Например, GPT-3 с 13 миллиардами параметров может выполнять 2 вида заданий, а GPT-3 со 175 миллиардами уже способен выполнять 15 разных задач. Вот и получается, что происходит переход количества в качество. Еще это сопроваждается тем, что разработчики не всегда знают какие именно способности приобретет система по мере увеличения модели. Между тем для регулирования важно понимать, что система технически сможет сделать, а что нет. Иначе невозможно определить, представляет ли она опасность и какое нужно регулирование. В связи с этим сейчас появляется все больше материалов, из которых можно узнать насколько системы ИИ могут приобретать новые способности, изначально не заложенные в них разработчиками. Подробнее о том, какие способности могут появиться у систем ИИ, о которых разработчики не догадывались, можно почитать в The Unpredictable Abilities Emerging From Large AI Models.
Quanta Magazine
The Unpredictable Abilities Emerging From Large AI Models | Quanta Magazine
Large language models like ChatGPT are now big enough that they’ve started to display startling, unpredictable behaviors.
ИИ лоббизм Бигтэков
Мы сделали обзор доклада о влиянии американских Бигтэков на процесс принятия Регламента ЕС “Об искусственном интеллекте” (Artificial Intellegence Act). Из материала узнаете, какие цели преследуют технологические компании и как они их достигают.
https://telegra.ph/AI-lobbying-04-10
Мы сделали обзор доклада о влиянии американских Бигтэков на процесс принятия Регламента ЕС “Об искусственном интеллекте” (Artificial Intellegence Act). Из материала узнаете, какие цели преследуют технологические компании и как они их достигают.
https://telegra.ph/AI-lobbying-04-10
Telegraph
Как думаете, есть ли лоббизм со стороны Бигтэков в сфере регулирования ИИ в Европе? Если коротко, то да.
Вдохновились на подготовку этого поста одной мыслью – в нашем обществе все еще сохраняется позитивный образ технологических компаний. Мы привыкли связывать Apple, Google и Meta (признана экстремистской и запрещена в РФ) с их основателями. У этих ребят в футболках…
🔥2
Bing ведет себя плохо?
Делимся с вами интересным видео с канала Computerphile, в котором обсуждается плохое поведение нового чат-бота Bing, интегрированого в одноименный поисковик Microsoft.
Bing стал громкой премьерой, так как в нем используется нейросеть GPT-4 компании OpenAI. Выход первого поисковика с такими возможностями претендует на революцию в интернет-поиске и даже смещение Google с ее трона.
Однако с первой версией продукта все оказалось не так радужно. В ролике Роб Майлз на примерах показывает, что Bing местами может вести себя грубо и не очень адекватно. Для того, чтобы нивелировать возможный негатив в продукт встроена другая нейронка, которая оперативно удаляет неудачный ответ.
Интересны и причины таких недоработок. Авторы ролика предполагают, что всему виной жесткие дедлайны, перед которыми была поставлена команда разработки из-за конкуренции технологических компаний за первенство на рынке. Спешка не позволила провести необходимое дообучение модели и контроль качества выходного результата.
Такая ситуация наглядно демонстрирует необходимость наличия законодательных и этических требований по разработке и допуску ИИ-продуктов на рынок, систем риск-менеджмента и независимого внутреннего и внешнего контроля. Компаниям тоже ничего не мешает соблюдать правила, которые пока еще не обрели силу жесткого законодательства (например, добровольно начать исполнять проект Регламента ЕС об ИИ).
Именно поэтому открытое письмо о приостановлении разработок систем ИИ на самом деле является попыткой воздействия на OpenAI со стороны конкурентов, а не реальным решением проблемы. В этой связи инициатива экспертного сообщества ForHumanity о добровольном присоединении OpenAI к регуляторной песочнице в ЕС представляется куда более рациональным шагом.
Делимся с вами интересным видео с канала Computerphile, в котором обсуждается плохое поведение нового чат-бота Bing, интегрированого в одноименный поисковик Microsoft.
Bing стал громкой премьерой, так как в нем используется нейросеть GPT-4 компании OpenAI. Выход первого поисковика с такими возможностями претендует на революцию в интернет-поиске и даже смещение Google с ее трона.
Однако с первой версией продукта все оказалось не так радужно. В ролике Роб Майлз на примерах показывает, что Bing местами может вести себя грубо и не очень адекватно. Для того, чтобы нивелировать возможный негатив в продукт встроена другая нейронка, которая оперативно удаляет неудачный ответ.
Интересны и причины таких недоработок. Авторы ролика предполагают, что всему виной жесткие дедлайны, перед которыми была поставлена команда разработки из-за конкуренции технологических компаний за первенство на рынке. Спешка не позволила провести необходимое дообучение модели и контроль качества выходного результата.
Такая ситуация наглядно демонстрирует необходимость наличия законодательных и этических требований по разработке и допуску ИИ-продуктов на рынок, систем риск-менеджмента и независимого внутреннего и внешнего контроля. Компаниям тоже ничего не мешает соблюдать правила, которые пока еще не обрели силу жесткого законодательства (например, добровольно начать исполнять проект Регламента ЕС об ИИ).
Именно поэтому открытое письмо о приостановлении разработок систем ИИ на самом деле является попыткой воздействия на OpenAI со стороны конкурентов, а не реальным решением проблемы. В этой связи инициатива экспертного сообщества ForHumanity о добровольном присоединении OpenAI к регуляторной песочнице в ЕС представляется куда более рациональным шагом.
YouTube
Bing Chat Behaving Badly - Computerphile
AI moves quickly, this conversation was recorded March 3rd 2023. Microsoft have incorporated a large language model into the Bing search engine. Rob Miles discusses how it's been going.
More from Rob Miles: https://bit.ly/Rob_Miles_YouTube
https://w…
More from Rob Miles: https://bit.ly/Rob_Miles_YouTube
https://w…
👍2
Любимое сочетание из научной фантастики: искусственный интеллект и космос
К дню космонавтики подготовили для вас обзор статьи Нормативные вызовы в связи с использованием искусственного интеллекта в космическом пространстве: право, этика и пересмотр земных стандартов. Работа выполнена итальянскими учеными из университета Турина.
В статье говорится про потенциальные вызовы, стоящие перед космическим правом в связи с внедрением систем ИИ. Авторы пытались скорее сделать акцент на постановке проблем, а не на их решении. Местами не обошлось и без примеров из научной фантастики.
Автоматизация давно, если не в первую очередь, затронула покорение внеземного пространства. Львиная доля всех исследований ведется за счет использования приборов разной степени автономности, отправленных на изучение небесных тел и космических далей.
В грядущей эпохе массовых коммерческих полетов в космос, очевидно, системам ИИ будет отведена значительная роль в помощи человеку и обеспечению полностью автономных миссий и колоний.
В работе выделяются четыре группы юридических проблем.
Разрешение вопросов о соотношении международного и национального права для формулирования стандартов использования систем ИИ в космосе. Например, выработка общих подходов к составам правонарушений, установлению субъекта юридической ответственности и т.п.
Особенности правовой регламентации использования новых технологий частными компаниями в космическом пространстве.
Классические проблемы систем ИИ (предвзятость, неподотчетность, данные, ответственность и т.п.) сквозь призму космического права.
Взаимодействие астронавтов с автономными ассистентами (привет, Тарс и Бишоп), которые будут сопровождать человека в неземном быту, помогать в ремонте и исследованиях. Проблемы безопаности и защиты данных с учетом большей эмоциональной привязанности людей к ним в условиях межпланетных перелетов или долгих миссий, по мнению авторов, будет более чувствительна, чем на земле.
К дню космонавтики подготовили для вас обзор статьи Нормативные вызовы в связи с использованием искусственного интеллекта в космическом пространстве: право, этика и пересмотр земных стандартов. Работа выполнена итальянскими учеными из университета Турина.
В статье говорится про потенциальные вызовы, стоящие перед космическим правом в связи с внедрением систем ИИ. Авторы пытались скорее сделать акцент на постановке проблем, а не на их решении. Местами не обошлось и без примеров из научной фантастики.
Автоматизация давно, если не в первую очередь, затронула покорение внеземного пространства. Львиная доля всех исследований ведется за счет использования приборов разной степени автономности, отправленных на изучение небесных тел и космических далей.
В грядущей эпохе массовых коммерческих полетов в космос, очевидно, системам ИИ будет отведена значительная роль в помощи человеку и обеспечению полностью автономных миссий и колоний.
В работе выделяются четыре группы юридических проблем.
Разрешение вопросов о соотношении международного и национального права для формулирования стандартов использования систем ИИ в космосе. Например, выработка общих подходов к составам правонарушений, установлению субъекта юридической ответственности и т.п.
Особенности правовой регламентации использования новых технологий частными компаниями в космическом пространстве.
Классические проблемы систем ИИ (предвзятость, неподотчетность, данные, ответственность и т.п.) сквозь призму космического права.
Взаимодействие астронавтов с автономными ассистентами (привет, Тарс и Бишоп), которые будут сопровождать человека в неземном быту, помогать в ремонте и исследованиях. Проблемы безопаности и защиты данных с учетом большей эмоциональной привязанности людей к ним в условиях межпланетных перелетов или долгих миссий, по мнению авторов, будет более чувствительна, чем на земле.
👍6🔥3
Пройдемте, товарищ ChatGPT
Во вторник Государственная канцелярия интернет-информации КНР (Cyberspace Administration of China) опубликовала для обсуждения проект документа о регулировании разработки и использования систем генеративного ИИ.
Такие системы ИИ способны создавать разнообразный контент: текст, аудио, видео, изображения, программный код и т.п. Многие из этих систем сейчас широко известны, например, ChatGPT, Stable Diffusion 2.0, MidJourney.
Разрабатывают системы генеративного ИИ и китайские Бигтэки. Например, в прошлом месяце Baidu запустила тестирование чат-бота Эрни.
В отличие от Европы Китай пока воздерживается от принятия сквозных актов об ИИ, регулируя данную сферу общими законами о защите данных и кибербезопасности, а также точечными решениями, такими как акты о рекомендательных алгоритмах и о маркировке контента, сгенерированного системами ИИ. Таким образом, рассматриваемый проект является продолжением намеченной китайскими властями политики.
Обращаем ваше внимание на ряд интересных деталей из опубликованного документа:
Контент, созданный системами генеративного ИИ, должен отражать основные социалистические ценности, не может быть направлен против публичного порядка (терроризм, экстремизим, свержение гос. власти и т.п.) и содержать дискриминирующую информацию.
Контент должен быть правдивым и точным, надлежит принять меры по предотвращению создания ложной информации.
Необходимо уважать права интеллектуальной собственности и защищать конкуренцию.
Компании и физ. лица, использующие такие системы ИИ (поставщики), несут все обязанности производителей контента и должны соответствовать требованиям о защите персональных данных.
Перед использованием систем генеративного ИИ для предоставления услуг населению необходимо провести оценку безопасности в гос. органе.
Поставщики несут ответственность за законность данных, используемых для обучения и функционирования таких систем ИИ (а также отсутствия в них ПД).
Продукт должен соответствовать требованиям нацональных законов о кибербезопасности.
Поставщики должны информировать пользователей о принципах работы систем генеративного ИИ и принимать меры для предотвращения чрезмерной зависимости или привыкания пользователей.
Вчера китайский регулятор также предложил усилить регулирование и контроль за использованием алгоритмов в разных сферах.
Во вторник Государственная канцелярия интернет-информации КНР (Cyberspace Administration of China) опубликовала для обсуждения проект документа о регулировании разработки и использования систем генеративного ИИ.
Такие системы ИИ способны создавать разнообразный контент: текст, аудио, видео, изображения, программный код и т.п. Многие из этих систем сейчас широко известны, например, ChatGPT, Stable Diffusion 2.0, MidJourney.
Разрабатывают системы генеративного ИИ и китайские Бигтэки. Например, в прошлом месяце Baidu запустила тестирование чат-бота Эрни.
В отличие от Европы Китай пока воздерживается от принятия сквозных актов об ИИ, регулируя данную сферу общими законами о защите данных и кибербезопасности, а также точечными решениями, такими как акты о рекомендательных алгоритмах и о маркировке контента, сгенерированного системами ИИ. Таким образом, рассматриваемый проект является продолжением намеченной китайскими властями политики.
Обращаем ваше внимание на ряд интересных деталей из опубликованного документа:
Контент, созданный системами генеративного ИИ, должен отражать основные социалистические ценности, не может быть направлен против публичного порядка (терроризм, экстремизим, свержение гос. власти и т.п.) и содержать дискриминирующую информацию.
Контент должен быть правдивым и точным, надлежит принять меры по предотвращению создания ложной информации.
Необходимо уважать права интеллектуальной собственности и защищать конкуренцию.
Компании и физ. лица, использующие такие системы ИИ (поставщики), несут все обязанности производителей контента и должны соответствовать требованиям о защите персональных данных.
Перед использованием систем генеративного ИИ для предоставления услуг населению необходимо провести оценку безопасности в гос. органе.
Поставщики несут ответственность за законность данных, используемых для обучения и функционирования таких систем ИИ (а также отсутствия в них ПД).
Продукт должен соответствовать требованиям нацональных законов о кибербезопасности.
Поставщики должны информировать пользователей о принципах работы систем генеративного ИИ и принимать меры для предотвращения чрезмерной зависимости или привыкания пользователей.
Вчера китайский регулятор также предложил усилить регулирование и контроль за использованием алгоритмов в разных сферах.
CNBC
China releases rules for generative AI like ChatGPT after Alibaba, Baidu launch services
The Cyberspace Administration of China's draft rules on generative AI come after tech giants Alibaba and Baidu launched their own ChatGPT-style products.
🤔1
США могут пересмотреть свой подход к регулированию применения искусственного интеллекта
Сенатор от демократической партии, лидер Большинства в Сенате Чарльз Шумер вот уже несколько месяцев распространяет и обсуждает с экспертами новый рамочный подход к регулированию применения искусственного интеллекта в США.
Новость интересна тем, что в США сейчас отсутствует сквозное федеральное регулирование сферы ИИ. Часто на соответствующие общественные отношения распространяются положения различных антидискриминационных федеральных законов.
Одновременно с этим на уровне некоторых штатов существует опережающее регулирование. Например, в Нью-Йорке принят акт, регулирующий применение автоматизированных систем принятия решений о приеме на работу (A Local Law to amend the administrative code of the city of New York, in relation to automated employment decision tools).
А в Колорадо существует закон штата, обязывающий страховые компании иметь систему управления рисками, защищающую граждан от дискриминации (Concerning protecting consumers from unfair discrimination in insurance practices).
До последнего времени США планировали регулировать эту сферу через мягкое право. В частности, Национальным институтом стандартов и технологий при Министерстве торговли США недавно принята система стандартов по риск-менеджменту ИИ (Artificial Intelligence Risk Management Framework). Документ оказывает важное регулирующее воздействие на индустрию, но в то же время его положения носят рекомендательный характер.
В новом подходе речь может идти про императивное регулирование на уровне федерации, затрагивающее применение ИИ в разных сферах общественных отношений. Сообщается, что предлагаемый подход достаточно широкий и гибкий, но при этом обеспечит безопасность, подотчетность и прозрачность технологии.
Сенатор планирует доработать свои предложения совместно с заинтересованными лицами из академической сферы, правозащитных организаций, промышленности и правительства.
Будут предприняты усилия по разработке комплексного нормативного правового акта. Возможно, предложения сенатора в ближайшее время обретут форму законодательной инициативы.
В то же время необходимо учитывать, что Бигтэки много лет последовательно выступают против комплексного законодательного регулирования.
Сенатор от демократической партии, лидер Большинства в Сенате Чарльз Шумер вот уже несколько месяцев распространяет и обсуждает с экспертами новый рамочный подход к регулированию применения искусственного интеллекта в США.
Новость интересна тем, что в США сейчас отсутствует сквозное федеральное регулирование сферы ИИ. Часто на соответствующие общественные отношения распространяются положения различных антидискриминационных федеральных законов.
Одновременно с этим на уровне некоторых штатов существует опережающее регулирование. Например, в Нью-Йорке принят акт, регулирующий применение автоматизированных систем принятия решений о приеме на работу (A Local Law to amend the administrative code of the city of New York, in relation to automated employment decision tools).
А в Колорадо существует закон штата, обязывающий страховые компании иметь систему управления рисками, защищающую граждан от дискриминации (Concerning protecting consumers from unfair discrimination in insurance practices).
До последнего времени США планировали регулировать эту сферу через мягкое право. В частности, Национальным институтом стандартов и технологий при Министерстве торговли США недавно принята система стандартов по риск-менеджменту ИИ (Artificial Intelligence Risk Management Framework). Документ оказывает важное регулирующее воздействие на индустрию, но в то же время его положения носят рекомендательный характер.
В новом подходе речь может идти про императивное регулирование на уровне федерации, затрагивающее применение ИИ в разных сферах общественных отношений. Сообщается, что предлагаемый подход достаточно широкий и гибкий, но при этом обеспечит безопасность, подотчетность и прозрачность технологии.
Сенатор планирует доработать свои предложения совместно с заинтересованными лицами из академической сферы, правозащитных организаций, промышленности и правительства.
Будут предприняты усилия по разработке комплексного нормативного правового акта. Возможно, предложения сенатора в ближайшее время обретут форму законодательной инициативы.
В то же время необходимо учитывать, что Бигтэки много лет последовательно выступают против комплексного законодательного регулирования.
www.democrats.senate.gov
Schumer Launches Major Effort To Get Ahead Of Artificial Intelligence | Senate Democratic Leadership
New York, N.Y. – Today, Senate Majority Leader Chuck Schumer (D-NY) launched a first-of-its-kind effort to advance and manage one of the fastest...
❤2👍2
Генеративный искусственный интеллект - верхушка айсберга
За последний год все мы стали свидетелями (и даже немного устали от новостей) вторжения в нашу жизнь больших языковых моделей и иных генеративных систем искусственного интеллекта.
Они рисуют изображения, пишут музыку и тексты, создают видео, распознают образы.
Все эти продукты охватываются более широким термином - системы ИИ общего назначения. Их масштабное использование ставит новые вызовы перед законодателями.
В нашем лонгриде мы рассматриваем особенности регулирования таких систем проектом Регламента ЕС об ИИ, а также критику его отдельных положений экспертным сообществом.
Полный текст доступен по ссылке ниже.
https://telegra.ph/general-purpose-AI-systems-04-16
За последний год все мы стали свидетелями (и даже немного устали от новостей) вторжения в нашу жизнь больших языковых моделей и иных генеративных систем искусственного интеллекта.
Они рисуют изображения, пишут музыку и тексты, создают видео, распознают образы.
Все эти продукты охватываются более широким термином - системы ИИ общего назначения. Их масштабное использование ставит новые вызовы перед законодателями.
В нашем лонгриде мы рассматриваем особенности регулирования таких систем проектом Регламента ЕС об ИИ, а также критику его отдельных положений экспертным сообществом.
Полный текст доступен по ссылке ниже.
https://telegra.ph/general-purpose-AI-systems-04-16
Telegraph
Системы искусственного интеллекта общего назначения в проекте Регламента Европейского союза об ИИ
Недавно мы публиковали пост о дискуссиях, которые ведутся вокруг закрепления систем ИИ общего назначения в проекте Регламента ЕС об ИИ. Для полноты картины советуем с ним предварительно ознакомиться. Системы ИИ общего назначения (general purpose AI systems)…
❤2👍1🔥1
В мире за 2022 год принято рекордное количество законов, связанных с искусственным интеллектом
По данным исследования Artificial Intelligence Index Report 2023 (Stanford Institute for Human-Centered AI), за 2016–2022 гг. в мире (127 стран) принято 123 закона с упоминанием термина “искусственный интеллект”. За этот период больше всего актов приняли в США – 22 закона. Обратим также внимание на Россию, в которой принято 9 законов.
В статистике законотворчества любопытным является не количество принятых актов, а их постоянное увеличение от года к году. В 2022 году было принято 37 законов, в то время как за весь 2016 год всего 1.
Принятые в 2022 году акты регулируют самые разные сферы общественных отношений, связанные с искусственным интеллектом. Несколько примеров из документа, иллюстрирующих широту областей регулирования:
Латвия (Поправки в Закон о национальной безопасности) – устанавливаются ограничения на деятельность коммерческих компаний, ассоциаций и фондов, важных для национальной безопасности, включая компании, занимающиеся разработкой искусственного интеллекта;
Испания (Право на равное обращение и недискриминацию) – устанавливается, что алгоритмы искусственного интеллекта, задействованные в принятии решений государственными органами, должны учитывать критерии минимизации предвзятости, прозрачности и подотчетности в случаях, когда это технически возможно;
Филиппины (Закон о второй комиссии Конгресса по образованию) – акт содержит призыв к проведению реформ в сфере образования с учетом стремительного развития искусственного интеллекта. Предусматривается создание комиссии Конгресса для изучения филиппинского образования и выработки рекомендаций по проведению реформ;
США (Закон об обучении в сфере ИИ) – предписывает Административно-бюджетному управлению (входит в администрацию Президента США) обеспечить реализацию программы обучения по ИИ для сотрудников исполнительных органов, отвечающих за закупки (с некоторыми исключениями). Целью программы является приобретение персоналам знаний о возможностях и рисках, связанных с применением ИИ.
Очевидно, что с каждым годом законодательство все более детально и многогранно будет регулировать разные сферы общественной жизни, которые соприкасаются с системами ИИ. Рост количества (надеемся и качества) нормативных правовых актов приведет к увеличению различного рода требований ко всем участникам общественных отношений.
По данным исследования Artificial Intelligence Index Report 2023 (Stanford Institute for Human-Centered AI), за 2016–2022 гг. в мире (127 стран) принято 123 закона с упоминанием термина “искусственный интеллект”. За этот период больше всего актов приняли в США – 22 закона. Обратим также внимание на Россию, в которой принято 9 законов.
В статистике законотворчества любопытным является не количество принятых актов, а их постоянное увеличение от года к году. В 2022 году было принято 37 законов, в то время как за весь 2016 год всего 1.
Принятые в 2022 году акты регулируют самые разные сферы общественных отношений, связанные с искусственным интеллектом. Несколько примеров из документа, иллюстрирующих широту областей регулирования:
Латвия (Поправки в Закон о национальной безопасности) – устанавливаются ограничения на деятельность коммерческих компаний, ассоциаций и фондов, важных для национальной безопасности, включая компании, занимающиеся разработкой искусственного интеллекта;
Испания (Право на равное обращение и недискриминацию) – устанавливается, что алгоритмы искусственного интеллекта, задействованные в принятии решений государственными органами, должны учитывать критерии минимизации предвзятости, прозрачности и подотчетности в случаях, когда это технически возможно;
Филиппины (Закон о второй комиссии Конгресса по образованию) – акт содержит призыв к проведению реформ в сфере образования с учетом стремительного развития искусственного интеллекта. Предусматривается создание комиссии Конгресса для изучения филиппинского образования и выработки рекомендаций по проведению реформ;
США (Закон об обучении в сфере ИИ) – предписывает Административно-бюджетному управлению (входит в администрацию Президента США) обеспечить реализацию программы обучения по ИИ для сотрудников исполнительных органов, отвечающих за закупки (с некоторыми исключениями). Целью программы является приобретение персоналам знаний о возможностях и рисках, связанных с применением ИИ.
Очевидно, что с каждым годом законодательство все более детально и многогранно будет регулировать разные сферы общественной жизни, которые соприкасаются с системами ИИ. Рост количества (надеемся и качества) нормативных правовых актов приведет к увеличению различного рода требований ко всем участникам общественных отношений.
❤2🔥2👍1
Юрфирмы и генеративные системы ИИ
На днях Институт Томсон Рейтер опубликовал отчет ChatGPT и генеративный ИИ в юридических фирмах. Отчет сформирован на основе опроса более 440 юристов из средних и крупных юридических фирм США, Великобритании и Канады.
В документе много интересных цифр. Однако хотим обратить ваше внимание на вторую половину отчета, она посвящена потенциальным рискам использования подобных систем ИИ.
Несмотря на то, что полезный потенциал их использования крайне велик, многие респонденты отметили проблемы относительно точности и безопасности функционирования таких систем, а также защищенности конфиденциальной информации (особенно применительно к таким публично доступным продуктам, как ChatGPT).
Даже те юрфирмы, которые выразили готовность использовать системы ИИ в своей деятельности, высказались за необходимость установления границ и правил их применения.
На днях Институт Томсон Рейтер опубликовал отчет ChatGPT и генеративный ИИ в юридических фирмах. Отчет сформирован на основе опроса более 440 юристов из средних и крупных юридических фирм США, Великобритании и Канады.
В документе много интересных цифр. Однако хотим обратить ваше внимание на вторую половину отчета, она посвящена потенциальным рискам использования подобных систем ИИ.
Несмотря на то, что полезный потенциал их использования крайне велик, многие респонденты отметили проблемы относительно точности и безопасности функционирования таких систем, а также защищенности конфиденциальной информации (особенно применительно к таким публично доступным продуктам, как ChatGPT).
Даже те юрфирмы, которые выразили готовность использовать системы ИИ в своей деятельности, высказались за необходимость установления границ и правил их применения.
🔥4❤1
Котики и системы ИИ
Подавляющее большинство концепций регулирования систем ИИ основаны на человекоцентричном подходе. Из названия уже очевидно, что такой подход определяет человека – его права и свободы – как главную ценность. Соблюдению и защите этой ценности должно быть подчинено функционирование систем ИИ. Да и в целом современное право сохраняет высокую степень антропоцентризма.
Сегодня мы обратим ваше внимание на интересную публикацию австралийских ученых из Университета Мельбурна Причинение вреда животным в связи с использованием искусственного интеллекта: систематический анализ и концепция.
Авторы отмечают, что системы ИИ активно взаимодействуют не только с людьми, но и с животными. Например, сейчас происходит активная автоматизация животноводства, системы ИИ отслеживают поведение диких животных, противостоят браконьерству и контрабанде. Даже домашние питомцы все чаще взаимодействуют с инфраструктурой умного дома. Пропорционально растут и риски прчинения вреда животным.
Для того, чтобы эффективно этими рисками управлять, авторы классифицировали случаи причинения вреда животным системами ИИ:
Социально осуждаемый и незаконный умышленный вред. Например, системы ИИ используются для браконьерства, незаконной торговли, отлова животных.
Социально приемлемый и законный умышленный вред. Например, животноводство, борьба с вредителями.
Неосторожный вред. Например, дтп с участием беспилотного транспорта, ошибки работы систем ИИ. Также могут быть косвенные негативные последствия от применения систем ИИ: разрушение среды обитания из-за использования систем ИИ (энергетика, добыча ресурсов), неверный сбор данных об окружающей среде в отсутствие человеческого контроля, предвзятости рекомендательных систем.
Вред от неиспользования. Например, недостаточное финансирование или игнорирование позитивного эффекта от использования систем ИИ в медицине, фармокологии, защите окружающей среды и т.п.
Таким образом, отношения человека и животных крайне многогранны. Даже к одному и тому же живому существу люди могут относиться по-разному. Например, в одних случаях оно может быть членом семьи и другом, а в других - пищей или объектом экспериментов. Поэтому и регулирование применения систем ИИ должно учитывать разные контексты.
Подавляющее большинство концепций регулирования систем ИИ основаны на человекоцентричном подходе. Из названия уже очевидно, что такой подход определяет человека – его права и свободы – как главную ценность. Соблюдению и защите этой ценности должно быть подчинено функционирование систем ИИ. Да и в целом современное право сохраняет высокую степень антропоцентризма.
Сегодня мы обратим ваше внимание на интересную публикацию австралийских ученых из Университета Мельбурна Причинение вреда животным в связи с использованием искусственного интеллекта: систематический анализ и концепция.
Авторы отмечают, что системы ИИ активно взаимодействуют не только с людьми, но и с животными. Например, сейчас происходит активная автоматизация животноводства, системы ИИ отслеживают поведение диких животных, противостоят браконьерству и контрабанде. Даже домашние питомцы все чаще взаимодействуют с инфраструктурой умного дома. Пропорционально растут и риски прчинения вреда животным.
Для того, чтобы эффективно этими рисками управлять, авторы классифицировали случаи причинения вреда животным системами ИИ:
Социально осуждаемый и незаконный умышленный вред. Например, системы ИИ используются для браконьерства, незаконной торговли, отлова животных.
Социально приемлемый и законный умышленный вред. Например, животноводство, борьба с вредителями.
Неосторожный вред. Например, дтп с участием беспилотного транспорта, ошибки работы систем ИИ. Также могут быть косвенные негативные последствия от применения систем ИИ: разрушение среды обитания из-за использования систем ИИ (энергетика, добыча ресурсов), неверный сбор данных об окружающей среде в отсутствие человеческого контроля, предвзятости рекомендательных систем.
Вред от неиспользования. Например, недостаточное финансирование или игнорирование позитивного эффекта от использования систем ИИ в медицине, фармокологии, защите окружающей среды и т.п.
Таким образом, отношения человека и животных крайне многогранны. Даже к одному и тому же живому существу люди могут относиться по-разному. Например, в одних случаях оно может быть членом семьи и другом, а в других - пищей или объектом экспериментов. Поэтому и регулирование применения систем ИИ должно учитывать разные контексты.
SpringerLink
Harm to Nonhuman Animals from AI: a Systematic Account and Framework
Philosophy & Technology - This paper provides a systematic account of how artificial intelligence (AI) technologies could harm nonhuman animals and explains why animal harms, often neglected in...
❤4
Нейронная оборона
Обнаружили крайне интересную книгу Инновации в сфере обороны на волне искусственного интеллекта: анализ стратегий, возможностей и траекторий развития применения искусственного интеллекта в вооруженных силах.
Издание представляет собой сборник статей, посвященных общим проблемам и региональным особенностям нормативного регулирования применения систем ИИ в воооружениях. В работах разных авторов рассматриваются такие страны и регионы, как ЕС, США, Россия, КНР, Южная Корея, Япония и Австралия.
Несмотря на то, что в своей академической и практической работе, как правило, мы занимаемся именно гражданским применением систем ИИ, отрасль обороны представляет крайний интерес для изучения. Данная сфера по понятным причинам предполагет особо жесткие требования к точности, кибербезопасности, непредвзятости и подотчетности функционирования систем ИИ. А, как мы хорошо знаем, военные разработки очень часто через некоторое время становятся частью нашей обыденной жизни. Более того, ряд систем ИИ являются товарами двойного назначения.
Также эта книга напомнила об организованной нами почти год назад на базе Университета имени О.Е. Кутафина (МГЮА) конференции “Право и искуственный интеллект”, где с участием представителей кафедры международного права состоялась интересная дискуссия о международно-правовых стандартах применения систем ИИ в вооруженных конфликтах.
Обнаружили крайне интересную книгу Инновации в сфере обороны на волне искусственного интеллекта: анализ стратегий, возможностей и траекторий развития применения искусственного интеллекта в вооруженных силах.
Издание представляет собой сборник статей, посвященных общим проблемам и региональным особенностям нормативного регулирования применения систем ИИ в воооружениях. В работах разных авторов рассматриваются такие страны и регионы, как ЕС, США, Россия, КНР, Южная Корея, Япония и Австралия.
Несмотря на то, что в своей академической и практической работе, как правило, мы занимаемся именно гражданским применением систем ИИ, отрасль обороны представляет крайний интерес для изучения. Данная сфера по понятным причинам предполагет особо жесткие требования к точности, кибербезопасности, непредвзятости и подотчетности функционирования систем ИИ. А, как мы хорошо знаем, военные разработки очень часто через некоторое время становятся частью нашей обыденной жизни. Более того, ряд систем ИИ являются товарами двойного назначения.
Также эта книга напомнила об организованной нами почти год назад на базе Университета имени О.Е. Кутафина (МГЮА) конференции “Право и искуственный интеллект”, где с участием представителей кафедры международного права состоялась интересная дискуссия о международно-правовых стандартах применения систем ИИ в вооруженных конфликтах.
Routledge & CRC Press
The AI Wave in Defence Innovation: Assessing Military Artificial Intelligence Strategies, Capabilities, and Trajectories
An international and interdisciplinary perspective on the adoption and governance of artificial intelligence (AI) and machine learning (ML) in defence and military innovation by major and middle powers.
Advancements in AI and ML pose pressing questions related…
Advancements in AI and ML pose pressing questions related…
❤3
Неэтичный Бард
Несколько дней назад в Bloomberg вышла статья, в которой сотрудники компании рассказали о нарушениях этических стандартов, возникших из-за спешки при разработке чат-бота Bard от компании Google.
Недавно в нашем посте (на примере их конкурента – чат-бота Bing от Microsoft) мы поднимали проблемы отсутствия необходимой оценки систем ИИ и допуска на рынок явно "сырых" продуктов из-за гонки за первенство среди технологических гигантов. Судя по всему, эта негативная тенденция коснулась большинства участников ИИ-гонки.
Статья Bloomberg написана на основе полученной журналистами документации и проведенных бесед о сложившейся ситуации с восемнадцатью текущими и бывшими сотрудниками компании.
По данным журналистов, топ-менеджмент Google настоял на скорейшем выходе чат-бота – несмотря на то, что сотрудники компании в ходе внутренней проверки выразили предостережения о неготовности продукта. Чат-бот был склонен давать неверные и предвзятые ответы. Более того, представители команды, отвечающие за ИИ-этику, рассказали о своих фактически "второстепенных ролях" в ходе разработки продукта. Весь фокус был сделан на разработку продукта, а возражения этической команды рассматривались как мешающие развитию технологий.
Таким образом, прозвенел очередной звонок, подтверждающий необходимость введения законодательных требований ко всем этапам жизненного цикла систем ИИ (а не только их фактического использования), а еще лучше установления обязательного независимого внешнего аудита.
Несколько дней назад в Bloomberg вышла статья, в которой сотрудники компании рассказали о нарушениях этических стандартов, возникших из-за спешки при разработке чат-бота Bard от компании Google.
Недавно в нашем посте (на примере их конкурента – чат-бота Bing от Microsoft) мы поднимали проблемы отсутствия необходимой оценки систем ИИ и допуска на рынок явно "сырых" продуктов из-за гонки за первенство среди технологических гигантов. Судя по всему, эта негативная тенденция коснулась большинства участников ИИ-гонки.
Статья Bloomberg написана на основе полученной журналистами документации и проведенных бесед о сложившейся ситуации с восемнадцатью текущими и бывшими сотрудниками компании.
По данным журналистов, топ-менеджмент Google настоял на скорейшем выходе чат-бота – несмотря на то, что сотрудники компании в ходе внутренней проверки выразили предостережения о неготовности продукта. Чат-бот был склонен давать неверные и предвзятые ответы. Более того, представители команды, отвечающие за ИИ-этику, рассказали о своих фактически "второстепенных ролях" в ходе разработки продукта. Весь фокус был сделан на разработку продукта, а возражения этической команды рассматривались как мешающие развитию технологий.
Таким образом, прозвенел очередной звонок, подтверждающий необходимость введения законодательных требований ко всем этапам жизненного цикла систем ИИ (а не только их фактического использования), а еще лучше установления обязательного независимого внешнего аудита.
Bloomberg.com
Google’s Rush to Win in AI Led to Ethical Lapses, Employees Say
The search giant is making compromises on misinformation and other harms in order to catch up with ChatGPT, workers say
Европейские авторы и исполнители просят защитить их от генеративных систем ИИ
Более 40 европейских общественных объединений, представляющие тысячи авторов, исполнителей и производителей контента из разных отраслей (журналистика, фотография, музыка, изобразительное искусство и т.д.) обратились с открытым письмом в адрес членов Европарламента, Еврокомиссии и Совета ЕС. Поводом для обращения стало стремительное распространение генеративных систем ИИ.
“Таких творческих людей, как мы, в Европе несколько миллионов; все мы живем благодаря своей творческой деятельности в культуре, в креативных индустриях и СМИ” – сообщается в письме.
В документе изложено их видение регулирования использования генеративных систем ИИ.
Изучение мнения профессионального сообщества никогда не является лишним. Мы решили рассмотреть их предложения. Забегая вперед скажем, что их беспокоит, прежде всего, вопрос защиты авторских прав.
Полный текст предложений и их обзор доступен по ссылке ниже:
https://telegra.ph/Artists-against-the-machines-04-24
Более 40 европейских общественных объединений, представляющие тысячи авторов, исполнителей и производителей контента из разных отраслей (журналистика, фотография, музыка, изобразительное искусство и т.д.) обратились с открытым письмом в адрес членов Европарламента, Еврокомиссии и Совета ЕС. Поводом для обращения стало стремительное распространение генеративных систем ИИ.
“Таких творческих людей, как мы, в Европе несколько миллионов; все мы живем благодаря своей творческой деятельности в культуре, в креативных индустриях и СМИ” – сообщается в письме.
В документе изложено их видение регулирования использования генеративных систем ИИ.
Изучение мнения профессионального сообщества никогда не является лишним. Мы решили рассмотреть их предложения. Забегая вперед скажем, что их беспокоит, прежде всего, вопрос защиты авторских прав.
Полный текст предложений и их обзор доступен по ссылке ниже:
https://telegra.ph/Artists-against-the-machines-04-24
Telegraph
Обзор предложений сообщества европейских авторов и исполнителей в связи с распространением генеративных систем ИИ
В Европе недавно было опубликовано открытое письмо представителей творческих профессий, в котором изложены их предложения о том, как следует регулировать использование генеративных систем ИИ (Authors and Performers Call for Safeguards. Around Generative AI…
🔥2
Как связаны Акт о цифровых услугах, цифровые платформы, поисковики и системы ИИ
Европейская комиссия определила в соответствии с Актом о цифровых услугах (Digital Services Act) список из семнадцати особо крупных цифровых платформ (Instagram, TikTok, Wikipedia, YouTube и д.р.) и двух особо крупных поисковых систем (Bing, Google Search). В соответствии с актом к ним относятся платформы и поисковые системы, которые ежемесячно охватывают не менее сорока пяти миллионов активных пользователей.
После включения в перечень эти компании должны будут в течение четырех месяцев выполнить ряд предусмотренных актом требований. Они направлены на ужесточение модерации контента, а также на расширение возможностей по информированию и обеспечению безопасности пользователей (особенно наиболее уязвимых групп).
Ряд требований применимы также и к системам ИИ, например:
Пользователи будут получать четкую информацию о том, почему им рекомендуется та или иная информация. Также они будут иметь возможность отказаться от использования рекомендаций, основанных на профилировании.
Реклама не может быть таргетировна на основе чувствительных данных пользователя (таких как этническое происхождение, политические взгляды или сексуальная ориентация).
Платформы должны маркировать все рекламные объявления и информировать пользователей об их заказчике.
Не разрешается таргетированная реклама, основанная на профилировании детей.
Должна будет проводиться оценка риска, включая возможное негативное влияние на психическое здоровье. Документы должны будут предоствляться Еврокомиссии, а затем и публиковаться.
Платформам и поисковым системам необходимо принять меры по устранению рисков, связанных с распространением незаконного контента в сети и негативным влиянием на свободу распространения информации и выражения мнений.
Платформам необходимо провести оценку рисков и принять меры по их снижению - например, для борьбы с распространением дезинформации и ненадлежащим пользованием услугами.
Платформам необходимо обеспечить проведение внешнего и независимого аудита на предмет соблюдения всех требований акта, в том числе и проведения оценки рисков.
Европейская комиссия определила в соответствии с Актом о цифровых услугах (Digital Services Act) список из семнадцати особо крупных цифровых платформ (Instagram, TikTok, Wikipedia, YouTube и д.р.) и двух особо крупных поисковых систем (Bing, Google Search). В соответствии с актом к ним относятся платформы и поисковые системы, которые ежемесячно охватывают не менее сорока пяти миллионов активных пользователей.
После включения в перечень эти компании должны будут в течение четырех месяцев выполнить ряд предусмотренных актом требований. Они направлены на ужесточение модерации контента, а также на расширение возможностей по информированию и обеспечению безопасности пользователей (особенно наиболее уязвимых групп).
Ряд требований применимы также и к системам ИИ, например:
Пользователи будут получать четкую информацию о том, почему им рекомендуется та или иная информация. Также они будут иметь возможность отказаться от использования рекомендаций, основанных на профилировании.
Реклама не может быть таргетировна на основе чувствительных данных пользователя (таких как этническое происхождение, политические взгляды или сексуальная ориентация).
Платформы должны маркировать все рекламные объявления и информировать пользователей об их заказчике.
Не разрешается таргетированная реклама, основанная на профилировании детей.
Должна будет проводиться оценка риска, включая возможное негативное влияние на психическое здоровье. Документы должны будут предоствляться Еврокомиссии, а затем и публиковаться.
Платформам и поисковым системам необходимо принять меры по устранению рисков, связанных с распространением незаконного контента в сети и негативным влиянием на свободу распространения информации и выражения мнений.
Платформам необходимо провести оценку рисков и принять меры по их снижению - например, для борьбы с распространением дезинформации и ненадлежащим пользованием услугами.
Платформам необходимо обеспечить проведение внешнего и независимого аудита на предмет соблюдения всех требований акта, в том числе и проведения оценки рисков.
European Commission - European Commission
Digital Services Act: Commission designates first set of Very Large Online Platforms and Search Engines
Today, the Commission adopted the first designation decisions under the Digital Services Act (DSA).
Может ли искусственный интеллект признаваться автором изобретения? Отвечает Верховный суд США
Короткая предыстория. Бюро по патентам и товарным знакам США отклонило в 2019 году заявление основателя компании Imagination Engines Стивена Талера о регистрации двух изобретений, созданных искусственным интеллектом. В поданных в Бюро документах вместо имени автора было указано название конкретной системы ИИ (DABUS). Для Бюро фактическим основанием для отклонения заявления являлось то, что Закон о патентах к авторам относит только человека.
Окружным судом США по Восточному округу штата Вирджиния, а также Апелляционным судом США по федеральному округу решение Бюро об отклонении заявления было признано правомерным.
Но Стивен Талер на этом не остановился и подал иск в Верховный суд США. Истец перед судом поставил ключевой вопрос: “Может ли только человек являться автором изобретения в соответствии с Законом о патентах?”.
Верховный суд США отказался рассматривать это дело. Иными словами, суд подтвердил, что искусственный интеллект не может быть признан автором изобретения.
Короткая предыстория. Бюро по патентам и товарным знакам США отклонило в 2019 году заявление основателя компании Imagination Engines Стивена Талера о регистрации двух изобретений, созданных искусственным интеллектом. В поданных в Бюро документах вместо имени автора было указано название конкретной системы ИИ (DABUS). Для Бюро фактическим основанием для отклонения заявления являлось то, что Закон о патентах к авторам относит только человека.
Окружным судом США по Восточному округу штата Вирджиния, а также Апелляционным судом США по федеральному округу решение Бюро об отклонении заявления было признано правомерным.
Но Стивен Талер на этом не остановился и подал иск в Верховный суд США. Истец перед судом поставил ключевой вопрос: “Может ли только человек являться автором изобретения в соответствии с Законом о патентах?”.
Верховный суд США отказался рассматривать это дело. Иными словами, суд подтвердил, что искусственный интеллект не может быть признан автором изобретения.
👍7🔥1
Идеи о роботах и ИИ в истории человечества
Сегодня обращаем ваше внимание на оригинальную книгу Клиффорда Пиковера Искусственный интеллект. Иллюстрированная история. От автоматов до нейросетей.
Несмотря на то, что книга вышла в 2019 году она не потеряла своей актуальности – учитывая историческую направленность. Имеется издание и на русском языке.
В книге рассказывается о ключевых идеях и изобретениях, придуманных людьми на разных этапах развития цивилизации вплоть до недавнего времени (2019 год).
В издании отражены основные вехи развития логики и математики, приводятся примеры технических продуктов от механических машин и автоматонов до робота-пылесоса Румба. Крайний интерес вызывает и то, каким образом искусственный интеллект и роботы рассматривались сквозь призму искусства, философии и поп-культуры.
Например, первого робота в мифах создал по заданию Зевса греческий бог Гефест для охраны и патрулирования территории. А Аристотель мечтал о замене рабов на автономные вещи:
«Если бы каждое орудие могло выполнять свойственную ему работу само, по данному ему приказанию или даже его предвосхищая, и уподоблялось бы статуям Дедала или треножникам Гефеста, о которых поэт говорит, что они «сами собой» входили в собрание богов; если бы ткацкие челноки сами ткали, а плектры сами играли на кифаре, тогда и зодчие не нуждались бы в работниках, а господам не нужны были бы рабы».
Аристотель “Политика”. Перевод С.А. Жебелева, 1983 год.
Сегодня обращаем ваше внимание на оригинальную книгу Клиффорда Пиковера Искусственный интеллект. Иллюстрированная история. От автоматов до нейросетей.
Несмотря на то, что книга вышла в 2019 году она не потеряла своей актуальности – учитывая историческую направленность. Имеется издание и на русском языке.
В книге рассказывается о ключевых идеях и изобретениях, придуманных людьми на разных этапах развития цивилизации вплоть до недавнего времени (2019 год).
В издании отражены основные вехи развития логики и математики, приводятся примеры технических продуктов от механических машин и автоматонов до робота-пылесоса Румба. Крайний интерес вызывает и то, каким образом искусственный интеллект и роботы рассматривались сквозь призму искусства, философии и поп-культуры.
Например, первого робота в мифах создал по заданию Зевса греческий бог Гефест для охраны и патрулирования территории. А Аристотель мечтал о замене рабов на автономные вещи:
«Если бы каждое орудие могло выполнять свойственную ему работу само, по данному ему приказанию или даже его предвосхищая, и уподоблялось бы статуям Дедала или треножникам Гефеста, о которых поэт говорит, что они «сами собой» входили в собрание богов; если бы ткацкие челноки сами ткали, а плектры сами играли на кифаре, тогда и зодчие не нуждались бы в работниках, а господам не нужны были бы рабы».
Аристотель “Политика”. Перевод С.А. Жебелева, 1983 год.
👍4❤2
Проект Регламента ЕС об ИИ стал на шаг ближе к принятию
Европарламентарии достигли соглашения по ключевым вопросам и готовы передать проект Регламента на следующую стадию законотворческого процесса. По ряду положений споры продолжались до последнего момента.
Также стало известно, что законодатели собираются обязать разработчиков генеративных систем ИИ раскрывать информацию об использовании любых материалов, защищенных авторским правом, при обучении таких систем.
Интересно, что данный вопрос также был поднят в открытом письме европейских авторов и исполнителей в связи с распространением генеративных систем ИИ, который мы рассматривали недавно в нашем материале.
Европарламентарии достигли соглашения по ключевым вопросам и готовы передать проект Регламента на следующую стадию законотворческого процесса. По ряду положений споры продолжались до последнего момента.
Также стало известно, что законодатели собираются обязать разработчиков генеративных систем ИИ раскрывать информацию об использовании любых материалов, защищенных авторским правом, при обучении таких систем.
Интересно, что данный вопрос также был поднят в открытом письме европейских авторов и исполнителей в связи с распространением генеративных систем ИИ, который мы рассматривали недавно в нашем материале.
EURACTIV
MEPs seal the deal on Artificial Intelligence Act
Following months of intense negotiations, members of the European Parliament (MEPs) have bridged their difference and reached a provisional political deal on the world’s first Artificial Intelligence rulebook.
👍4🔥3