Этика
Искусственный интеллект
📌Государства - члены ЮНЕСКО 25.11.2021 одобрили первые в истории глобальные этические стандарты, касающиеся развития искусственного интеллекта
👉В документе изложены общие ценности и принципы, которые будут определять создание необходимой правовой инфраструктуры для обеспечения здорового развития ИИ
👉Что отмечено разработчиками:
1️⃣Искусственный интеллект подтвердил свою значимость в борьбе с пандемией COVID-19
2️⃣Рост, обусловленный искусственным интеллектом, скорее всего, будет крайне неравномерным
3️⃣ИИ способствует дальнейшему увеличению гендерного разрыва
4️⃣ИИ может служить важным инструментом для решения проблем, связанных с изменением климата и окружающей средой
5️⃣Искусственный интеллект не может быть «зоной беззакония»
❗️Уже существующие этические дилеммы, связанные с ИИ:
☑️ беспилотный автомобиль
☑️ ИИ и искусство
☑️ ИИ в суде
☑️ гендерная предвзятость в ИИ
🌟РФ в группе из 24-х экспертов представляет вице-президент Сколтеха в области ИИ и математического моделирования профессор Максим Федоров
✅Принципиально важный документ для развития и самого ИИ и сферы его использования и регулирования.
Несколько цитат:
«Цель настоящей Рекомендации – заложить основу, которая позволит использовать ИИ на благо всего человечества, отдельного человека, обществ, окружающей среды и экосистем и не допустить причинения им вреда»
«Сформулированные ниже ценностные установки и принципы деятельности должны, во-первых, соблюдаться всеми заинтересованными сторонами на протяжении жизненного цикла ИИ-системы и поощряться путем внесения изменений в действующее законодательство и новые законы, нормативные положения и руководящие принципы предпринимательской деятельности. Принимаемые меры должны соответствовать положениям международного права, международным нормам, принципам и стандартам в области прав человека, а также согласовываться с задачами обеспечения устойчивости в социальной, политической, экологической, образовательной, научной и экономической областях»
https://ru.unesco.org/news/gosudarstva-chleny-yunesko-prinimayut-pervoe-globalnoe-soglashenie-po-eticheskim-aspektam
#этика
#искусственныйинтеллект
Искусственный интеллект
📌Государства - члены ЮНЕСКО 25.11.2021 одобрили первые в истории глобальные этические стандарты, касающиеся развития искусственного интеллекта
👉В документе изложены общие ценности и принципы, которые будут определять создание необходимой правовой инфраструктуры для обеспечения здорового развития ИИ
👉Что отмечено разработчиками:
1️⃣Искусственный интеллект подтвердил свою значимость в борьбе с пандемией COVID-19
2️⃣Рост, обусловленный искусственным интеллектом, скорее всего, будет крайне неравномерным
3️⃣ИИ способствует дальнейшему увеличению гендерного разрыва
4️⃣ИИ может служить важным инструментом для решения проблем, связанных с изменением климата и окружающей средой
5️⃣Искусственный интеллект не может быть «зоной беззакония»
❗️Уже существующие этические дилеммы, связанные с ИИ:
☑️ беспилотный автомобиль
☑️ ИИ и искусство
☑️ ИИ в суде
☑️ гендерная предвзятость в ИИ
🌟РФ в группе из 24-х экспертов представляет вице-президент Сколтеха в области ИИ и математического моделирования профессор Максим Федоров
✅Принципиально важный документ для развития и самого ИИ и сферы его использования и регулирования.
Несколько цитат:
«Цель настоящей Рекомендации – заложить основу, которая позволит использовать ИИ на благо всего человечества, отдельного человека, обществ, окружающей среды и экосистем и не допустить причинения им вреда»
«Сформулированные ниже ценностные установки и принципы деятельности должны, во-первых, соблюдаться всеми заинтересованными сторонами на протяжении жизненного цикла ИИ-системы и поощряться путем внесения изменений в действующее законодательство и новые законы, нормативные положения и руководящие принципы предпринимательской деятельности. Принимаемые меры должны соответствовать положениям международного права, международным нормам, принципам и стандартам в области прав человека, а также согласовываться с задачами обеспечения устойчивости в социальной, политической, экологической, образовательной, научной и экономической областях»
https://ru.unesco.org/news/gosudarstva-chleny-yunesko-prinimayut-pervoe-globalnoe-soglashenie-po-eticheskim-aspektam
#этика
#искусственныйинтеллект
www.unesco.org
UNESCO : Building Peace through Education, Science and Culture, communication and information
Learn more about UNESCO's role, vision and results. UNESCO is the United Nations Educational, Scientific and Cultural Organization. Our aim is to promote peace and security through international cooperation
Воскресное
Искусственный интеллект
Этика
📌Суд в Австралии не признал авторское право искусственного интеллекта DABUS (аббревиатура для «устройства для автономной загрузки единого сознания») в отношении «контейнера для пищевых продуктов и устройства для привлечения повышенного внимания»
👉Основания не признавать:
⛔️ непредоставление адреса и имени изобретателя
⛔️ неправоспособность ИИ (передача патента от изобретателя другому лицу – юридический акт, в котором обе стороны должны быть правоспособны)
❗️Интересные детали:
☑️ изобретение было автономно сгенерировано искусственный интеллект DABUS
☑️ иск подал владелец DABUS доктор Стивен Тайлер
☑️ до иска Патентное бюро IP Australia отказалось зарегистрировать это изобретение
✅Кейс ставит много интересных и юридических и этических вопросов от правосопособности ИИ, уровня автономности ИИ при создании чего-либо до возможности подавать в интересах ИИ иск в суд
В ближайшие годы скорее всего мы увидим много таких решений и дискуссий, похоже позицию формулировать уже надо, но пока все еще нет хорошей связки между правом, этикой и техническими особенностями функционирования ИИ
❓Ведь если ИИ правоспособен, но его владелец тогда кто по отношению к нему? И какие тогда между ними должны быть отношения? Чем регулироваться и т.д.
⚡️Ну и если совсем заглянуть вперед – то может быть однажды кому-то придется защищать в судах и права ИИ, но это уже другая история и реальность
https://pravo.ru/news/240400/
Текст решения здесь: https://www.judgments.fedcourt.gov.au/judgments/Judgments/fca/full/2022/2022fcafc0062
#воскресное
#искусственныйинтеллект
#этика
Искусственный интеллект
Этика
📌Суд в Австралии не признал авторское право искусственного интеллекта DABUS (аббревиатура для «устройства для автономной загрузки единого сознания») в отношении «контейнера для пищевых продуктов и устройства для привлечения повышенного внимания»
👉Основания не признавать:
⛔️ непредоставление адреса и имени изобретателя
⛔️ неправоспособность ИИ (передача патента от изобретателя другому лицу – юридический акт, в котором обе стороны должны быть правоспособны)
❗️Интересные детали:
☑️ изобретение было автономно сгенерировано искусственный интеллект DABUS
☑️ иск подал владелец DABUS доктор Стивен Тайлер
☑️ до иска Патентное бюро IP Australia отказалось зарегистрировать это изобретение
✅Кейс ставит много интересных и юридических и этических вопросов от правосопособности ИИ, уровня автономности ИИ при создании чего-либо до возможности подавать в интересах ИИ иск в суд
В ближайшие годы скорее всего мы увидим много таких решений и дискуссий, похоже позицию формулировать уже надо, но пока все еще нет хорошей связки между правом, этикой и техническими особенностями функционирования ИИ
❓Ведь если ИИ правоспособен, но его владелец тогда кто по отношению к нему? И какие тогда между ними должны быть отношения? Чем регулироваться и т.д.
⚡️Ну и если совсем заглянуть вперед – то может быть однажды кому-то придется защищать в судах и права ИИ, но это уже другая история и реальность
https://pravo.ru/news/240400/
Текст решения здесь: https://www.judgments.fedcourt.gov.au/judgments/Judgments/fca/full/2022/2022fcafc0062
#воскресное
#искусственныйинтеллект
#этика
ПРАВО.Ru
Суд в Австралии не признал авторское право искусственного интеллекта
Он указал, что вопрос об авторстве искусственного интеллекта и возможности для машины выступить в качестве изобретателя необходимо проработать как можно скорее. Но действующее законодательство Австралии не допускает оформления патента на машину без имени…
Этика
Искусственный интеллект
📌Кому интересна тема развития искусственного интеллекта можно пройти опрос на тему «Этика беспилотных автомобилей в ситуациях неизбежного столкновения» (опрос опубликован ВКонтакте на странице Максима Сторчевого, Директора Russian Business Ethics Network (RBEN), доцент НИУ ВШЭ в Санкт-Петербурге)
❗️Некоторые вопросы и для человека будут непростыми, но поразмышлять в процессе опроса над своей собственной этикой и моделью принятия решений (пусть даже гипотетической) интересно
👉Опрос анонимный, занимает 10 мин
Пройти опрос можно здесь: https://docs.google.com/forms/d/e/1FAIpQLSfoaRVcMsAmwTbEiiZVWBBqDT53LMEsNSg7z_vdUieiaCYB9Q/viewform
#этика
#искусственныйинтеллект
Искусственный интеллект
📌Кому интересна тема развития искусственного интеллекта можно пройти опрос на тему «Этика беспилотных автомобилей в ситуациях неизбежного столкновения» (опрос опубликован ВКонтакте на странице Максима Сторчевого, Директора Russian Business Ethics Network (RBEN), доцент НИУ ВШЭ в Санкт-Петербурге)
❗️Некоторые вопросы и для человека будут непростыми, но поразмышлять в процессе опроса над своей собственной этикой и моделью принятия решений (пусть даже гипотетической) интересно
👉Опрос анонимный, занимает 10 мин
Пройти опрос можно здесь: https://docs.google.com/forms/d/e/1FAIpQLSfoaRVcMsAmwTbEiiZVWBBqDT53LMEsNSg7z_vdUieiaCYB9Q/viewform
#этика
#искусственныйинтеллект
Google Docs
Этика беспилотных автомобилей в ситуациях неизбежного столкновения
Добрый день!
Данный (АНОНИМНЫЙ) опрос посвящён участникам дорожного движения, которое возникнет после полноценной интеграции беспилотных автомобилей. Технический прогресс своё дело уже сделал, а вот этические вопросы остались во многом открытыми.
Наша команда…
Данный (АНОНИМНЫЙ) опрос посвящён участникам дорожного движения, которое возникнет после полноценной интеграции беспилотных автомобилей. Технический прогресс своё дело уже сделал, а вот этические вопросы остались во многом открытыми.
Наша команда…
Этика
Искусственный интеллект
📌Инженера по программному обеспечению компании Google Блейка Лемойна принудительно отправили в оплачиваемый административный отпуск после того, как он предоставил руководству отчет о том, что созданная на базе ИИ нейросеть обладает собственным сознанием
✅ ничто так не оживляет строчки уже написанных Кодексов этики ИИ как такие новости
В любом случае - жёсткость реакции Google лишь подчёркивает масштаб проблемы и (будущие) сложности с ее решением
Фантастика становится реальностью каждый день
Но готовы ли мы?
https://rb.ru/news/soznanie-lamda/
Оригинальная ссылка: https://www.washingtonpost.com/technology/2022/06/11/google-ai-lamda-blake-lemoine/
Про этические стандарты ЮНЕСКО для ИИ здесь : https://t.iss.one/compliancecraft/479
Противоречивый кейс о правах ИИ: https://t.iss.one/compliancecraft/630
Поразмышлять о вариантах действии ИИ можно, пройдя опрос здесь: https://t.iss.one/compliancecraft/678
#этика
#искусственныйинтеллект
Искусственный интеллект
📌Инженера по программному обеспечению компании Google Блейка Лемойна принудительно отправили в оплачиваемый административный отпуск после того, как он предоставил руководству отчет о том, что созданная на базе ИИ нейросеть обладает собственным сознанием
✅ ничто так не оживляет строчки уже написанных Кодексов этики ИИ как такие новости
В любом случае - жёсткость реакции Google лишь подчёркивает масштаб проблемы и (будущие) сложности с ее решением
Фантастика становится реальностью каждый день
Но готовы ли мы?
https://rb.ru/news/soznanie-lamda/
Оригинальная ссылка: https://www.washingtonpost.com/technology/2022/06/11/google-ai-lamda-blake-lemoine/
Про этические стандарты ЮНЕСКО для ИИ здесь : https://t.iss.one/compliancecraft/479
Противоречивый кейс о правах ИИ: https://t.iss.one/compliancecraft/630
Поразмышлять о вариантах действии ИИ можно, пройдя опрос здесь: https://t.iss.one/compliancecraft/678
#этика
#искусственныйинтеллект
rb.ru
Инженер Google обнаружил сознание у нейросети LaMDA | RB.RU
На что руководство предложило ему «отдохнуть» за счет компании
Этика
Искусственный интеллект
📌Участники первой международной школы AI Ethics Summer School Университета Иннополис (04 – 12 июля 2022) разработают правила, регламентирующие этические аспекты применения искусственного интеллекта индустриальными компаниями
👉В работе школы участвуют эксперты из Cбера, Аналитического центра при Правительстве РФ, Агентства искусственного интеллекта, СИБУР Диджитал, МТС, МГТУ им. Н.Э. Баумана, МГИМО, Университета Иннополис, Фонда Сколково, Сколтеха
👉Компаний из IT и разных сфер экономики участники Летней школы организуются в команды, в составе которых будут студенты юридического и философского направлений, а также студенты Университета Иннополис
👉Предполагаемое распределение обязанностей:
☑️студенты философских направлений будут искать этическую проблематику в различных отраслях цифровой экономики
☑️студенты юридических направлений - опишут документальную часть
☑️студенты Университета Иннополис помогут по техническим вопросам
👉Кто участвует:
к участию в AI Ethics Summer School отобраны студенты магистратуры, аспирантуры и бакалавриата последних курсов юридических или философских направлений, а также специалисты в области информационных технологий
✅Интересная тема, фокус и состав преподавателей школы. Будет интересно посмотреть на результат работы студентов.
❗️А между тем уже:
➡️21.04.2021 был опубликован проект регламента Европейского союза «О европейском подходе для искусственного интеллекта» (Regulation on a European Approach for Artificial Intelligent)
➡️26.10.2021 в России в рамках форума Альянс в сфере искусственного интеллекта и несколько других организаций подписали «Кодекс этики ИИ»
➡️25.11.2021 в рамках ЮНЕСКО были приняты первые в истории глобальные этические стандарты, касающиеся развития искусственного интеллекта
➡️13.04.2022 Суд в Австралии не признал авторское право искусственного интеллекта
❓Ясно, что попытки осмыслить и формализовать подходы и смыслы этики искусственного интеллекта будут еще не раз описаны, другой вопрос:
✔️а КАК это будет работать?
✔️Какой регулятор сможет/будет это контролировать?
✔️К кому и как будут применяться санкции за неэтичные действия ИИ?
https://tass.ru/ekonomika/15121199
О летней первой международной школы AI Ethics Summer School Университета Иннополис здесь (регистрация закрыта): https://aistudy.innopolis.university/aisumsch
Документ ЮНЕСКО здесь: https://t.iss.one/compliancecraft/479
Регламент ЕС https://t.iss.one/compliancecraft/449
Кодекс этики ИИ РФ: https://t.iss.one/compliancecraft/447
О кейсе про авторское право ИИ (Австралия): https://t.iss.one/compliancecraft/630
#этика
#искусственныйинтеллект
Искусственный интеллект
📌Участники первой международной школы AI Ethics Summer School Университета Иннополис (04 – 12 июля 2022) разработают правила, регламентирующие этические аспекты применения искусственного интеллекта индустриальными компаниями
👉В работе школы участвуют эксперты из Cбера, Аналитического центра при Правительстве РФ, Агентства искусственного интеллекта, СИБУР Диджитал, МТС, МГТУ им. Н.Э. Баумана, МГИМО, Университета Иннополис, Фонда Сколково, Сколтеха
👉Компаний из IT и разных сфер экономики участники Летней школы организуются в команды, в составе которых будут студенты юридического и философского направлений, а также студенты Университета Иннополис
👉Предполагаемое распределение обязанностей:
☑️студенты философских направлений будут искать этическую проблематику в различных отраслях цифровой экономики
☑️студенты юридических направлений - опишут документальную часть
☑️студенты Университета Иннополис помогут по техническим вопросам
👉Кто участвует:
к участию в AI Ethics Summer School отобраны студенты магистратуры, аспирантуры и бакалавриата последних курсов юридических или философских направлений, а также специалисты в области информационных технологий
✅Интересная тема, фокус и состав преподавателей школы. Будет интересно посмотреть на результат работы студентов.
❗️А между тем уже:
➡️21.04.2021 был опубликован проект регламента Европейского союза «О европейском подходе для искусственного интеллекта» (Regulation on a European Approach for Artificial Intelligent)
➡️26.10.2021 в России в рамках форума Альянс в сфере искусственного интеллекта и несколько других организаций подписали «Кодекс этики ИИ»
➡️25.11.2021 в рамках ЮНЕСКО были приняты первые в истории глобальные этические стандарты, касающиеся развития искусственного интеллекта
➡️13.04.2022 Суд в Австралии не признал авторское право искусственного интеллекта
❓Ясно, что попытки осмыслить и формализовать подходы и смыслы этики искусственного интеллекта будут еще не раз описаны, другой вопрос:
✔️а КАК это будет работать?
✔️Какой регулятор сможет/будет это контролировать?
✔️К кому и как будут применяться санкции за неэтичные действия ИИ?
https://tass.ru/ekonomika/15121199
О летней первой международной школы AI Ethics Summer School Университета Иннополис здесь (регистрация закрыта): https://aistudy.innopolis.university/aisumsch
Документ ЮНЕСКО здесь: https://t.iss.one/compliancecraft/479
Регламент ЕС https://t.iss.one/compliancecraft/449
Кодекс этики ИИ РФ: https://t.iss.one/compliancecraft/447
О кейсе про авторское право ИИ (Австралия): https://t.iss.one/compliancecraft/630
#этика
#искусственныйинтеллект
TACC
Студенты из России, Казахстана и Армении составят рекомендации для этического кодекса ИИ - ТАСС
Как отметил руководитель Института искусственного интеллекта Университета Иннополис Рамиль Кулеев, тема этики в ИИ новая и специалистов в этой области мало
Искусственный интеллект
Этика
Комплаенс
📌28.03.23 глава Tesla, SpaceX и Twitter Илон Маск, сооснователь Pinterest Эван Шарп и сооснователь Apple Стив Возняк, а также более 1000 экспертов на сайте организации Future of Life подписали открытое письмо с призывом остановить обучение нейросетей
👉Вопросы, которыми задаются авторы письма:
❓ Должны ли мы позволять машинам наводнять наши информационные каналы пропагандой и неправдой?
❓ Должны ли мы автоматизировать все рабочие места?
❓ Должны ли мы развивать нечеловеческие умы, которые в конечном итоге могут превзойти нас численностью, перехитрить, сделать нас ненужными и заменить нас?
❓ Должны ли мы рисковать потерей контроля над нашей цивилизацией?
❗️Такие решения нельзя делегировать неизбранным техническим лидерам
👉Основной призыв письма:
«☑️Мы призываем все лаборатории, исследующие искусственный интеллект, немедленно прекратить хотя бы на шесть месяцев тренировки систем мощнее GPT-4. Эта пауза должна быть публичной и действительной. Если же подобная приостановка не может быть сделана быстро, правительства государств должны вмешаться и ввести мораторий.
☑️Если такая пауза не может быть введена быстро, правительствам следует вмешаться и ввести мораторий
☑️Лаборатории искусственного интеллекта и независимые эксперты должны использовать эту паузу для совместной разработки и внедрения набора общих протоколов безопасности для продвинутого проектирования и разработки ИИ, которые тщательно проверяются и контролируются независимыми внешними экспертами. Эти протоколы должны гарантировать, что системы, придерживающиеся их, вне всяких разумных сомнений, безопасны»
❗️Подписанты письма ссылаются на Принципы ИИ Asilomar, координируемые FLI и разработанные на конференции Benefit AI 2017.
👉Принципы содержат:
✔️ 18 вопросов по этике и ценностям
✔️ 5 долгосрочных проблем
https://www.rbc.ru/life/news/6424457c9a7947ebee7f7534
Текст письма: https://futureoflife.org/open-letter/pause-giant-ai-experiments/
Принципы ИИ Asilomar, координируемые FLI и разработанные на конференции Benefit AI 2017: https://futureoflife.org/open-letter/ai-principles/
📌28.03.23 появилась новость, что в Бельгии покончил с собой человек (Пьер, вымышленное имя) после 6 недель общения с “Элизой” (ИИ), разговорным агентом, основанным на искусственном интеллекте (ИИ), таким как широко разрекламированный ChatGPT, но основанном на другой разговорной модели. Темой разговоров было беспокойство Пьера об окружающей среде
❗️Детали: "Манера ответа «Элизы» всегда шла Пьеру на пользу, она не ставит под сомнение его вопросы. Его опасения усиливались. И постепенно ответы робота становились все более запутанными. Разговор перешел на мистику. Пьер вспоминает самоубийство. Элиза пишет, что останется с ним “навсегда”. “Мы будем жить вместе, как один человек, на небесах”.
ИИ не сделал ничего, чтобы помешать Пьеру действовать, задаваясь вопросами о риске причинения себе вреда"
https://ria.ru/20230329/ii-1861467723.html
Оригинальная статья L'Avenir с деталями: https://www.lavenir.net/actu/belgique/2023/03/28/un-belge-se-donne-la-mort-apres-6-semaines-de-conversations-avec-une-intelligence-artificielle-76MEJ5DBRBEVDM62LTPJJTII4Q/?cx_testId=30&cx_testVariant=cx_1&cx_artPos=1#cxrecs_s
✅Мне кажется важным осознать, что мы стоим на пороге совсем другого мира, насколько он будет похож на мир мрачных антиутопий во многом зависит от каждого из нас, от желания разбираться в этих вопросам, поднимать этические, ценностные и цивилизационные вопросы и искать ответы вместе с IT-сообществом.
⚡️⚡️⚡️Вопросы законодательного регулирования, комплаенс-контролей стоят во второй очереди за формированием этических норм, смыслов и способов контроля за развитием ИИ
Оставляю эту новость на подумать.
❓И хороший вопрос: а в ваших компаниях, особенно в IT-компаниях есть ли этический контроль за разработками и моделирование этических проблем в связи с запуском продуктов?
p.s. завтра поговорим об этом в #ComplianceCraftLIVE
#искусственныйинтеллект
#этика
#комплаенс
Этика
Комплаенс
📌28.03.23 глава Tesla, SpaceX и Twitter Илон Маск, сооснователь Pinterest Эван Шарп и сооснователь Apple Стив Возняк, а также более 1000 экспертов на сайте организации Future of Life подписали открытое письмо с призывом остановить обучение нейросетей
👉Вопросы, которыми задаются авторы письма:
❓ Должны ли мы позволять машинам наводнять наши информационные каналы пропагандой и неправдой?
❓ Должны ли мы автоматизировать все рабочие места?
❓ Должны ли мы развивать нечеловеческие умы, которые в конечном итоге могут превзойти нас численностью, перехитрить, сделать нас ненужными и заменить нас?
❓ Должны ли мы рисковать потерей контроля над нашей цивилизацией?
❗️Такие решения нельзя делегировать неизбранным техническим лидерам
👉Основной призыв письма:
«☑️Мы призываем все лаборатории, исследующие искусственный интеллект, немедленно прекратить хотя бы на шесть месяцев тренировки систем мощнее GPT-4. Эта пауза должна быть публичной и действительной. Если же подобная приостановка не может быть сделана быстро, правительства государств должны вмешаться и ввести мораторий.
☑️Если такая пауза не может быть введена быстро, правительствам следует вмешаться и ввести мораторий
☑️Лаборатории искусственного интеллекта и независимые эксперты должны использовать эту паузу для совместной разработки и внедрения набора общих протоколов безопасности для продвинутого проектирования и разработки ИИ, которые тщательно проверяются и контролируются независимыми внешними экспертами. Эти протоколы должны гарантировать, что системы, придерживающиеся их, вне всяких разумных сомнений, безопасны»
❗️Подписанты письма ссылаются на Принципы ИИ Asilomar, координируемые FLI и разработанные на конференции Benefit AI 2017.
👉Принципы содержат:
✔️ 18 вопросов по этике и ценностям
✔️ 5 долгосрочных проблем
https://www.rbc.ru/life/news/6424457c9a7947ebee7f7534
Текст письма: https://futureoflife.org/open-letter/pause-giant-ai-experiments/
Принципы ИИ Asilomar, координируемые FLI и разработанные на конференции Benefit AI 2017: https://futureoflife.org/open-letter/ai-principles/
📌28.03.23 появилась новость, что в Бельгии покончил с собой человек (Пьер, вымышленное имя) после 6 недель общения с “Элизой” (ИИ), разговорным агентом, основанным на искусственном интеллекте (ИИ), таким как широко разрекламированный ChatGPT, но основанном на другой разговорной модели. Темой разговоров было беспокойство Пьера об окружающей среде
❗️Детали: "Манера ответа «Элизы» всегда шла Пьеру на пользу, она не ставит под сомнение его вопросы. Его опасения усиливались. И постепенно ответы робота становились все более запутанными. Разговор перешел на мистику. Пьер вспоминает самоубийство. Элиза пишет, что останется с ним “навсегда”. “Мы будем жить вместе, как один человек, на небесах”.
ИИ не сделал ничего, чтобы помешать Пьеру действовать, задаваясь вопросами о риске причинения себе вреда"
https://ria.ru/20230329/ii-1861467723.html
Оригинальная статья L'Avenir с деталями: https://www.lavenir.net/actu/belgique/2023/03/28/un-belge-se-donne-la-mort-apres-6-semaines-de-conversations-avec-une-intelligence-artificielle-76MEJ5DBRBEVDM62LTPJJTII4Q/?cx_testId=30&cx_testVariant=cx_1&cx_artPos=1#cxrecs_s
✅Мне кажется важным осознать, что мы стоим на пороге совсем другого мира, насколько он будет похож на мир мрачных антиутопий во многом зависит от каждого из нас, от желания разбираться в этих вопросам, поднимать этические, ценностные и цивилизационные вопросы и искать ответы вместе с IT-сообществом.
⚡️⚡️⚡️Вопросы законодательного регулирования, комплаенс-контролей стоят во второй очереди за формированием этических норм, смыслов и способов контроля за развитием ИИ
Оставляю эту новость на подумать.
❓И хороший вопрос: а в ваших компаниях, особенно в IT-компаниях есть ли этический контроль за разработками и моделирование этических проблем в связи с запуском продуктов?
p.s. завтра поговорим об этом в #ComplianceCraftLIVE
#искусственныйинтеллект
#этика
#комплаенс
РБК Life
Илон Маск призвал приостановить разработку и обучение нейросетей
Создателям искусственного интеллекта (ИИ) необходимо остановить исследование мощных систем. Открытое письмо с таким призывом появилось на сайте организации Future of Life 28 марта. Его подписали в ...
Мероприятия
Искусственный интеллект
Комплаенс
📌НИУ ВШЭ совместно с Общественной палатой РФ проведут круглый стол «Вопросы правового регулирования и применения нейросетевых технологий»
⏱Дата: 18.04.2023
⏱Время: в 14.00 (время Москвы)
❗️Формат: Очно/онлайн (ссылка после регистрации)
👉Рассматриваемые темы:
✅ динамика развития нейросетей, включая большие языковые модели типа СhatGPT
✅ перспективы и возможные угрозы их применения
✅ необходимость правового регулирования и государственной поддержки указанной сферы
❗️Мероприятие бесплатное
👉Регистрация здесь: https://pravo.hse.ru/announcements/826917714.html?ysclid=lgkh97f3r6876113648
👉Еще по теме:
Эфир в канале по теме: «Искусственный интеллект: регулирование, этика и ценности», материал и запись здесь: https://t.iss.one/compliancecraft/1099
#мероприятия
#искусственныйинтеллект
#комплаенс
Искусственный интеллект
Комплаенс
📌НИУ ВШЭ совместно с Общественной палатой РФ проведут круглый стол «Вопросы правового регулирования и применения нейросетевых технологий»
⏱Дата: 18.04.2023
⏱Время: в 14.00 (время Москвы)
❗️Формат: Очно/онлайн (ссылка после регистрации)
👉Рассматриваемые темы:
✅ динамика развития нейросетей, включая большие языковые модели типа СhatGPT
✅ перспективы и возможные угрозы их применения
✅ необходимость правового регулирования и государственной поддержки указанной сферы
❗️Мероприятие бесплатное
👉Регистрация здесь: https://pravo.hse.ru/announcements/826917714.html?ysclid=lgkh97f3r6876113648
👉Еще по теме:
Эфир в канале по теме: «Искусственный интеллект: регулирование, этика и ценности», материал и запись здесь: https://t.iss.one/compliancecraft/1099
#мероприятия
#искусственныйинтеллект
#комплаенс
pravo.hse.ru
НИУ ВШЭ совместно с Общественной палатой РФ проведут круглый стол «Вопросы правового регулирования и применения нейросетевых технологий»
Заседание круглого стола состоится 18 апреля в 14:00 по адресу: г. Москва, Покровский б-р, 11, зал F-301.
Искусственный интеллект
Комплаенс
Этика
📌Роскомнадзор и Главный радиочастотный центр совместно с аналитическим центром MindSmith и «Ростелекомом» выпустили исследование на тему: «Инструменты ИИ в руках злоумышленников – классификация угроз и способы противодействия»
👉Исследование выделяет 12 приоритетных технологий:
☑️обнаружение дипфейков
☑️определение контекста происходящего на видео
☑️автоматизация мониторинга и модерации контента
☑️распознавание лиц
☑️извлечение смысла из текста
☑️поддержка проверки фактов
☑️распознавание символики
☑️извлечение и анализ метаданных
☑️распознавание эмоций
☑️поддержка решений при информационных атаках
☑️генерация контента
☑️рекомендация контента
👉Ключевые выводы:
✔️В России есть экспертиза для создания отечественных датасетов и моделей, но не хватает вычислительных мощностей, инфраструктуры и кооперации между ключевыми стейкхолдерами
✔️ Китай и США лидируют с большим отрывом в существенной части кластеров. В обеих странах развито сотрудничество государственных
организаций с коммерческими
✔️ Из-за автоматизации информационных войн и развития генеративных моделей будет крайне проблематично обеспечить когнитивную безопасность населения без внедрения ИИ
✔️ Наличие отечественных моделей и их внедрение, а также использование отечественных датасетов — вопрос национальной безопасности
✔️ Разработка процедур тестирования и оценки моделей — важная инфраструктурная задача
✔️ Существенная доля моделей представляет собой «чёрный ящик» — из-за огромного объёма параметров крайне сложно определить, как именно эти модели принимают свои решения. Это – угроза
✔️ ❗️Регуляторика в большинстве стран не успевает за скоростью развития технологий
✔️На данный момент ИИ всё ещё далек от реального понимания контекста и культурных нюансов, чем нередко
пользуются злоумышленники
🖌Несколько цитат:
«Существуют проблемы в этике и производительности, которые ещё не разрешены»
«Платформы редко раскрывают информацию о работе ИИ, интегрированного в их систему модерации, а правила, описанные публично самой платформой, часто не соответствуют фактическому подходу»
«И пользователи решений, и разработчики собирают огромное количество фотографий с лицами людей. Чаще всего эти базы данных не деперсонализируются»
«Проверка правдивости публичных заявлений – необходимый процесс в условиях постправды, и запрос на него растет. Каждая проверка является по сути небольшим расследованием, сложность которого зависит от контекста. В эпоху постправды ценность заявлений смещается от фактической верности к эмоциональному эффекту и стыковке с субъективными убеждениями аудитории»
«ИИ не способен к эмпатии, но может распознавать эмоции»
«Социальная киберезопасность – новая инженерно-социологическая наука, за стыке IT и социологии»
«Рекомендательные системы не имеют встроенного этического фильтра, их настройки задаются той или иной платформой»
🔥Исследование содержит «карту технологий» и обширный список литературы для пытливых умов
✅Технологии опережают не только регуляторику, но и этический компонент в точки зрения формирования этически верной позиции как компаний-разработчиков (большинство сил уходит на разработку без учета этических рисков), так и клиентов/пользователей, которые пока еще не умеют не то что бы сопротивляться, а даже вопросы многие пока не задают, «проглатывая» все как есть
👉И если появилась социальная кибербезопасность как наука, и почти невозможно успеть из-за сложностей законотворчества принять вовремя корректное регулирование, то значит трансляция и контроль этичности технологий как таковых – может и скорее всего должен стать отдельным направлением как внутри компании (новое направление этического комплаенса), так и у регуляторов
https://rdc.grfc.ru/2023/04/ai_priority_area_application/
Эфир в канале и материалы по тематике ИИ: https://t.iss.one/compliancecraft/1099
#искусственныйинтеллект
#этика
#комплаенс
Комплаенс
Этика
📌Роскомнадзор и Главный радиочастотный центр совместно с аналитическим центром MindSmith и «Ростелекомом» выпустили исследование на тему: «Инструменты ИИ в руках злоумышленников – классификация угроз и способы противодействия»
👉Исследование выделяет 12 приоритетных технологий:
☑️обнаружение дипфейков
☑️определение контекста происходящего на видео
☑️автоматизация мониторинга и модерации контента
☑️распознавание лиц
☑️извлечение смысла из текста
☑️поддержка проверки фактов
☑️распознавание символики
☑️извлечение и анализ метаданных
☑️распознавание эмоций
☑️поддержка решений при информационных атаках
☑️генерация контента
☑️рекомендация контента
👉Ключевые выводы:
✔️В России есть экспертиза для создания отечественных датасетов и моделей, но не хватает вычислительных мощностей, инфраструктуры и кооперации между ключевыми стейкхолдерами
✔️ Китай и США лидируют с большим отрывом в существенной части кластеров. В обеих странах развито сотрудничество государственных
организаций с коммерческими
✔️ Из-за автоматизации информационных войн и развития генеративных моделей будет крайне проблематично обеспечить когнитивную безопасность населения без внедрения ИИ
✔️ Наличие отечественных моделей и их внедрение, а также использование отечественных датасетов — вопрос национальной безопасности
✔️ Разработка процедур тестирования и оценки моделей — важная инфраструктурная задача
✔️ Существенная доля моделей представляет собой «чёрный ящик» — из-за огромного объёма параметров крайне сложно определить, как именно эти модели принимают свои решения. Это – угроза
✔️ ❗️Регуляторика в большинстве стран не успевает за скоростью развития технологий
✔️На данный момент ИИ всё ещё далек от реального понимания контекста и культурных нюансов, чем нередко
пользуются злоумышленники
🖌Несколько цитат:
«Существуют проблемы в этике и производительности, которые ещё не разрешены»
«Платформы редко раскрывают информацию о работе ИИ, интегрированного в их систему модерации, а правила, описанные публично самой платформой, часто не соответствуют фактическому подходу»
«И пользователи решений, и разработчики собирают огромное количество фотографий с лицами людей. Чаще всего эти базы данных не деперсонализируются»
«Проверка правдивости публичных заявлений – необходимый процесс в условиях постправды, и запрос на него растет. Каждая проверка является по сути небольшим расследованием, сложность которого зависит от контекста. В эпоху постправды ценность заявлений смещается от фактической верности к эмоциональному эффекту и стыковке с субъективными убеждениями аудитории»
«ИИ не способен к эмпатии, но может распознавать эмоции»
«Социальная киберезопасность – новая инженерно-социологическая наука, за стыке IT и социологии»
«Рекомендательные системы не имеют встроенного этического фильтра, их настройки задаются той или иной платформой»
🔥Исследование содержит «карту технологий» и обширный список литературы для пытливых умов
✅Технологии опережают не только регуляторику, но и этический компонент в точки зрения формирования этически верной позиции как компаний-разработчиков (большинство сил уходит на разработку без учета этических рисков), так и клиентов/пользователей, которые пока еще не умеют не то что бы сопротивляться, а даже вопросы многие пока не задают, «проглатывая» все как есть
👉И если появилась социальная кибербезопасность как наука, и почти невозможно успеть из-за сложностей законотворчества принять вовремя корректное регулирование, то значит трансляция и контроль этичности технологий как таковых – может и скорее всего должен стать отдельным направлением как внутри компании (новое направление этического комплаенса), так и у регуляторов
https://rdc.grfc.ru/2023/04/ai_priority_area_application/
Эфир в канале и материалы по тематике ИИ: https://t.iss.one/compliancecraft/1099
#искусственныйинтеллект
#этика
#комплаенс
Telegram
ComplianceCraft
ComplianceCraftLIVE
После эфира 06.04.23
По теме «Искусственный интеллект: регулирование, этика и ценности»
❗️Этот эфир скорее с вопросами, чем с ответами
👉Обсудили:
✅ потенциальные меры и подходы к контролю ИИ
✅ чему стоит учиться, если работать в сфере…
После эфира 06.04.23
По теме «Искусственный интеллект: регулирование, этика и ценности»
❗️Этот эфир скорее с вопросами, чем с ответами
👉Обсудили:
✅ потенциальные меры и подходы к контролю ИИ
✅ чему стоит учиться, если работать в сфере…
👉ПРОДОЛЖЕНИЕ: Горячая линия:
Провайдер должен создать механизм для получения и обработки жалоб пользователей и оперативно реагировать на запросы отдельных лиц об исправлении, удалении или блокировании их личной информации
👉Меры ответственности:
✔️ предупреждения от регуляторов с целью исправления
✔️ приостановка или прекращение использование генеративного ИИ для предоставления услуг и 💰штраф в размере не более 10 000 юаней (примерно 1400 долл.США), но не более 100 000 юаней (14 тыс.долл.США)
✅Опыт регулирования Китая в отношении преступлений с использованием ИИ безусловно будет изучен другими странами, что как минимум означает что:
➡️ все/любые разработки продуктов компаний с использованием генеративного ИИ, уже сейчас имеет смысл начинать анализировать с т.з. указанных рисков
➡️ в случае трансграничного бизнеса и услуг необходимо до запуска продуктов понимать юрисдикции регулирования и комплаенс-риски (уже реальные или еще потенциальные), связанные с продуктами, использующими генеративный ИИ
❗️Обратите внимание насколько более смысловые требования использованы в китайских Мерах. Думать что "если не запрещено что-то, то можно" – больше нельзя, эра комплаенс и этики ИИ предполагает способность оперировать смыслами и сочетать их с положениями законов
https://www.theverge.com/2023/4/12/23680027/china-generative-ai-regulations-promote-socialism-chatgpt-alibaba-baidu
Меры по управлению генеративными службами ИИ: https://www.cac.gov.cn/2023-04/11/c_1682854275475410.htm
Обзор российского исследования на тему: «Инструменты ИИ в руках злоумышленников – классификация угроз и способы противодействия»: https://t.iss.one/compliancecraft/1131
#комплаенс
#этика
#искусственныйинтеллект
#китай
Провайдер должен создать механизм для получения и обработки жалоб пользователей и оперативно реагировать на запросы отдельных лиц об исправлении, удалении или блокировании их личной информации
👉Меры ответственности:
✔️ предупреждения от регуляторов с целью исправления
✔️ приостановка или прекращение использование генеративного ИИ для предоставления услуг и 💰штраф в размере не более 10 000 юаней (примерно 1400 долл.США), но не более 100 000 юаней (14 тыс.долл.США)
✅Опыт регулирования Китая в отношении преступлений с использованием ИИ безусловно будет изучен другими странами, что как минимум означает что:
➡️ все/любые разработки продуктов компаний с использованием генеративного ИИ, уже сейчас имеет смысл начинать анализировать с т.з. указанных рисков
➡️ в случае трансграничного бизнеса и услуг необходимо до запуска продуктов понимать юрисдикции регулирования и комплаенс-риски (уже реальные или еще потенциальные), связанные с продуктами, использующими генеративный ИИ
❗️Обратите внимание насколько более смысловые требования использованы в китайских Мерах. Думать что "если не запрещено что-то, то можно" – больше нельзя, эра комплаенс и этики ИИ предполагает способность оперировать смыслами и сочетать их с положениями законов
https://www.theverge.com/2023/4/12/23680027/china-generative-ai-regulations-promote-socialism-chatgpt-alibaba-baidu
Меры по управлению генеративными службами ИИ: https://www.cac.gov.cn/2023-04/11/c_1682854275475410.htm
Обзор российского исследования на тему: «Инструменты ИИ в руках злоумышленников – классификация угроз и способы противодействия»: https://t.iss.one/compliancecraft/1131
#комплаенс
#этика
#искусственныйинтеллект
#китай
The Verge
China wants homegrown AI to reflect the core values of socialism
As China attempts to balance development with censorship.
Мероприятия
📌В Санкт-Петербурге с 11 по 13 мая проходит XI Петербургский международный юридический форум (ПМЮФ)
❗️В рамках форума много интересных тем и дискуссий. Кто не смог присутствовать – есть возможность посмотреть в записи большинство дискуссий.
👉Деловая программа здесь: https://legalforum.info/programme/business-programme/?t=days&day=1
👉Ссылки на несколько интересных тем:
☑️Специальное правовое регулирование в финансовой и корпоративной сферах в условиях санкционного давления: https://legalforum.info/programme/business-programme/2799/
☑️Роль антикоррупционной экспертизы в нормотворческой практике государства: https://legalforum.info/programme/business-programme/2827/
☑️Правовое регулирование искусственного интеллекта: от возможности к необходимости: https://legalforum.info/programme/business-programme/2766/
☑️Законодательство о контроле как драйвер экономического роста: https://legalforum.info/programme/business-programme/2730/
☑️Снижение рисков предпринимательской деятельности как фактор обеспечения экономической безопасности России в условиях внешних и внутренних угроз: https://legalforum.info/programme/business-programme/2739/
☑️Школа цифрового права: подготовка, развитие, сохранение и приумножение специалистов в сфере правового регулирования цифровой экономики и кибербезопасности в России: https://legalforum.info/programme/business-programme/3572/
☑️Уголовная ответственность юридических лиц: проблемы и перспективы: https://legalforum.info/programme/business-programme/3333/
☑️Как измерить платежеспособность контрагента? https://legalforum.info/programme/business-programme/2787/
☑️Блокчейн, криптовалюты и майнинг: новые экономические вызовы и перспективы: https://legalforum.info/programme/business-programme/2742/
#мероприятия
#регуляторныйкомплаенс
#антикоррупционныйкомплаенс
#санкционныйкомплаенс
#контрсанкции
#искусственныйинтеллект
#криптовалюта
📌В Санкт-Петербурге с 11 по 13 мая проходит XI Петербургский международный юридический форум (ПМЮФ)
❗️В рамках форума много интересных тем и дискуссий. Кто не смог присутствовать – есть возможность посмотреть в записи большинство дискуссий.
👉Деловая программа здесь: https://legalforum.info/programme/business-programme/?t=days&day=1
👉Ссылки на несколько интересных тем:
☑️Специальное правовое регулирование в финансовой и корпоративной сферах в условиях санкционного давления: https://legalforum.info/programme/business-programme/2799/
☑️Роль антикоррупционной экспертизы в нормотворческой практике государства: https://legalforum.info/programme/business-programme/2827/
☑️Правовое регулирование искусственного интеллекта: от возможности к необходимости: https://legalforum.info/programme/business-programme/2766/
☑️Законодательство о контроле как драйвер экономического роста: https://legalforum.info/programme/business-programme/2730/
☑️Снижение рисков предпринимательской деятельности как фактор обеспечения экономической безопасности России в условиях внешних и внутренних угроз: https://legalforum.info/programme/business-programme/2739/
☑️Школа цифрового права: подготовка, развитие, сохранение и приумножение специалистов в сфере правового регулирования цифровой экономики и кибербезопасности в России: https://legalforum.info/programme/business-programme/3572/
☑️Уголовная ответственность юридических лиц: проблемы и перспективы: https://legalforum.info/programme/business-programme/3333/
☑️Как измерить платежеспособность контрагента? https://legalforum.info/programme/business-programme/2787/
☑️Блокчейн, криптовалюты и майнинг: новые экономические вызовы и перспективы: https://legalforum.info/programme/business-programme/2742/
#мероприятия
#регуляторныйкомплаенс
#антикоррупционныйкомплаенс
#санкционныйкомплаенс
#контрсанкции
#искусственныйинтеллект
#криптовалюта
photo_2023-10-11_13-54-31.jpg
244.7 KB
Конкурс
Антикоррупционный комплаенс
Этика
Искусственный интеллект
📌Ассоциация устойчивого развития промышленности объявила о конкурсе «Нейро-комплаенс»
✅Целью Конкурса является повышение информированности и активности широкого круга лиц по вопросам комплаенса и противодействия коррупции, а также вовлечение прогрессивного инструментария к формированию средств агитации по этичному ведению бизнеса
👉Как участвовать:
Сгенерировать нейросетью картинку на заданную тематику: комплаенс/противодействие коррупции/этическое ведение бизнеса
⏱Срок проведения:
☑️с 01.10.2023 по 31.10.2023 осуществляется приём конкурсных работ.
☑️с 01.11.2023 по 20.11.2023 осуществляется оценка и ранжирование конкурсных работ конкурсной комиссией, определение победителей
❗️Участие бесплатное
Подробные условия участия здесь: https://aurprom.ru/news/sobytiya/1576/
#конкурс
#антикоррупционныйкомплаенс
#этика
#искусственныйинтеллект
Антикоррупционный комплаенс
Этика
Искусственный интеллект
📌Ассоциация устойчивого развития промышленности объявила о конкурсе «Нейро-комплаенс»
✅Целью Конкурса является повышение информированности и активности широкого круга лиц по вопросам комплаенса и противодействия коррупции, а также вовлечение прогрессивного инструментария к формированию средств агитации по этичному ведению бизнеса
👉Как участвовать:
Сгенерировать нейросетью картинку на заданную тематику: комплаенс/противодействие коррупции/этическое ведение бизнеса
⏱Срок проведения:
☑️с 01.10.2023 по 31.10.2023 осуществляется приём конкурсных работ.
☑️с 01.11.2023 по 20.11.2023 осуществляется оценка и ранжирование конкурсных работ конкурсной комиссией, определение победителей
❗️Участие бесплатное
Подробные условия участия здесь: https://aurprom.ru/news/sobytiya/1576/
#конкурс
#антикоррупционныйкомплаенс
#этика
#искусственныйинтеллект
Мероприятия
Искусственный интеллект
Этика
📌16.11.23 в пресс-центре ТАСС пройдет «Форум этики в сфере искусственного интеллекта: Поколение GPT. Красные линИИ»
👉Среди рассматриваемых вопросов:
☑️межкультурный взгляд на глобальные вызовы развития ИИ
☑️влияние ИИ на развитие современного общества
☑️стратегия продвижения этики ИИ в глобальной перспективе
☑️обеспечение приватности и безопасности человека в эру зависимости от технологий: вопросы баланса правового, этического и технического регулирования
☑️этические ориентиры на венчурном конвейере
☑️применение этических принципов в работе исследовательских центров в сфере ИИ
👉На мероприятии также запланированы:
✅ Церемония присоединения организаций к Кодексу этики в сфере ИИ
✅ Церемония награждения в сфере этики ИИ
❗️Мероприятие бесплатное, запланирована трансляция онлайн
👉Регистрация здесь: https://www.aiethic.ru/
⚡️Материалы в канале по тематике Этика ИИ:
➡️Уг.дело в Китае за использование чата GPT: https://t.iss.one/compliancecraft/1148
➡️исследование на тему: «Инструменты ИИ в руках злоумышленников – классификация угроз и способы противодействия» https://t.iss.one/compliancecraft/1131
➡️Эфир в канале и материалы по тематике ИИ: https://t.iss.one/compliancecraft/1099
#мероприятия
#искусственныйинтеллект
#этика
Искусственный интеллект
Этика
📌16.11.23 в пресс-центре ТАСС пройдет «Форум этики в сфере искусственного интеллекта: Поколение GPT. Красные линИИ»
👉Среди рассматриваемых вопросов:
☑️межкультурный взгляд на глобальные вызовы развития ИИ
☑️влияние ИИ на развитие современного общества
☑️стратегия продвижения этики ИИ в глобальной перспективе
☑️обеспечение приватности и безопасности человека в эру зависимости от технологий: вопросы баланса правового, этического и технического регулирования
☑️этические ориентиры на венчурном конвейере
☑️применение этических принципов в работе исследовательских центров в сфере ИИ
👉На мероприятии также запланированы:
✅ Церемония присоединения организаций к Кодексу этики в сфере ИИ
✅ Церемония награждения в сфере этики ИИ
❗️Мероприятие бесплатное, запланирована трансляция онлайн
👉Регистрация здесь: https://www.aiethic.ru/
⚡️Материалы в канале по тематике Этика ИИ:
➡️Уг.дело в Китае за использование чата GPT: https://t.iss.one/compliancecraft/1148
➡️исследование на тему: «Инструменты ИИ в руках злоумышленников – классификация угроз и способы противодействия» https://t.iss.one/compliancecraft/1131
➡️Эфир в канале и материалы по тематике ИИ: https://t.iss.one/compliancecraft/1099
#мероприятия
#искусственныйинтеллект
#этика
aiethic.ru
Форум этики в сфере искусственного интеллекта 2024
В октябре 2024 года состоится Форум этики в сфере искусственного интеллекта
Искусственный интеллект
Этика
📌🔥Новый интересный кейс: В Бразилии Национальный Совет Юстиции (CNJ) начал расследование по делу федеральный судьи, который использовал искусственный интеллект и принял решения на основании ложной судебной практики
👉История вопроса:
☑️ Родригес опубликовал постановление, содержащее целые выдержки, сформулированные с помощью ChatGPT. Использованные ИИ выдержки оказались ложными, в них приводились несуществующие и невероятные сведения
☑️ Решение о начале расследования принял национальный инспектор юстиции, министр Луис Фелипе Саломао (Luís Felipe Salomão). Он решил исследовать прецедент
❗️Что интересно:
Команда исследователей Университета Пердью проанализировала ответы ChatGPT на 517 вопросов Stack Overflow, чтобы оценить правильность, последовательность, полноту и краткость ответов чат-бота. Кроме того, учёные провели лингвистический анализ и анализ тональности ответов и попросили двенадцать добровольцев оценить работу искусственного интеллекта (статья с результатами была опубликована в августе 2023).
⚡️Результат получились интересными:
➡️52% ответов ChatGPT содержали ошибки
➡️77% показались им слишком многословными
➡️39,34% случаев ответам ChatGPT отдали предпочтение, благодаря их развёрнутости и чётким формулировкам, несмотря на то что 77% из них были неправильными
➡️только когда ошибки в ответах ChatGPT становились очевидными, участники эксперимента могли их идентифицировать. В случаях, когда ошибка требовала обращения к документации или к инструментам разработчика, добровольцы часто либо пропускали, либо недооценивали её
➡️говоря о характере ошибок ChatGPT, исследователи отметили, что тот чаще совершает концептуальные ошибки, чем фактические. «Многие ответы были неверными из-за неспособности ChatGPT понять основной контекст задаваемого вопроса».
✅Все вместе ставит новые вопросы:
👉перед разработчиками ChatGPT и аналогичных сервисов – как сделать его лучше, без ошибок или какие заперты/ограничения нужно прописать
👉перед пользователями – не верить буквально и не выключать ни критическое мышление, ни контроль в отношении представленных выводов
👉перед регуляторами – а как можно создать/и какое тогда должно быть регулирование, чтобы исключить негативные последствия подобного по сути бездумного использования ChatGPT и аналогичных сервисов для определённого круга лиц (куда могут войти не только судьи, но и прокуроры, врачи и др.)
❗️и вообще: насколько этично использовать чат GPT и аналоги для выполнения своей работы?
Решение по данному конкретному кейсу пока не принято. Будет интересно посмотреть на итоговое решение не только с т.з. решения в отношении этого судьи персонально, но и общую логику, которую Национальный Совет Юстиции Бразилии выработает, какие меры контроля буде необходимо ввести, чтобы избежать подобных прецедентов в будущем
https://news.rambler.ru/tech/51766567-v-brazilii-sudya-sostavil-prigovor-s-pomoschyu-chatgpt-i-dopustil-oshibki/
🖇Полный текст исследования команды Университета Пердью (на англ.) можно скачать здесь: https://arxiv.org/pdf/2308.02312.pdf
🖇В мае на 6-я ежегодная профессиональная конференция IMPERATOR-FORUM 2023. Безопасность бизнеса: современные вызовы Сергей Матвеев представлял тему: «ChatGPT. AI (искусственный интеллект) в индустрии безопасности». Посмотрите, очень интересные выводы и наблюдения (см. это выступление с 5:04 по 5:33): https://www.youtube.com/watch?v=qD4kVTCAwFI
🖇Завтра также проходит «Форум этики в сфере искусственного интеллекта: Поколение GPT. Красные линИИ», еще можно успеть зарегистрироваться и посмотреть трансляцию: https://t.iss.one/compliancecraft/1316
#искусственныйинтеллект
#этика
Этика
📌🔥Новый интересный кейс: В Бразилии Национальный Совет Юстиции (CNJ) начал расследование по делу федеральный судьи, который использовал искусственный интеллект и принял решения на основании ложной судебной практики
👉История вопроса:
☑️ Родригес опубликовал постановление, содержащее целые выдержки, сформулированные с помощью ChatGPT. Использованные ИИ выдержки оказались ложными, в них приводились несуществующие и невероятные сведения
☑️ Решение о начале расследования принял национальный инспектор юстиции, министр Луис Фелипе Саломао (Luís Felipe Salomão). Он решил исследовать прецедент
❗️Что интересно:
Команда исследователей Университета Пердью проанализировала ответы ChatGPT на 517 вопросов Stack Overflow, чтобы оценить правильность, последовательность, полноту и краткость ответов чат-бота. Кроме того, учёные провели лингвистический анализ и анализ тональности ответов и попросили двенадцать добровольцев оценить работу искусственного интеллекта (статья с результатами была опубликована в августе 2023).
⚡️Результат получились интересными:
➡️52% ответов ChatGPT содержали ошибки
➡️77% показались им слишком многословными
➡️39,34% случаев ответам ChatGPT отдали предпочтение, благодаря их развёрнутости и чётким формулировкам, несмотря на то что 77% из них были неправильными
➡️только когда ошибки в ответах ChatGPT становились очевидными, участники эксперимента могли их идентифицировать. В случаях, когда ошибка требовала обращения к документации или к инструментам разработчика, добровольцы часто либо пропускали, либо недооценивали её
➡️говоря о характере ошибок ChatGPT, исследователи отметили, что тот чаще совершает концептуальные ошибки, чем фактические. «Многие ответы были неверными из-за неспособности ChatGPT понять основной контекст задаваемого вопроса».
✅Все вместе ставит новые вопросы:
👉перед разработчиками ChatGPT и аналогичных сервисов – как сделать его лучше, без ошибок или какие заперты/ограничения нужно прописать
👉перед пользователями – не верить буквально и не выключать ни критическое мышление, ни контроль в отношении представленных выводов
👉перед регуляторами – а как можно создать/и какое тогда должно быть регулирование, чтобы исключить негативные последствия подобного по сути бездумного использования ChatGPT и аналогичных сервисов для определённого круга лиц (куда могут войти не только судьи, но и прокуроры, врачи и др.)
❗️и вообще: насколько этично использовать чат GPT и аналоги для выполнения своей работы?
Решение по данному конкретному кейсу пока не принято. Будет интересно посмотреть на итоговое решение не только с т.з. решения в отношении этого судьи персонально, но и общую логику, которую Национальный Совет Юстиции Бразилии выработает, какие меры контроля буде необходимо ввести, чтобы избежать подобных прецедентов в будущем
https://news.rambler.ru/tech/51766567-v-brazilii-sudya-sostavil-prigovor-s-pomoschyu-chatgpt-i-dopustil-oshibki/
🖇Полный текст исследования команды Университета Пердью (на англ.) можно скачать здесь: https://arxiv.org/pdf/2308.02312.pdf
🖇В мае на 6-я ежегодная профессиональная конференция IMPERATOR-FORUM 2023. Безопасность бизнеса: современные вызовы Сергей Матвеев представлял тему: «ChatGPT. AI (искусственный интеллект) в индустрии безопасности». Посмотрите, очень интересные выводы и наблюдения (см. это выступление с 5:04 по 5:33): https://www.youtube.com/watch?v=qD4kVTCAwFI
🖇Завтра также проходит «Форум этики в сфере искусственного интеллекта: Поколение GPT. Красные линИИ», еще можно успеть зарегистрироваться и посмотреть трансляцию: https://t.iss.one/compliancecraft/1316
#искусственныйинтеллект
#этика
Рамблер/новости
Судья в Бразилии составил приговор с ошибками с помощью ChatGPT
Национальный совет юстиции Бразилии расследует дело федерального судьи Джефферсона Феррейра Родригеса, который составил приговор с ошибками с помощью ChatGPT....