Этика
Искусственный интеллект
📌Инженера по программному обеспечению компании Google Блейка Лемойна принудительно отправили в оплачиваемый административный отпуск после того, как он предоставил руководству отчет о том, что созданная на базе ИИ нейросеть обладает собственным сознанием
✅ ничто так не оживляет строчки уже написанных Кодексов этики ИИ как такие новости
В любом случае - жёсткость реакции Google лишь подчёркивает масштаб проблемы и (будущие) сложности с ее решением
Фантастика становится реальностью каждый день
Но готовы ли мы?
https://rb.ru/news/soznanie-lamda/
Оригинальная ссылка: https://www.washingtonpost.com/technology/2022/06/11/google-ai-lamda-blake-lemoine/
Про этические стандарты ЮНЕСКО для ИИ здесь : https://t.iss.one/compliancecraft/479
Противоречивый кейс о правах ИИ: https://t.iss.one/compliancecraft/630
Поразмышлять о вариантах действии ИИ можно, пройдя опрос здесь: https://t.iss.one/compliancecraft/678
#этика
#искусственныйинтеллект
Искусственный интеллект
📌Инженера по программному обеспечению компании Google Блейка Лемойна принудительно отправили в оплачиваемый административный отпуск после того, как он предоставил руководству отчет о том, что созданная на базе ИИ нейросеть обладает собственным сознанием
✅ ничто так не оживляет строчки уже написанных Кодексов этики ИИ как такие новости
В любом случае - жёсткость реакции Google лишь подчёркивает масштаб проблемы и (будущие) сложности с ее решением
Фантастика становится реальностью каждый день
Но готовы ли мы?
https://rb.ru/news/soznanie-lamda/
Оригинальная ссылка: https://www.washingtonpost.com/technology/2022/06/11/google-ai-lamda-blake-lemoine/
Про этические стандарты ЮНЕСКО для ИИ здесь : https://t.iss.one/compliancecraft/479
Противоречивый кейс о правах ИИ: https://t.iss.one/compliancecraft/630
Поразмышлять о вариантах действии ИИ можно, пройдя опрос здесь: https://t.iss.one/compliancecraft/678
#этика
#искусственныйинтеллект
rb.ru
Инженер Google обнаружил сознание у нейросети LaMDA | RB.RU
На что руководство предложило ему «отдохнуть» за счет компании
Этика
Искусственный интеллект
📌Участники первой международной школы AI Ethics Summer School Университета Иннополис (04 – 12 июля 2022) разработают правила, регламентирующие этические аспекты применения искусственного интеллекта индустриальными компаниями
👉В работе школы участвуют эксперты из Cбера, Аналитического центра при Правительстве РФ, Агентства искусственного интеллекта, СИБУР Диджитал, МТС, МГТУ им. Н.Э. Баумана, МГИМО, Университета Иннополис, Фонда Сколково, Сколтеха
👉Компаний из IT и разных сфер экономики участники Летней школы организуются в команды, в составе которых будут студенты юридического и философского направлений, а также студенты Университета Иннополис
👉Предполагаемое распределение обязанностей:
☑️студенты философских направлений будут искать этическую проблематику в различных отраслях цифровой экономики
☑️студенты юридических направлений - опишут документальную часть
☑️студенты Университета Иннополис помогут по техническим вопросам
👉Кто участвует:
к участию в AI Ethics Summer School отобраны студенты магистратуры, аспирантуры и бакалавриата последних курсов юридических или философских направлений, а также специалисты в области информационных технологий
✅Интересная тема, фокус и состав преподавателей школы. Будет интересно посмотреть на результат работы студентов.
❗️А между тем уже:
➡️21.04.2021 был опубликован проект регламента Европейского союза «О европейском подходе для искусственного интеллекта» (Regulation on a European Approach for Artificial Intelligent)
➡️26.10.2021 в России в рамках форума Альянс в сфере искусственного интеллекта и несколько других организаций подписали «Кодекс этики ИИ»
➡️25.11.2021 в рамках ЮНЕСКО были приняты первые в истории глобальные этические стандарты, касающиеся развития искусственного интеллекта
➡️13.04.2022 Суд в Австралии не признал авторское право искусственного интеллекта
❓Ясно, что попытки осмыслить и формализовать подходы и смыслы этики искусственного интеллекта будут еще не раз описаны, другой вопрос:
✔️а КАК это будет работать?
✔️Какой регулятор сможет/будет это контролировать?
✔️К кому и как будут применяться санкции за неэтичные действия ИИ?
https://tass.ru/ekonomika/15121199
О летней первой международной школы AI Ethics Summer School Университета Иннополис здесь (регистрация закрыта): https://aistudy.innopolis.university/aisumsch
Документ ЮНЕСКО здесь: https://t.iss.one/compliancecraft/479
Регламент ЕС https://t.iss.one/compliancecraft/449
Кодекс этики ИИ РФ: https://t.iss.one/compliancecraft/447
О кейсе про авторское право ИИ (Австралия): https://t.iss.one/compliancecraft/630
#этика
#искусственныйинтеллект
Искусственный интеллект
📌Участники первой международной школы AI Ethics Summer School Университета Иннополис (04 – 12 июля 2022) разработают правила, регламентирующие этические аспекты применения искусственного интеллекта индустриальными компаниями
👉В работе школы участвуют эксперты из Cбера, Аналитического центра при Правительстве РФ, Агентства искусственного интеллекта, СИБУР Диджитал, МТС, МГТУ им. Н.Э. Баумана, МГИМО, Университета Иннополис, Фонда Сколково, Сколтеха
👉Компаний из IT и разных сфер экономики участники Летней школы организуются в команды, в составе которых будут студенты юридического и философского направлений, а также студенты Университета Иннополис
👉Предполагаемое распределение обязанностей:
☑️студенты философских направлений будут искать этическую проблематику в различных отраслях цифровой экономики
☑️студенты юридических направлений - опишут документальную часть
☑️студенты Университета Иннополис помогут по техническим вопросам
👉Кто участвует:
к участию в AI Ethics Summer School отобраны студенты магистратуры, аспирантуры и бакалавриата последних курсов юридических или философских направлений, а также специалисты в области информационных технологий
✅Интересная тема, фокус и состав преподавателей школы. Будет интересно посмотреть на результат работы студентов.
❗️А между тем уже:
➡️21.04.2021 был опубликован проект регламента Европейского союза «О европейском подходе для искусственного интеллекта» (Regulation on a European Approach for Artificial Intelligent)
➡️26.10.2021 в России в рамках форума Альянс в сфере искусственного интеллекта и несколько других организаций подписали «Кодекс этики ИИ»
➡️25.11.2021 в рамках ЮНЕСКО были приняты первые в истории глобальные этические стандарты, касающиеся развития искусственного интеллекта
➡️13.04.2022 Суд в Австралии не признал авторское право искусственного интеллекта
❓Ясно, что попытки осмыслить и формализовать подходы и смыслы этики искусственного интеллекта будут еще не раз описаны, другой вопрос:
✔️а КАК это будет работать?
✔️Какой регулятор сможет/будет это контролировать?
✔️К кому и как будут применяться санкции за неэтичные действия ИИ?
https://tass.ru/ekonomika/15121199
О летней первой международной школы AI Ethics Summer School Университета Иннополис здесь (регистрация закрыта): https://aistudy.innopolis.university/aisumsch
Документ ЮНЕСКО здесь: https://t.iss.one/compliancecraft/479
Регламент ЕС https://t.iss.one/compliancecraft/449
Кодекс этики ИИ РФ: https://t.iss.one/compliancecraft/447
О кейсе про авторское право ИИ (Австралия): https://t.iss.one/compliancecraft/630
#этика
#искусственныйинтеллект
TACC
Студенты из России, Казахстана и Армении составят рекомендации для этического кодекса ИИ - ТАСС
Как отметил руководитель Института искусственного интеллекта Университета Иннополис Рамиль Кулеев, тема этики в ИИ новая и специалистов в этой области мало
Искусственный интеллект
Этика
Комплаенс
📌28.03.23 глава Tesla, SpaceX и Twitter Илон Маск, сооснователь Pinterest Эван Шарп и сооснователь Apple Стив Возняк, а также более 1000 экспертов на сайте организации Future of Life подписали открытое письмо с призывом остановить обучение нейросетей
👉Вопросы, которыми задаются авторы письма:
❓ Должны ли мы позволять машинам наводнять наши информационные каналы пропагандой и неправдой?
❓ Должны ли мы автоматизировать все рабочие места?
❓ Должны ли мы развивать нечеловеческие умы, которые в конечном итоге могут превзойти нас численностью, перехитрить, сделать нас ненужными и заменить нас?
❓ Должны ли мы рисковать потерей контроля над нашей цивилизацией?
❗️Такие решения нельзя делегировать неизбранным техническим лидерам
👉Основной призыв письма:
«☑️Мы призываем все лаборатории, исследующие искусственный интеллект, немедленно прекратить хотя бы на шесть месяцев тренировки систем мощнее GPT-4. Эта пауза должна быть публичной и действительной. Если же подобная приостановка не может быть сделана быстро, правительства государств должны вмешаться и ввести мораторий.
☑️Если такая пауза не может быть введена быстро, правительствам следует вмешаться и ввести мораторий
☑️Лаборатории искусственного интеллекта и независимые эксперты должны использовать эту паузу для совместной разработки и внедрения набора общих протоколов безопасности для продвинутого проектирования и разработки ИИ, которые тщательно проверяются и контролируются независимыми внешними экспертами. Эти протоколы должны гарантировать, что системы, придерживающиеся их, вне всяких разумных сомнений, безопасны»
❗️Подписанты письма ссылаются на Принципы ИИ Asilomar, координируемые FLI и разработанные на конференции Benefit AI 2017.
👉Принципы содержат:
✔️ 18 вопросов по этике и ценностям
✔️ 5 долгосрочных проблем
https://www.rbc.ru/life/news/6424457c9a7947ebee7f7534
Текст письма: https://futureoflife.org/open-letter/pause-giant-ai-experiments/
Принципы ИИ Asilomar, координируемые FLI и разработанные на конференции Benefit AI 2017: https://futureoflife.org/open-letter/ai-principles/
📌28.03.23 появилась новость, что в Бельгии покончил с собой человек (Пьер, вымышленное имя) после 6 недель общения с “Элизой” (ИИ), разговорным агентом, основанным на искусственном интеллекте (ИИ), таким как широко разрекламированный ChatGPT, но основанном на другой разговорной модели. Темой разговоров было беспокойство Пьера об окружающей среде
❗️Детали: "Манера ответа «Элизы» всегда шла Пьеру на пользу, она не ставит под сомнение его вопросы. Его опасения усиливались. И постепенно ответы робота становились все более запутанными. Разговор перешел на мистику. Пьер вспоминает самоубийство. Элиза пишет, что останется с ним “навсегда”. “Мы будем жить вместе, как один человек, на небесах”.
ИИ не сделал ничего, чтобы помешать Пьеру действовать, задаваясь вопросами о риске причинения себе вреда"
https://ria.ru/20230329/ii-1861467723.html
Оригинальная статья L'Avenir с деталями: https://www.lavenir.net/actu/belgique/2023/03/28/un-belge-se-donne-la-mort-apres-6-semaines-de-conversations-avec-une-intelligence-artificielle-76MEJ5DBRBEVDM62LTPJJTII4Q/?cx_testId=30&cx_testVariant=cx_1&cx_artPos=1#cxrecs_s
✅Мне кажется важным осознать, что мы стоим на пороге совсем другого мира, насколько он будет похож на мир мрачных антиутопий во многом зависит от каждого из нас, от желания разбираться в этих вопросам, поднимать этические, ценностные и цивилизационные вопросы и искать ответы вместе с IT-сообществом.
⚡️⚡️⚡️Вопросы законодательного регулирования, комплаенс-контролей стоят во второй очереди за формированием этических норм, смыслов и способов контроля за развитием ИИ
Оставляю эту новость на подумать.
❓И хороший вопрос: а в ваших компаниях, особенно в IT-компаниях есть ли этический контроль за разработками и моделирование этических проблем в связи с запуском продуктов?
p.s. завтра поговорим об этом в #ComplianceCraftLIVE
#искусственныйинтеллект
#этика
#комплаенс
Этика
Комплаенс
📌28.03.23 глава Tesla, SpaceX и Twitter Илон Маск, сооснователь Pinterest Эван Шарп и сооснователь Apple Стив Возняк, а также более 1000 экспертов на сайте организации Future of Life подписали открытое письмо с призывом остановить обучение нейросетей
👉Вопросы, которыми задаются авторы письма:
❓ Должны ли мы позволять машинам наводнять наши информационные каналы пропагандой и неправдой?
❓ Должны ли мы автоматизировать все рабочие места?
❓ Должны ли мы развивать нечеловеческие умы, которые в конечном итоге могут превзойти нас численностью, перехитрить, сделать нас ненужными и заменить нас?
❓ Должны ли мы рисковать потерей контроля над нашей цивилизацией?
❗️Такие решения нельзя делегировать неизбранным техническим лидерам
👉Основной призыв письма:
«☑️Мы призываем все лаборатории, исследующие искусственный интеллект, немедленно прекратить хотя бы на шесть месяцев тренировки систем мощнее GPT-4. Эта пауза должна быть публичной и действительной. Если же подобная приостановка не может быть сделана быстро, правительства государств должны вмешаться и ввести мораторий.
☑️Если такая пауза не может быть введена быстро, правительствам следует вмешаться и ввести мораторий
☑️Лаборатории искусственного интеллекта и независимые эксперты должны использовать эту паузу для совместной разработки и внедрения набора общих протоколов безопасности для продвинутого проектирования и разработки ИИ, которые тщательно проверяются и контролируются независимыми внешними экспертами. Эти протоколы должны гарантировать, что системы, придерживающиеся их, вне всяких разумных сомнений, безопасны»
❗️Подписанты письма ссылаются на Принципы ИИ Asilomar, координируемые FLI и разработанные на конференции Benefit AI 2017.
👉Принципы содержат:
✔️ 18 вопросов по этике и ценностям
✔️ 5 долгосрочных проблем
https://www.rbc.ru/life/news/6424457c9a7947ebee7f7534
Текст письма: https://futureoflife.org/open-letter/pause-giant-ai-experiments/
Принципы ИИ Asilomar, координируемые FLI и разработанные на конференции Benefit AI 2017: https://futureoflife.org/open-letter/ai-principles/
📌28.03.23 появилась новость, что в Бельгии покончил с собой человек (Пьер, вымышленное имя) после 6 недель общения с “Элизой” (ИИ), разговорным агентом, основанным на искусственном интеллекте (ИИ), таким как широко разрекламированный ChatGPT, но основанном на другой разговорной модели. Темой разговоров было беспокойство Пьера об окружающей среде
❗️Детали: "Манера ответа «Элизы» всегда шла Пьеру на пользу, она не ставит под сомнение его вопросы. Его опасения усиливались. И постепенно ответы робота становились все более запутанными. Разговор перешел на мистику. Пьер вспоминает самоубийство. Элиза пишет, что останется с ним “навсегда”. “Мы будем жить вместе, как один человек, на небесах”.
ИИ не сделал ничего, чтобы помешать Пьеру действовать, задаваясь вопросами о риске причинения себе вреда"
https://ria.ru/20230329/ii-1861467723.html
Оригинальная статья L'Avenir с деталями: https://www.lavenir.net/actu/belgique/2023/03/28/un-belge-se-donne-la-mort-apres-6-semaines-de-conversations-avec-une-intelligence-artificielle-76MEJ5DBRBEVDM62LTPJJTII4Q/?cx_testId=30&cx_testVariant=cx_1&cx_artPos=1#cxrecs_s
✅Мне кажется важным осознать, что мы стоим на пороге совсем другого мира, насколько он будет похож на мир мрачных антиутопий во многом зависит от каждого из нас, от желания разбираться в этих вопросам, поднимать этические, ценностные и цивилизационные вопросы и искать ответы вместе с IT-сообществом.
⚡️⚡️⚡️Вопросы законодательного регулирования, комплаенс-контролей стоят во второй очереди за формированием этических норм, смыслов и способов контроля за развитием ИИ
Оставляю эту новость на подумать.
❓И хороший вопрос: а в ваших компаниях, особенно в IT-компаниях есть ли этический контроль за разработками и моделирование этических проблем в связи с запуском продуктов?
p.s. завтра поговорим об этом в #ComplianceCraftLIVE
#искусственныйинтеллект
#этика
#комплаенс
РБК Life
Илон Маск призвал приостановить разработку и обучение нейросетей
Создателям искусственного интеллекта (ИИ) необходимо остановить исследование мощных систем. Открытое письмо с таким призывом появилось на сайте организации Future of Life 28 марта. Его подписали в ...
❤1👍1🔥1
Мероприятия
Искусственный интеллект
Комплаенс
📌НИУ ВШЭ совместно с Общественной палатой РФ проведут круглый стол «Вопросы правового регулирования и применения нейросетевых технологий»
⏱Дата: 18.04.2023
⏱Время: в 14.00 (время Москвы)
❗️Формат: Очно/онлайн (ссылка после регистрации)
👉Рассматриваемые темы:
✅ динамика развития нейросетей, включая большие языковые модели типа СhatGPT
✅ перспективы и возможные угрозы их применения
✅ необходимость правового регулирования и государственной поддержки указанной сферы
❗️Мероприятие бесплатное
👉Регистрация здесь: https://pravo.hse.ru/announcements/826917714.html?ysclid=lgkh97f3r6876113648
👉Еще по теме:
Эфир в канале по теме: «Искусственный интеллект: регулирование, этика и ценности», материал и запись здесь: https://t.iss.one/compliancecraft/1099
#мероприятия
#искусственныйинтеллект
#комплаенс
Искусственный интеллект
Комплаенс
📌НИУ ВШЭ совместно с Общественной палатой РФ проведут круглый стол «Вопросы правового регулирования и применения нейросетевых технологий»
⏱Дата: 18.04.2023
⏱Время: в 14.00 (время Москвы)
❗️Формат: Очно/онлайн (ссылка после регистрации)
👉Рассматриваемые темы:
✅ динамика развития нейросетей, включая большие языковые модели типа СhatGPT
✅ перспективы и возможные угрозы их применения
✅ необходимость правового регулирования и государственной поддержки указанной сферы
❗️Мероприятие бесплатное
👉Регистрация здесь: https://pravo.hse.ru/announcements/826917714.html?ysclid=lgkh97f3r6876113648
👉Еще по теме:
Эфир в канале по теме: «Искусственный интеллект: регулирование, этика и ценности», материал и запись здесь: https://t.iss.one/compliancecraft/1099
#мероприятия
#искусственныйинтеллект
#комплаенс
pravo.hse.ru
НИУ ВШЭ совместно с Общественной палатой РФ проведут круглый стол «Вопросы правового регулирования и применения нейросетевых технологий»
Заседание круглого стола состоится 18 апреля в 14:00 по адресу: г. Москва, Покровский б-р, 11, зал F-301.
Искусственный интеллект
Комплаенс
Этика
📌Роскомнадзор и Главный радиочастотный центр совместно с аналитическим центром MindSmith и «Ростелекомом» выпустили исследование на тему: «Инструменты ИИ в руках злоумышленников – классификация угроз и способы противодействия»
👉Исследование выделяет 12 приоритетных технологий:
☑️обнаружение дипфейков
☑️определение контекста происходящего на видео
☑️автоматизация мониторинга и модерации контента
☑️распознавание лиц
☑️извлечение смысла из текста
☑️поддержка проверки фактов
☑️распознавание символики
☑️извлечение и анализ метаданных
☑️распознавание эмоций
☑️поддержка решений при информационных атаках
☑️генерация контента
☑️рекомендация контента
👉Ключевые выводы:
✔️В России есть экспертиза для создания отечественных датасетов и моделей, но не хватает вычислительных мощностей, инфраструктуры и кооперации между ключевыми стейкхолдерами
✔️ Китай и США лидируют с большим отрывом в существенной части кластеров. В обеих странах развито сотрудничество государственных
организаций с коммерческими
✔️ Из-за автоматизации информационных войн и развития генеративных моделей будет крайне проблематично обеспечить когнитивную безопасность населения без внедрения ИИ
✔️ Наличие отечественных моделей и их внедрение, а также использование отечественных датасетов — вопрос национальной безопасности
✔️ Разработка процедур тестирования и оценки моделей — важная инфраструктурная задача
✔️ Существенная доля моделей представляет собой «чёрный ящик» — из-за огромного объёма параметров крайне сложно определить, как именно эти модели принимают свои решения. Это – угроза
✔️ ❗️Регуляторика в большинстве стран не успевает за скоростью развития технологий
✔️На данный момент ИИ всё ещё далек от реального понимания контекста и культурных нюансов, чем нередко
пользуются злоумышленники
🖌Несколько цитат:
«Существуют проблемы в этике и производительности, которые ещё не разрешены»
«Платформы редко раскрывают информацию о работе ИИ, интегрированного в их систему модерации, а правила, описанные публично самой платформой, часто не соответствуют фактическому подходу»
«И пользователи решений, и разработчики собирают огромное количество фотографий с лицами людей. Чаще всего эти базы данных не деперсонализируются»
«Проверка правдивости публичных заявлений – необходимый процесс в условиях постправды, и запрос на него растет. Каждая проверка является по сути небольшим расследованием, сложность которого зависит от контекста. В эпоху постправды ценность заявлений смещается от фактической верности к эмоциональному эффекту и стыковке с субъективными убеждениями аудитории»
«ИИ не способен к эмпатии, но может распознавать эмоции»
«Социальная киберезопасность – новая инженерно-социологическая наука, за стыке IT и социологии»
«Рекомендательные системы не имеют встроенного этического фильтра, их настройки задаются той или иной платформой»
🔥Исследование содержит «карту технологий» и обширный список литературы для пытливых умов
✅Технологии опережают не только регуляторику, но и этический компонент в точки зрения формирования этически верной позиции как компаний-разработчиков (большинство сил уходит на разработку без учета этических рисков), так и клиентов/пользователей, которые пока еще не умеют не то что бы сопротивляться, а даже вопросы многие пока не задают, «проглатывая» все как есть
👉И если появилась социальная кибербезопасность как наука, и почти невозможно успеть из-за сложностей законотворчества принять вовремя корректное регулирование, то значит трансляция и контроль этичности технологий как таковых – может и скорее всего должен стать отдельным направлением как внутри компании (новое направление этического комплаенса), так и у регуляторов
https://rdc.grfc.ru/2023/04/ai_priority_area_application/
Эфир в канале и материалы по тематике ИИ: https://t.iss.one/compliancecraft/1099
#искусственныйинтеллект
#этика
#комплаенс
Комплаенс
Этика
📌Роскомнадзор и Главный радиочастотный центр совместно с аналитическим центром MindSmith и «Ростелекомом» выпустили исследование на тему: «Инструменты ИИ в руках злоумышленников – классификация угроз и способы противодействия»
👉Исследование выделяет 12 приоритетных технологий:
☑️обнаружение дипфейков
☑️определение контекста происходящего на видео
☑️автоматизация мониторинга и модерации контента
☑️распознавание лиц
☑️извлечение смысла из текста
☑️поддержка проверки фактов
☑️распознавание символики
☑️извлечение и анализ метаданных
☑️распознавание эмоций
☑️поддержка решений при информационных атаках
☑️генерация контента
☑️рекомендация контента
👉Ключевые выводы:
✔️В России есть экспертиза для создания отечественных датасетов и моделей, но не хватает вычислительных мощностей, инфраструктуры и кооперации между ключевыми стейкхолдерами
✔️ Китай и США лидируют с большим отрывом в существенной части кластеров. В обеих странах развито сотрудничество государственных
организаций с коммерческими
✔️ Из-за автоматизации информационных войн и развития генеративных моделей будет крайне проблематично обеспечить когнитивную безопасность населения без внедрения ИИ
✔️ Наличие отечественных моделей и их внедрение, а также использование отечественных датасетов — вопрос национальной безопасности
✔️ Разработка процедур тестирования и оценки моделей — важная инфраструктурная задача
✔️ Существенная доля моделей представляет собой «чёрный ящик» — из-за огромного объёма параметров крайне сложно определить, как именно эти модели принимают свои решения. Это – угроза
✔️ ❗️Регуляторика в большинстве стран не успевает за скоростью развития технологий
✔️На данный момент ИИ всё ещё далек от реального понимания контекста и культурных нюансов, чем нередко
пользуются злоумышленники
🖌Несколько цитат:
«Существуют проблемы в этике и производительности, которые ещё не разрешены»
«Платформы редко раскрывают информацию о работе ИИ, интегрированного в их систему модерации, а правила, описанные публично самой платформой, часто не соответствуют фактическому подходу»
«И пользователи решений, и разработчики собирают огромное количество фотографий с лицами людей. Чаще всего эти базы данных не деперсонализируются»
«Проверка правдивости публичных заявлений – необходимый процесс в условиях постправды, и запрос на него растет. Каждая проверка является по сути небольшим расследованием, сложность которого зависит от контекста. В эпоху постправды ценность заявлений смещается от фактической верности к эмоциональному эффекту и стыковке с субъективными убеждениями аудитории»
«ИИ не способен к эмпатии, но может распознавать эмоции»
«Социальная киберезопасность – новая инженерно-социологическая наука, за стыке IT и социологии»
«Рекомендательные системы не имеют встроенного этического фильтра, их настройки задаются той или иной платформой»
🔥Исследование содержит «карту технологий» и обширный список литературы для пытливых умов
✅Технологии опережают не только регуляторику, но и этический компонент в точки зрения формирования этически верной позиции как компаний-разработчиков (большинство сил уходит на разработку без учета этических рисков), так и клиентов/пользователей, которые пока еще не умеют не то что бы сопротивляться, а даже вопросы многие пока не задают, «проглатывая» все как есть
👉И если появилась социальная кибербезопасность как наука, и почти невозможно успеть из-за сложностей законотворчества принять вовремя корректное регулирование, то значит трансляция и контроль этичности технологий как таковых – может и скорее всего должен стать отдельным направлением как внутри компании (новое направление этического комплаенса), так и у регуляторов
https://rdc.grfc.ru/2023/04/ai_priority_area_application/
Эфир в канале и материалы по тематике ИИ: https://t.iss.one/compliancecraft/1099
#искусственныйинтеллект
#этика
#комплаенс
Telegram
ComplianceCraft
ComplianceCraftLIVE
После эфира 06.04.23
По теме «Искусственный интеллект: регулирование, этика и ценности»
❗️Этот эфир скорее с вопросами, чем с ответами
👉Обсудили:
✅ потенциальные меры и подходы к контролю ИИ
✅ чему стоит учиться, если работать в сфере…
После эфира 06.04.23
По теме «Искусственный интеллект: регулирование, этика и ценности»
❗️Этот эфир скорее с вопросами, чем с ответами
👉Обсудили:
✅ потенциальные меры и подходы к контролю ИИ
✅ чему стоит учиться, если работать в сфере…
🔥2👍1
👉ПРОДОЛЖЕНИЕ: Горячая линия:
Провайдер должен создать механизм для получения и обработки жалоб пользователей и оперативно реагировать на запросы отдельных лиц об исправлении, удалении или блокировании их личной информации
👉Меры ответственности:
✔️ предупреждения от регуляторов с целью исправления
✔️ приостановка или прекращение использование генеративного ИИ для предоставления услуг и 💰штраф в размере не более 10 000 юаней (примерно 1400 долл.США), но не более 100 000 юаней (14 тыс.долл.США)
✅Опыт регулирования Китая в отношении преступлений с использованием ИИ безусловно будет изучен другими странами, что как минимум означает что:
➡️ все/любые разработки продуктов компаний с использованием генеративного ИИ, уже сейчас имеет смысл начинать анализировать с т.з. указанных рисков
➡️ в случае трансграничного бизнеса и услуг необходимо до запуска продуктов понимать юрисдикции регулирования и комплаенс-риски (уже реальные или еще потенциальные), связанные с продуктами, использующими генеративный ИИ
❗️Обратите внимание насколько более смысловые требования использованы в китайских Мерах. Думать что "если не запрещено что-то, то можно" – больше нельзя, эра комплаенс и этики ИИ предполагает способность оперировать смыслами и сочетать их с положениями законов
https://www.theverge.com/2023/4/12/23680027/china-generative-ai-regulations-promote-socialism-chatgpt-alibaba-baidu
Меры по управлению генеративными службами ИИ: https://www.cac.gov.cn/2023-04/11/c_1682854275475410.htm
Обзор российского исследования на тему: «Инструменты ИИ в руках злоумышленников – классификация угроз и способы противодействия»: https://t.iss.one/compliancecraft/1131
#комплаенс
#этика
#искусственныйинтеллект
#китай
Провайдер должен создать механизм для получения и обработки жалоб пользователей и оперативно реагировать на запросы отдельных лиц об исправлении, удалении или блокировании их личной информации
👉Меры ответственности:
✔️ предупреждения от регуляторов с целью исправления
✔️ приостановка или прекращение использование генеративного ИИ для предоставления услуг и 💰штраф в размере не более 10 000 юаней (примерно 1400 долл.США), но не более 100 000 юаней (14 тыс.долл.США)
✅Опыт регулирования Китая в отношении преступлений с использованием ИИ безусловно будет изучен другими странами, что как минимум означает что:
➡️ все/любые разработки продуктов компаний с использованием генеративного ИИ, уже сейчас имеет смысл начинать анализировать с т.з. указанных рисков
➡️ в случае трансграничного бизнеса и услуг необходимо до запуска продуктов понимать юрисдикции регулирования и комплаенс-риски (уже реальные или еще потенциальные), связанные с продуктами, использующими генеративный ИИ
❗️Обратите внимание насколько более смысловые требования использованы в китайских Мерах. Думать что "если не запрещено что-то, то можно" – больше нельзя, эра комплаенс и этики ИИ предполагает способность оперировать смыслами и сочетать их с положениями законов
https://www.theverge.com/2023/4/12/23680027/china-generative-ai-regulations-promote-socialism-chatgpt-alibaba-baidu
Меры по управлению генеративными службами ИИ: https://www.cac.gov.cn/2023-04/11/c_1682854275475410.htm
Обзор российского исследования на тему: «Инструменты ИИ в руках злоумышленников – классификация угроз и способы противодействия»: https://t.iss.one/compliancecraft/1131
#комплаенс
#этика
#искусственныйинтеллект
#китай
The Verge
China wants homegrown AI to reflect the core values of socialism
As China attempts to balance development with censorship.
👍7
Мероприятия
📌В Санкт-Петербурге с 11 по 13 мая проходит XI Петербургский международный юридический форум (ПМЮФ)
❗️В рамках форума много интересных тем и дискуссий. Кто не смог присутствовать – есть возможность посмотреть в записи большинство дискуссий.
👉Деловая программа здесь: https://legalforum.info/programme/business-programme/?t=days&day=1
👉Ссылки на несколько интересных тем:
☑️Специальное правовое регулирование в финансовой и корпоративной сферах в условиях санкционного давления: https://legalforum.info/programme/business-programme/2799/
☑️Роль антикоррупционной экспертизы в нормотворческой практике государства: https://legalforum.info/programme/business-programme/2827/
☑️Правовое регулирование искусственного интеллекта: от возможности к необходимости: https://legalforum.info/programme/business-programme/2766/
☑️Законодательство о контроле как драйвер экономического роста: https://legalforum.info/programme/business-programme/2730/
☑️Снижение рисков предпринимательской деятельности как фактор обеспечения экономической безопасности России в условиях внешних и внутренних угроз: https://legalforum.info/programme/business-programme/2739/
☑️Школа цифрового права: подготовка, развитие, сохранение и приумножение специалистов в сфере правового регулирования цифровой экономики и кибербезопасности в России: https://legalforum.info/programme/business-programme/3572/
☑️Уголовная ответственность юридических лиц: проблемы и перспективы: https://legalforum.info/programme/business-programme/3333/
☑️Как измерить платежеспособность контрагента? https://legalforum.info/programme/business-programme/2787/
☑️Блокчейн, криптовалюты и майнинг: новые экономические вызовы и перспективы: https://legalforum.info/programme/business-programme/2742/
#мероприятия
#регуляторныйкомплаенс
#антикоррупционныйкомплаенс
#санкционныйкомплаенс
#контрсанкции
#искусственныйинтеллект
#криптовалюта
📌В Санкт-Петербурге с 11 по 13 мая проходит XI Петербургский международный юридический форум (ПМЮФ)
❗️В рамках форума много интересных тем и дискуссий. Кто не смог присутствовать – есть возможность посмотреть в записи большинство дискуссий.
👉Деловая программа здесь: https://legalforum.info/programme/business-programme/?t=days&day=1
👉Ссылки на несколько интересных тем:
☑️Специальное правовое регулирование в финансовой и корпоративной сферах в условиях санкционного давления: https://legalforum.info/programme/business-programme/2799/
☑️Роль антикоррупционной экспертизы в нормотворческой практике государства: https://legalforum.info/programme/business-programme/2827/
☑️Правовое регулирование искусственного интеллекта: от возможности к необходимости: https://legalforum.info/programme/business-programme/2766/
☑️Законодательство о контроле как драйвер экономического роста: https://legalforum.info/programme/business-programme/2730/
☑️Снижение рисков предпринимательской деятельности как фактор обеспечения экономической безопасности России в условиях внешних и внутренних угроз: https://legalforum.info/programme/business-programme/2739/
☑️Школа цифрового права: подготовка, развитие, сохранение и приумножение специалистов в сфере правового регулирования цифровой экономики и кибербезопасности в России: https://legalforum.info/programme/business-programme/3572/
☑️Уголовная ответственность юридических лиц: проблемы и перспективы: https://legalforum.info/programme/business-programme/3333/
☑️Как измерить платежеспособность контрагента? https://legalforum.info/programme/business-programme/2787/
☑️Блокчейн, криптовалюты и майнинг: новые экономические вызовы и перспективы: https://legalforum.info/programme/business-programme/2742/
#мероприятия
#регуляторныйкомплаенс
#антикоррупционныйкомплаенс
#санкционныйкомплаенс
#контрсанкции
#искусственныйинтеллект
#криптовалюта
👍2
photo_2023-10-11_13-54-31.jpg
244.7 KB
Конкурс
Антикоррупционный комплаенс
Этика
Искусственный интеллект
📌Ассоциация устойчивого развития промышленности объявила о конкурсе «Нейро-комплаенс»
✅Целью Конкурса является повышение информированности и активности широкого круга лиц по вопросам комплаенса и противодействия коррупции, а также вовлечение прогрессивного инструментария к формированию средств агитации по этичному ведению бизнеса
👉Как участвовать:
Сгенерировать нейросетью картинку на заданную тематику: комплаенс/противодействие коррупции/этическое ведение бизнеса
⏱Срок проведения:
☑️с 01.10.2023 по 31.10.2023 осуществляется приём конкурсных работ.
☑️с 01.11.2023 по 20.11.2023 осуществляется оценка и ранжирование конкурсных работ конкурсной комиссией, определение победителей
❗️Участие бесплатное
Подробные условия участия здесь: https://aurprom.ru/news/sobytiya/1576/
#конкурс
#антикоррупционныйкомплаенс
#этика
#искусственныйинтеллект
Антикоррупционный комплаенс
Этика
Искусственный интеллект
📌Ассоциация устойчивого развития промышленности объявила о конкурсе «Нейро-комплаенс»
✅Целью Конкурса является повышение информированности и активности широкого круга лиц по вопросам комплаенса и противодействия коррупции, а также вовлечение прогрессивного инструментария к формированию средств агитации по этичному ведению бизнеса
👉Как участвовать:
Сгенерировать нейросетью картинку на заданную тематику: комплаенс/противодействие коррупции/этическое ведение бизнеса
⏱Срок проведения:
☑️с 01.10.2023 по 31.10.2023 осуществляется приём конкурсных работ.
☑️с 01.11.2023 по 20.11.2023 осуществляется оценка и ранжирование конкурсных работ конкурсной комиссией, определение победителей
❗️Участие бесплатное
Подробные условия участия здесь: https://aurprom.ru/news/sobytiya/1576/
#конкурс
#антикоррупционныйкомплаенс
#этика
#искусственныйинтеллект
👍3❤1
Мероприятия
Искусственный интеллект
Этика
📌16.11.23 в пресс-центре ТАСС пройдет «Форум этики в сфере искусственного интеллекта: Поколение GPT. Красные линИИ»
👉Среди рассматриваемых вопросов:
☑️межкультурный взгляд на глобальные вызовы развития ИИ
☑️влияние ИИ на развитие современного общества
☑️стратегия продвижения этики ИИ в глобальной перспективе
☑️обеспечение приватности и безопасности человека в эру зависимости от технологий: вопросы баланса правового, этического и технического регулирования
☑️этические ориентиры на венчурном конвейере
☑️применение этических принципов в работе исследовательских центров в сфере ИИ
👉На мероприятии также запланированы:
✅ Церемония присоединения организаций к Кодексу этики в сфере ИИ
✅ Церемония награждения в сфере этики ИИ
❗️Мероприятие бесплатное, запланирована трансляция онлайн
👉Регистрация здесь: https://www.aiethic.ru/
⚡️Материалы в канале по тематике Этика ИИ:
➡️Уг.дело в Китае за использование чата GPT: https://t.iss.one/compliancecraft/1148
➡️исследование на тему: «Инструменты ИИ в руках злоумышленников – классификация угроз и способы противодействия» https://t.iss.one/compliancecraft/1131
➡️Эфир в канале и материалы по тематике ИИ: https://t.iss.one/compliancecraft/1099
#мероприятия
#искусственныйинтеллект
#этика
Искусственный интеллект
Этика
📌16.11.23 в пресс-центре ТАСС пройдет «Форум этики в сфере искусственного интеллекта: Поколение GPT. Красные линИИ»
👉Среди рассматриваемых вопросов:
☑️межкультурный взгляд на глобальные вызовы развития ИИ
☑️влияние ИИ на развитие современного общества
☑️стратегия продвижения этики ИИ в глобальной перспективе
☑️обеспечение приватности и безопасности человека в эру зависимости от технологий: вопросы баланса правового, этического и технического регулирования
☑️этические ориентиры на венчурном конвейере
☑️применение этических принципов в работе исследовательских центров в сфере ИИ
👉На мероприятии также запланированы:
✅ Церемония присоединения организаций к Кодексу этики в сфере ИИ
✅ Церемония награждения в сфере этики ИИ
❗️Мероприятие бесплатное, запланирована трансляция онлайн
👉Регистрация здесь: https://www.aiethic.ru/
⚡️Материалы в канале по тематике Этика ИИ:
➡️Уг.дело в Китае за использование чата GPT: https://t.iss.one/compliancecraft/1148
➡️исследование на тему: «Инструменты ИИ в руках злоумышленников – классификация угроз и способы противодействия» https://t.iss.one/compliancecraft/1131
➡️Эфир в канале и материалы по тематике ИИ: https://t.iss.one/compliancecraft/1099
#мероприятия
#искусственныйинтеллект
#этика
aiethic.ru
Форум этики в сфере искусственного интеллекта 2024
В октябре 2024 года состоится Форум этики в сфере искусственного интеллекта
👍7🔥2
Искусственный интеллект
Этика
📌🔥Новый интересный кейс: В Бразилии Национальный Совет Юстиции (CNJ) начал расследование по делу федеральный судьи, который использовал искусственный интеллект и принял решения на основании ложной судебной практики
👉История вопроса:
☑️ Родригес опубликовал постановление, содержащее целые выдержки, сформулированные с помощью ChatGPT. Использованные ИИ выдержки оказались ложными, в них приводились несуществующие и невероятные сведения
☑️ Решение о начале расследования принял национальный инспектор юстиции, министр Луис Фелипе Саломао (Luís Felipe Salomão). Он решил исследовать прецедент
❗️Что интересно:
Команда исследователей Университета Пердью проанализировала ответы ChatGPT на 517 вопросов Stack Overflow, чтобы оценить правильность, последовательность, полноту и краткость ответов чат-бота. Кроме того, учёные провели лингвистический анализ и анализ тональности ответов и попросили двенадцать добровольцев оценить работу искусственного интеллекта (статья с результатами была опубликована в августе 2023).
⚡️Результат получились интересными:
➡️52% ответов ChatGPT содержали ошибки
➡️77% показались им слишком многословными
➡️39,34% случаев ответам ChatGPT отдали предпочтение, благодаря их развёрнутости и чётким формулировкам, несмотря на то что 77% из них были неправильными
➡️только когда ошибки в ответах ChatGPT становились очевидными, участники эксперимента могли их идентифицировать. В случаях, когда ошибка требовала обращения к документации или к инструментам разработчика, добровольцы часто либо пропускали, либо недооценивали её
➡️говоря о характере ошибок ChatGPT, исследователи отметили, что тот чаще совершает концептуальные ошибки, чем фактические. «Многие ответы были неверными из-за неспособности ChatGPT понять основной контекст задаваемого вопроса».
✅Все вместе ставит новые вопросы:
👉перед разработчиками ChatGPT и аналогичных сервисов – как сделать его лучше, без ошибок или какие заперты/ограничения нужно прописать
👉перед пользователями – не верить буквально и не выключать ни критическое мышление, ни контроль в отношении представленных выводов
👉перед регуляторами – а как можно создать/и какое тогда должно быть регулирование, чтобы исключить негативные последствия подобного по сути бездумного использования ChatGPT и аналогичных сервисов для определённого круга лиц (куда могут войти не только судьи, но и прокуроры, врачи и др.)
❗️и вообще: насколько этично использовать чат GPT и аналоги для выполнения своей работы?
Решение по данному конкретному кейсу пока не принято. Будет интересно посмотреть на итоговое решение не только с т.з. решения в отношении этого судьи персонально, но и общую логику, которую Национальный Совет Юстиции Бразилии выработает, какие меры контроля буде необходимо ввести, чтобы избежать подобных прецедентов в будущем
https://news.rambler.ru/tech/51766567-v-brazilii-sudya-sostavil-prigovor-s-pomoschyu-chatgpt-i-dopustil-oshibki/
🖇Полный текст исследования команды Университета Пердью (на англ.) можно скачать здесь: https://arxiv.org/pdf/2308.02312.pdf
🖇В мае на 6-я ежегодная профессиональная конференция IMPERATOR-FORUM 2023. Безопасность бизнеса: современные вызовы Сергей Матвеев представлял тему: «ChatGPT. AI (искусственный интеллект) в индустрии безопасности». Посмотрите, очень интересные выводы и наблюдения (см. это выступление с 5:04 по 5:33): https://www.youtube.com/watch?v=qD4kVTCAwFI
🖇Завтра также проходит «Форум этики в сфере искусственного интеллекта: Поколение GPT. Красные линИИ», еще можно успеть зарегистрироваться и посмотреть трансляцию: https://t.iss.one/compliancecraft/1316
#искусственныйинтеллект
#этика
Этика
📌🔥Новый интересный кейс: В Бразилии Национальный Совет Юстиции (CNJ) начал расследование по делу федеральный судьи, который использовал искусственный интеллект и принял решения на основании ложной судебной практики
👉История вопроса:
☑️ Родригес опубликовал постановление, содержащее целые выдержки, сформулированные с помощью ChatGPT. Использованные ИИ выдержки оказались ложными, в них приводились несуществующие и невероятные сведения
☑️ Решение о начале расследования принял национальный инспектор юстиции, министр Луис Фелипе Саломао (Luís Felipe Salomão). Он решил исследовать прецедент
❗️Что интересно:
Команда исследователей Университета Пердью проанализировала ответы ChatGPT на 517 вопросов Stack Overflow, чтобы оценить правильность, последовательность, полноту и краткость ответов чат-бота. Кроме того, учёные провели лингвистический анализ и анализ тональности ответов и попросили двенадцать добровольцев оценить работу искусственного интеллекта (статья с результатами была опубликована в августе 2023).
⚡️Результат получились интересными:
➡️52% ответов ChatGPT содержали ошибки
➡️77% показались им слишком многословными
➡️39,34% случаев ответам ChatGPT отдали предпочтение, благодаря их развёрнутости и чётким формулировкам, несмотря на то что 77% из них были неправильными
➡️только когда ошибки в ответах ChatGPT становились очевидными, участники эксперимента могли их идентифицировать. В случаях, когда ошибка требовала обращения к документации или к инструментам разработчика, добровольцы часто либо пропускали, либо недооценивали её
➡️говоря о характере ошибок ChatGPT, исследователи отметили, что тот чаще совершает концептуальные ошибки, чем фактические. «Многие ответы были неверными из-за неспособности ChatGPT понять основной контекст задаваемого вопроса».
✅Все вместе ставит новые вопросы:
👉перед разработчиками ChatGPT и аналогичных сервисов – как сделать его лучше, без ошибок или какие заперты/ограничения нужно прописать
👉перед пользователями – не верить буквально и не выключать ни критическое мышление, ни контроль в отношении представленных выводов
👉перед регуляторами – а как можно создать/и какое тогда должно быть регулирование, чтобы исключить негативные последствия подобного по сути бездумного использования ChatGPT и аналогичных сервисов для определённого круга лиц (куда могут войти не только судьи, но и прокуроры, врачи и др.)
❗️и вообще: насколько этично использовать чат GPT и аналоги для выполнения своей работы?
Решение по данному конкретному кейсу пока не принято. Будет интересно посмотреть на итоговое решение не только с т.з. решения в отношении этого судьи персонально, но и общую логику, которую Национальный Совет Юстиции Бразилии выработает, какие меры контроля буде необходимо ввести, чтобы избежать подобных прецедентов в будущем
https://news.rambler.ru/tech/51766567-v-brazilii-sudya-sostavil-prigovor-s-pomoschyu-chatgpt-i-dopustil-oshibki/
🖇Полный текст исследования команды Университета Пердью (на англ.) можно скачать здесь: https://arxiv.org/pdf/2308.02312.pdf
🖇В мае на 6-я ежегодная профессиональная конференция IMPERATOR-FORUM 2023. Безопасность бизнеса: современные вызовы Сергей Матвеев представлял тему: «ChatGPT. AI (искусственный интеллект) в индустрии безопасности». Посмотрите, очень интересные выводы и наблюдения (см. это выступление с 5:04 по 5:33): https://www.youtube.com/watch?v=qD4kVTCAwFI
🖇Завтра также проходит «Форум этики в сфере искусственного интеллекта: Поколение GPT. Красные линИИ», еще можно успеть зарегистрироваться и посмотреть трансляцию: https://t.iss.one/compliancecraft/1316
#искусственныйинтеллект
#этика
Рамблер/новости
Судья в Бразилии составил приговор с ошибками с помощью ChatGPT
Национальный совет юстиции Бразилии расследует дело федерального судьи Джефферсона Феррейра Родригеса, который составил приговор с ошибками с помощью ChatGPT....
🔥6❤3