DRC Qazaqstan
Photo
Please open Telegram to view this post
VIEW IN TELEGRAM
Международная организация по стандартизации (ISO) сделала общедоступным и бесплатным один из своих ключевых стандартов — ISO/IEC 22989. Он охватывает широкий спектр тем, связанных с управлением ИИ, и предоставляет ценные рекомендации для ответственной разработки и внедрения технологий искусственного интеллекта.
Таким образом, ISO cпособствует широкому внедрению ответственных практик в области ИИ, обеспечивая, чтобы системы искусственного интеллекта были надежными, устойчивыми, точными, безопасными и приватными.
Документ предназначен для широкой аудитории, включая как экспертов, так и непрофессионалов, предлагая понимание междисциплинарного характера ИИ, который охватывает компьютерные науки, науки о данных, естественные, гуманитарные и социальные науки.
Кроме того, данный стандарт является отличным материалом при подготовке к сертификации AI Governance Professional от IAPP.
С текстом ISO/IEC 22989 и других стандартов в этой области можно ознакомиться здесь.
#новости_от_DRCQ #искусственный_интеллект #ИИ #ISO #стандарты #AI
Таким образом, ISO cпособствует широкому внедрению ответственных практик в области ИИ, обеспечивая, чтобы системы искусственного интеллекта были надежными, устойчивыми, точными, безопасными и приватными.
Документ предназначен для широкой аудитории, включая как экспертов, так и непрофессионалов, предлагая понимание междисциплинарного характера ИИ, который охватывает компьютерные науки, науки о данных, естественные, гуманитарные и социальные науки.
Кроме того, данный стандарт является отличным материалом при подготовке к сертификации AI Governance Professional от IAPP.
С текстом ISO/IEC 22989 и других стандартов в этой области можно ознакомиться здесь.
#новости_от_DRCQ #искусственный_интеллект #ИИ #ISO #стандарты #AI
Модератор: Руслан Дайырбеков, Управляющий партнер DRCQ, основатель Eurasian Digital Foundation
Спикеры:
• Бейбут Досмурзинов – директор департамента правового развития МФЦА
• Тимур Муссин, Member of Compliance Hub Association, Compliance, AML/CFT and Ethics Executive
• Дана Утеген, Teaching Professor, заместитель директора Высшей школы права Maqsut Narikbayev University, директор филиала DRCQ в МФЦА
• Дмитрий Шапошников, CISSP, SSCP – DPOFRHC, Руководитель направления по защите данных в Freedom Holding Corp.
На сессии обсудят ряд ключевых вопросов, связанных с использованием искусственного интеллекта и защитой приватности данных в современном бизнесе.
Мы рассмотрим этические аспекты использования ИИ, а также обсудим вопросы создания благоприятной, но при этом безопасной регуляторной среды для развития и применения решений в сфере искусственного интеллекта в Казахстане.
Мы проанализируем европейский AI Act, а также поделимся последними современными методами управления рисками и обеспечения безопасности при использовании ИИ в бизнесе.
#новости_от_DRCQ #МФЦА #ИИ #Казахстан #AI #искусственный_интеллект #Astana_finance_days
Спикеры:
• Бейбут Досмурзинов – директор департамента правового развития МФЦА
• Тимур Муссин, Member of Compliance Hub Association, Compliance, AML/CFT and Ethics Executive
• Дана Утеген, Teaching Professor, заместитель директора Высшей школы права Maqsut Narikbayev University, директор филиала DRCQ в МФЦА
• Дмитрий Шапошников, CISSP, SSCP – DPOFRHC, Руководитель направления по защите данных в Freedom Holding Corp.
На сессии обсудят ряд ключевых вопросов, связанных с использованием искусственного интеллекта и защитой приватности данных в современном бизнесе.
Мы рассмотрим этические аспекты использования ИИ, а также обсудим вопросы создания благоприятной, но при этом безопасной регуляторной среды для развития и применения решений в сфере искусственного интеллекта в Казахстане.
Мы проанализируем европейский AI Act, а также поделимся последними современными методами управления рисками и обеспечения безопасности при использовании ИИ в бизнесе.
#новости_от_DRCQ #МФЦА #ИИ #Казахстан #AI #искусственный_интеллект #Astana_finance_days
Правительство Республики Казахстан официально утвердило Концепцию развития искусственного интеллекта в стране на 2024 - 2029 годы
Документ направлен на повышение роли ИИ в различных сферах жизни, обеспечение безопасности и этики в применении технологий, а также развитие инфраструктуры и человеческого капитала.
Прежде всего, в Концепции выражена необходимость юридического регулирования ИИ на территории Казахстана, включая понятийный аппарат, правила государственного регулирования, этические принципы, обеспечение безопасности и другие ключевые моменты.
Должны быть также разработаны все необходимые стандарты, технические регламенты и языковые модели (LLM).
Далее, Концепция предусматривает создание национальной платформы искусственного интеллекта на базе Smart Data Ukimet, которая будет общей площадкой для развития моделей ИИ в интересах всех сторон - государства, бизнеса, общества и отдельных персоналий.
Кроме того, будет создан Astana Center for AI на базе музея Nur Alem, основной задачей которого станет продвижение идей популярности ИИ среди казахстанцев, в том числе за счет проекта «Generative Nation», поддержки национальных AI-стартапов и запуск открытых обучающих курсов
Важнейший элемент Концепции - это разработка не только правовых, но и этических норм развития ИИ-технологий, которые будут обеспечивать функционирование последних на основе морали, справедливости и защиты прав и свобод жителей Казахстана.
По словам директора юридической фирмы DRCQ Руслана Дайырбекова, внедрение этических норм и мер безопасности направлено на защиту прав и свобод граждан, предотвращение дискриминации и обеспечение справедливости.
Ранее мы уже писали о том, что Закон РК «Об искусственном интеллекте» будет подписан президентом не позднее первой половины 2025 года. Об этом на заседании правительства доложил министр цифрового развития, инноваций и аэрокосмической промышленности Жаслан Мадиев.
Документ разработан МЦРИАП совместно с депутатами Мажилиса Парламента РК и уже согласован с заинтересованными госорганами и НПП «Атамекен».
Напомним, что эксперты юридической фирмы DRCQ активно участвуют в диалоге с государством и экспертным сообществом в вопросах регулирования искусственного интеллекта (ИИ). Ранее ими на основании зарубежного опыта по этой проблематике был составлен пакет рекомендаций в сфере совершенствования законодательства, включая следующие меры:
🔹запрет массовой и неизбирательной слежки с помощью систем видеонаблюдения;
🔹запрет на использование системы биометрической идентификации в реальном времени любыми пользователями, кроме правоохранительных органов;
🔹категоризация биометрических систем с высоким и низким уровнем риска на примере опыта регулирования искусственного интеллекта в Европейском Союзе;
🔹создание правовых механизмов для оценки и предотвращения потенциальных рисков негативного воздействия развития и применения технологий ИИ на права и свободы человека, а также другие меры.
#новости_от_DRCQ #Казахстан #правительство #искусственный_интеллект #ИИ #AI
Документ направлен на повышение роли ИИ в различных сферах жизни, обеспечение безопасности и этики в применении технологий, а также развитие инфраструктуры и человеческого капитала.
Прежде всего, в Концепции выражена необходимость юридического регулирования ИИ на территории Казахстана, включая понятийный аппарат, правила государственного регулирования, этические принципы, обеспечение безопасности и другие ключевые моменты.
Должны быть также разработаны все необходимые стандарты, технические регламенты и языковые модели (LLM).
Далее, Концепция предусматривает создание национальной платформы искусственного интеллекта на базе Smart Data Ukimet, которая будет общей площадкой для развития моделей ИИ в интересах всех сторон - государства, бизнеса, общества и отдельных персоналий.
Кроме того, будет создан Astana Center for AI на базе музея Nur Alem, основной задачей которого станет продвижение идей популярности ИИ среди казахстанцев, в том числе за счет проекта «Generative Nation», поддержки национальных AI-стартапов и запуск открытых обучающих курсов
Важнейший элемент Концепции - это разработка не только правовых, но и этических норм развития ИИ-технологий, которые будут обеспечивать функционирование последних на основе морали, справедливости и защиты прав и свобод жителей Казахстана.
По словам директора юридической фирмы DRCQ Руслана Дайырбекова, внедрение этических норм и мер безопасности направлено на защиту прав и свобод граждан, предотвращение дискриминации и обеспечение справедливости.
Ранее мы уже писали о том, что Закон РК «Об искусственном интеллекте» будет подписан президентом не позднее первой половины 2025 года. Об этом на заседании правительства доложил министр цифрового развития, инноваций и аэрокосмической промышленности Жаслан Мадиев.
Документ разработан МЦРИАП совместно с депутатами Мажилиса Парламента РК и уже согласован с заинтересованными госорганами и НПП «Атамекен».
Напомним, что эксперты юридической фирмы DRCQ активно участвуют в диалоге с государством и экспертным сообществом в вопросах регулирования искусственного интеллекта (ИИ). Ранее ими на основании зарубежного опыта по этой проблематике был составлен пакет рекомендаций в сфере совершенствования законодательства, включая следующие меры:
🔹запрет массовой и неизбирательной слежки с помощью систем видеонаблюдения;
🔹запрет на использование системы биометрической идентификации в реальном времени любыми пользователями, кроме правоохранительных органов;
🔹категоризация биометрических систем с высоким и низким уровнем риска на примере опыта регулирования искусственного интеллекта в Европейском Союзе;
🔹создание правовых механизмов для оценки и предотвращения потенциальных рисков негативного воздействия развития и применения технологий ИИ на права и свободы человека, а также другие меры.
#новости_от_DRCQ #Казахстан #правительство #искусственный_интеллект #ИИ #AI
Сессия под названием "Приватность в эпоху ИИ: изменяющиеся вызовы для бизнеса и адаптивные стратегии успеха", организованная юридической фирмой DRCQ совместно с Международным финансовым центром "Астана" (МФЦА) в рамках Astana Finance Days, направлена на то, чтобы обсудить, как ИИ меняет бизнес, какие технологии помогают справиться с новыми вызовами и как обеспечить правовую защиту персональных данных в МФЦА.
Мы рассмотрим, в частности, следующие вопросы:
❓Какие риски и вызовы в области комплаенса возникают в связи с внедрением ИИ в бизнес-процессы?
❓Как технологии помогают минимизировать риски ПОД/ФТ?
❓Как изменения в международных стандартах и требованиях влияют на национальные подходы к регулированию использования ИИ?
❓Какие ключевые вопросы в области правового регулирования ИИ вы видите на международном и национальном уровне?
❓Какие лучшие практики можно адаптировать для МФЦА?
❓Какие меры по защите данных можно считать наиболее эффективными в условиях активного использования ИИ в бизнесе?
❓Как МФЦА адаптируется к новым вызовам в области защиты данных, связанным с внедрением ИИ?
❓Насколько важно применение Soft law подхода (рекомендательные нормы, кодексы поведения) для регулирования использования ИИ в МФЦА, и какие преимущества и вызовы с ним связаны?
Спикерами сессии выступят:
👨🎓Timur Mussin – Член Ассоциации Compliance Hub, Эксперт по комплаенсу, ПОД/ФТ и этике;
👩🎓Dana Utegen – Teaching professor Высшей школы права Maqsut Narikbayev University и директор филиала юридической фирмы DRCQ в МФЦА;
👨🎓Dmitriy Shaposhnikov – руководитель департамента по защите данных Freedom Holding Corp.;
👨🎓Arman Assakayev – руководитель НКО FinTech AI Center;
👨🎓Beibut Dosmurzinov – и.о. Уполномоченного по защите данных, Администрация МФЦА.
Модератором является 👨🎓Ruslan Dairbekov — управляющий партнер и директор юридической фирмы DRCQ, основатель Евразийского цифрового фонда (EDF).
Дата и время проведения сессии: 6 сентября 2024 года, 10:00 - 11:00
Зарегистрироваться для участия можно здесь.
#Казахстан #новости_от_DRCQ #ИИ #МФЦА #privacy #Astana_finance_days #приватность #искусственный_интеллект
Мы рассмотрим, в частности, следующие вопросы:
❓Какие риски и вызовы в области комплаенса возникают в связи с внедрением ИИ в бизнес-процессы?
❓Как технологии помогают минимизировать риски ПОД/ФТ?
❓Как изменения в международных стандартах и требованиях влияют на национальные подходы к регулированию использования ИИ?
❓Какие ключевые вопросы в области правового регулирования ИИ вы видите на международном и национальном уровне?
❓Какие лучшие практики можно адаптировать для МФЦА?
❓Какие меры по защите данных можно считать наиболее эффективными в условиях активного использования ИИ в бизнесе?
❓Как МФЦА адаптируется к новым вызовам в области защиты данных, связанным с внедрением ИИ?
❓Насколько важно применение Soft law подхода (рекомендательные нормы, кодексы поведения) для регулирования использования ИИ в МФЦА, и какие преимущества и вызовы с ним связаны?
Спикерами сессии выступят:
👨🎓Timur Mussin – Член Ассоциации Compliance Hub, Эксперт по комплаенсу, ПОД/ФТ и этике;
👩🎓Dana Utegen – Teaching professor Высшей школы права Maqsut Narikbayev University и директор филиала юридической фирмы DRCQ в МФЦА;
👨🎓Dmitriy Shaposhnikov – руководитель департамента по защите данных Freedom Holding Corp.;
👨🎓Arman Assakayev – руководитель НКО FinTech AI Center;
👨🎓Beibut Dosmurzinov – и.о. Уполномоченного по защите данных, Администрация МФЦА.
Модератором является 👨🎓Ruslan Dairbekov — управляющий партнер и директор юридической фирмы DRCQ, основатель Евразийского цифрового фонда (EDF).
Дата и время проведения сессии: 6 сентября 2024 года, 10:00 - 11:00
Зарегистрироваться для участия можно здесь.
#Казахстан #новости_от_DRCQ #ИИ #МФЦА #privacy #Astana_finance_days #приватность #искусственный_интеллект
🔎 В центре внимания европейских регуляторов оказались такие гиганты как Google, платформа X (бывший Twitter) и Meta (владеет Instagram, Facebook и WhatsApp), что подчёркивает серьёзность подхода европейских регулирующих органов и важность защиты персональных данных на фоне растущей роли ИИ в современном обществе.
В середине сентября 2024 года ведущий регулятор ЕС по защите данных, Ирландская комиссия по защите данных (DPC), объявила о начале расследования в отношении компании Google.
Основной целью проверки стало выяснение, насколько тщательно компания защищает персональные данные европейских пользователей при разработке своей новой ИИ-системы Pathways Language Model 2 (PaLM 2).
🔻 Регулятор отметил, что это расследование является частью более широких усилий по контролю за обработкой персональных данных в рамках развития ИИ в Европе.
Компания X, принадлежащая Илону Маску, также попала под пристальное внимание DPC. В августе 2024 года X согласилась временно прекратить использование персональных данных пользователей из ЕС для обучения своих ИИ-систем, включая чат-бот Grok.
Регулятор выразил опасения, что компания начала обработку данных до того, как пользователям была предоставлена возможность отказаться от этого. С 16 июля 2024 года у пользователей появилась возможность отключить обработку данных через настройки конфиденциальности.
🔸 Тем временем, судебные разбирательства по поводу законности использования данных X продолжаются и платформа временно отказалась от использования данных, собранных между маем и августом 2024 года, до окончательного решения суда.
Представители X считают действия регулятора необоснованными и заявили, что компания соблюдает законы о конфиденциальности. Однако этот случай лишь подчёркивает напряженность вопроса использования данных пользователей в ИИ-системах.
Стоит отметить, что X и Google не первые компании, столкнувшиеся с подобными расследованиями. В июне 2024 года Meta отложила запуск своих ИИ-моделей в Европе после консультаций с Ирландской комиссией по защите данных.
☑️ Главным инструментом защиты персональных данных в ЕС является Общий регламент по защите данных (GDPR), принятый в 2018 году. GDPR обязывает компании получать явное согласие пользователей на обработку их данных и предоставляет им право отозвать его в любой момент.
Компании, нарушающие этот закон, могут столкнуться с серьезными штрафами, что делает его одним из самых строгих в мире стандартов защиты данных.
Дополнительное внимание конфиденциальности данных в контексте ИИ связано с тем, что в августе 2024 года вступил в силу новый Закон ЕС о регулировании искусственного интеллекта (EU AI Act). Документ вводит строгие правила использования ИИ-систем, направленные на минимизацию рисков, связанных с технологией.
👉 Таким образом, заметно, что европейский подход к регулированию ИИ отличается своей жёсткостью.
Наряду с уже существующими механизмами, такими как GDPR, новый закон о регулировании ИИ ставит перед компаниями серьёзные задачи по соблюдению норм, что требует значительных изменений в их бизнес-процессах.
#ИИ #ЕС #искусственный_интеллект #законы #новости_от_DRCQ
В середине сентября 2024 года ведущий регулятор ЕС по защите данных, Ирландская комиссия по защите данных (DPC), объявила о начале расследования в отношении компании Google.
Основной целью проверки стало выяснение, насколько тщательно компания защищает персональные данные европейских пользователей при разработке своей новой ИИ-системы Pathways Language Model 2 (PaLM 2).
🔻 Регулятор отметил, что это расследование является частью более широких усилий по контролю за обработкой персональных данных в рамках развития ИИ в Европе.
Компания X, принадлежащая Илону Маску, также попала под пристальное внимание DPC. В августе 2024 года X согласилась временно прекратить использование персональных данных пользователей из ЕС для обучения своих ИИ-систем, включая чат-бот Grok.
Регулятор выразил опасения, что компания начала обработку данных до того, как пользователям была предоставлена возможность отказаться от этого. С 16 июля 2024 года у пользователей появилась возможность отключить обработку данных через настройки конфиденциальности.
🔸 Тем временем, судебные разбирательства по поводу законности использования данных X продолжаются и платформа временно отказалась от использования данных, собранных между маем и августом 2024 года, до окончательного решения суда.
Представители X считают действия регулятора необоснованными и заявили, что компания соблюдает законы о конфиденциальности. Однако этот случай лишь подчёркивает напряженность вопроса использования данных пользователей в ИИ-системах.
Стоит отметить, что X и Google не первые компании, столкнувшиеся с подобными расследованиями. В июне 2024 года Meta отложила запуск своих ИИ-моделей в Европе после консультаций с Ирландской комиссией по защите данных.
☑️ Главным инструментом защиты персональных данных в ЕС является Общий регламент по защите данных (GDPR), принятый в 2018 году. GDPR обязывает компании получать явное согласие пользователей на обработку их данных и предоставляет им право отозвать его в любой момент.
Компании, нарушающие этот закон, могут столкнуться с серьезными штрафами, что делает его одним из самых строгих в мире стандартов защиты данных.
Дополнительное внимание конфиденциальности данных в контексте ИИ связано с тем, что в августе 2024 года вступил в силу новый Закон ЕС о регулировании искусственного интеллекта (EU AI Act). Документ вводит строгие правила использования ИИ-систем, направленные на минимизацию рисков, связанных с технологией.
👉 Таким образом, заметно, что европейский подход к регулированию ИИ отличается своей жёсткостью.
Наряду с уже существующими механизмами, такими как GDPR, новый закон о регулировании ИИ ставит перед компаниями серьёзные задачи по соблюдению норм, что требует значительных изменений в их бизнес-процессах.
#ИИ #ЕС #искусственный_интеллект #законы #новости_от_DRCQ
Министр цифрового развития, инноваций и аэрокосмической промышленности Жаслан Мадиев представил концепцию Международного центра искусственного интеллекта alem.ai. Об этом сообщает пресс-служба Минцифры РК.
Цель центра — превратить Казахстан в государство, ориентированное на развитие искусственного интеллекта (ИИ). Это позволит внедрять инновации и развивать технологии ИИ в ключевых областях, таких как наука, промышленность, креативные индустрии и государственные услуги. Он также будет способствовать созданию экосистемы ИИ для привлечения инвестиций и поддержки стартапов.
По информации МЦРИАП, создание центра позволит увеличить экспорт казахстанских решений в области ИИ до 5 миллиардов долларов к 2029 году. Это будет способствовать новой волне технологического и экономического роста благодаря развитию ИИ. А Астана в перспективе может стать ведущим центром ИИ-технологий в Центральной Азии.
В рамках проекта планируется ежегодно привлекать около 10 тысяч специалистов из различных отраслей, обучать не менее тысячи специалистов в области ИИ, запускать около 100 стартапов и проводить около 10 исследований в сфере ИИ.
На первом этаже Центра будет расположено общественное пространство для форумов и лекций, музей ИИ. На втором этаже будет школа TUMO School для школьников 9–12 классов, где более 42 тысяч учеников в Астане могут участвовать в программе программирования, робототехники и креативных технологий.
Второй этаж рассчитан на 206 мест, третий этаж добавляет ещё 348 мест. В здании есть зоны для групповых занятий, конференц-залы и лаборатории.
На четвёртом и пятом этажах будет школа Tomorrow School, первая в Казахстане peer-to-peer школа ИИ, запущенная технопарком Astana Hub в октябре 2024 года. Обучение бесплатное и не требует предварительных навыков программирования.
На шестом этаже будет ИИ-кампус для акселерации стартапов. На седьмом этаже — исследовательские лаборатории, а на восьмом — ситуационный центр для анализа и управления государственными процессами.
Жаслан Мадиев отметил, что министерство ведёт переговоры о размещении в Центре офисов таких компаний, как Telegram, TON, Tether, Indrive, Google и других, для проведения научно-исследовательских проектов и разработки новых ИИ-продуктов. В настоящее время в инфраструктуре Astana Hub базируются офисы крупных международных компаний, таких как Playrix, TikTok, inDrive, EPAM, Glovo, DAMUMED, Presight.ai и другие.
#Казахстан #ИИ #Астана #новости_от_DRCQ #искусственный_интеллект #МЦРИАП
Цель центра — превратить Казахстан в государство, ориентированное на развитие искусственного интеллекта (ИИ). Это позволит внедрять инновации и развивать технологии ИИ в ключевых областях, таких как наука, промышленность, креативные индустрии и государственные услуги. Он также будет способствовать созданию экосистемы ИИ для привлечения инвестиций и поддержки стартапов.
По информации МЦРИАП, создание центра позволит увеличить экспорт казахстанских решений в области ИИ до 5 миллиардов долларов к 2029 году. Это будет способствовать новой волне технологического и экономического роста благодаря развитию ИИ. А Астана в перспективе может стать ведущим центром ИИ-технологий в Центральной Азии.
В рамках проекта планируется ежегодно привлекать около 10 тысяч специалистов из различных отраслей, обучать не менее тысячи специалистов в области ИИ, запускать около 100 стартапов и проводить около 10 исследований в сфере ИИ.
На первом этаже Центра будет расположено общественное пространство для форумов и лекций, музей ИИ. На втором этаже будет школа TUMO School для школьников 9–12 классов, где более 42 тысяч учеников в Астане могут участвовать в программе программирования, робототехники и креативных технологий.
Второй этаж рассчитан на 206 мест, третий этаж добавляет ещё 348 мест. В здании есть зоны для групповых занятий, конференц-залы и лаборатории.
На четвёртом и пятом этажах будет школа Tomorrow School, первая в Казахстане peer-to-peer школа ИИ, запущенная технопарком Astana Hub в октябре 2024 года. Обучение бесплатное и не требует предварительных навыков программирования.
На шестом этаже будет ИИ-кампус для акселерации стартапов. На седьмом этаже — исследовательские лаборатории, а на восьмом — ситуационный центр для анализа и управления государственными процессами.
Жаслан Мадиев отметил, что министерство ведёт переговоры о размещении в Центре офисов таких компаний, как Telegram, TON, Tether, Indrive, Google и других, для проведения научно-исследовательских проектов и разработки новых ИИ-продуктов. В настоящее время в инфраструктуре Astana Hub базируются офисы крупных международных компаний, таких как Playrix, TikTok, inDrive, EPAM, Glovo, DAMUMED, Presight.ai и другие.
#Казахстан #ИИ #Астана #новости_от_DRCQ #искусственный_интеллект #МЦРИАП
В открытом доступе представлен первый проект закона, который регулирует развитие и использование искусственного интеллекта в Республике Казахстан.
В законопроекте предлагается классифицировать системы искусственного интеллекта по уровням риска. Это позволит применять разные подходы к регулированию в зависимости от возможных последствий работы систем.
Законопроект также ужесточает требования к обработке персональных данных при использовании искусственного интеллекта.
Особое внимание уделяется правам пользователей и ответственности операторов. Вводятся требования к операторам систем искусственного интеллекта по обеспечению защиты данных, недопущению дискриминации и предоставлению информации о принципах работы алгоритмов.
Для пользователей закрепляются права на получение разъяснений по решениям, принятым искусственным интеллектом, а также механизмы обжалования в случае нарушений.
В законопроекте также содержатся положения о развитии национальных инициатив в области искусственного интеллекта и формировании нормативной базы, которая учитывает международный опыт и особенности казахстанского рынка.
Обсуждение законопроекта продолжается, и его доработка будет зависеть от предложений экспертного сообщества.
Напомним, что эксперты юридической фирмы DRCQ активно участвуют в диалоге с государством и экспертным сообществом в вопросах регулирования искусственного интеллекта (ИИ).
Ранее ими на основании зарубежного опыта по этой проблематике был составлен пакет рекомендаций в сфере совершенствования законодательства, включая следующие меры:
🔹запрет массовой и неизбирательной слежки с помощью систем видеонаблюдения;
🔹запрет на использование системы биометрической идентификации в реальном времени любыми пользователями, кроме правоохранительных органов;
🔹категоризация биометрических систем с высоким и низким уровнем риска на примере опыта регулирования искусственного интеллекта в Европейском Союзе;
🔹создание правовых механизмов для оценки и предотвращения потенциальных рисков негативного воздействия развития и применения технологий ИИ на права и свободы человека, а также другие меры.
#Казахстан #ИИ #законопроекты #искусственный_интеллект #новости_от_DRCQ
В законопроекте предлагается классифицировать системы искусственного интеллекта по уровням риска. Это позволит применять разные подходы к регулированию в зависимости от возможных последствий работы систем.
Законопроект также ужесточает требования к обработке персональных данных при использовании искусственного интеллекта.
Особое внимание уделяется правам пользователей и ответственности операторов. Вводятся требования к операторам систем искусственного интеллекта по обеспечению защиты данных, недопущению дискриминации и предоставлению информации о принципах работы алгоритмов.
Для пользователей закрепляются права на получение разъяснений по решениям, принятым искусственным интеллектом, а также механизмы обжалования в случае нарушений.
В законопроекте также содержатся положения о развитии национальных инициатив в области искусственного интеллекта и формировании нормативной базы, которая учитывает международный опыт и особенности казахстанского рынка.
Обсуждение законопроекта продолжается, и его доработка будет зависеть от предложений экспертного сообщества.
Напомним, что эксперты юридической фирмы DRCQ активно участвуют в диалоге с государством и экспертным сообществом в вопросах регулирования искусственного интеллекта (ИИ).
Ранее ими на основании зарубежного опыта по этой проблематике был составлен пакет рекомендаций в сфере совершенствования законодательства, включая следующие меры:
🔹запрет массовой и неизбирательной слежки с помощью систем видеонаблюдения;
🔹запрет на использование системы биометрической идентификации в реальном времени любыми пользователями, кроме правоохранительных органов;
🔹категоризация биометрических систем с высоким и низким уровнем риска на примере опыта регулирования искусственного интеллекта в Европейском Союзе;
🔹создание правовых механизмов для оценки и предотвращения потенциальных рисков негативного воздействия развития и применения технологий ИИ на права и свободы человека, а также другие меры.
#Казахстан #ИИ #законопроекты #искусственный_интеллект #новости_от_DRCQ