ИИ & Право
2.14K subscribers
17 photos
1 video
4 files
416 links
Новости регулирования искусственного интеллекта.

#ИИ комплаенс
#AI Governance
#искусственныйинтеллект

Английская версия канала https://t.iss.one/ai_and_law

Контакт: @mmariuka
Download Telegram
Австралия рассматривает возможность запрета на использование ИИ с высоким риском, включая дипфейки и алгоритмическую предвзятость

Австралийское правительство рассматривает возможность запрета приложений ИИ с высоким риском, таких как дипфейки и алгоритмическая предвзятость.

Рассматривая этот запрет, правительство Австралии стремится решить эти проблемы и обеспечить ответственное использование технологии ИИ. Цель состоит в том, чтобы найти баланс между преимуществами ИИ и потенциальным вредом, связанным с его неправильным использованием. Это развитие событий отражает растущее признание необходимости регулирования ИИ и защиты от его негативных последствий.

Хотя детали конкретного запрета и его реализации еще предстоит уточнить, это событие подчеркивает важность упреждающего регулирования в области ИИ.

#AIRegulation #EthicalAI #Deepfakes #AlgorithmicBias #AustralianGovernment #ai #artificialintelligence
Франция стремится к глобальному регулированию искусственного интеллекта к концу года

Франция заявляет о ведущей роли в формировании глобального законодательства в области искусственного интеллекта и намерена представить свои идеи к концу этого года.

Признавая быстрое развитие технологии ИИ и ее потенциальное влияние на различные аспекты жизни общества, Франция стремится активно решать вопросы рисков, связанных с ИИ. Страна стремится найти баланс между стимулированием инноваций и защитой прав, конфиденциальности и безопасности частных лиц.

"С моей точки зрения... я думаю, что нам действительно необходимо регулирование, и все игроки, даже американские, согласны с этим. Я думаю, нам нужно глобальное регулирование", - сказал Макрон во время конференции VivaTech в Париже в среду.

#AIregulation #EthicalAI #ResponsibleAI #DataPrivacy
54 миллиона фунтов стерлингов на развитие исследований в области безопасного и надежного ИИ

Правительство Великобритании объявило о значительных инвестициях в размере 54 миллионов фунтов стерлингов в поддержку развития безопасного и надежного ИИ.

Финансирование будет предназначено на различные проекты и инициативы, направленные на повышение безопасности и надежности систем ИИ. Это включает в себя продвижение исследований алгоритмов ИИ, конфиденциальности данных и мер кибербезопасности. Цель - решить такие критические проблемы, как алгоритмическая предвзятость, защита данных и этические аспекты при разработке и внедрении ИИ.

#AIresearch #SecureAI #TrustworthyAI #UKgovernment #Innovation #EthicalAI #DataPrivacy #Cybersecurity
UK: Доклад призывает к этичному будущему ИИ и надежному управлению

Всепартийная парламентская группа по аналитике данных в Великобритании выпустила отчет под названием "Этичное будущее ИИ: Инструменты для превращения искусственного интеллекта в силу добра".

Цель доклада - изучить, как эффективная система управления и регулирования может максимизировать преимущества ИИ, одновременно устраняя существующие риски, такие как дипфейки, и готовясь к потенциальным будущим рискам.

В докладе содержится несколько ключевых рекомендаций по формированию будущего управления ИИ:

1️⃣ Усилить международное взаимодействие.

2️⃣ Принять этическую конвенцию по ИИ.

3️⃣ Внедрить принцип "Не навреди".

4️⃣ Создать независимый регулирующий орган.

#EthicalAI #AIRegulation #Governance #AIConvention #Accountability
Комиссар по электронной безопасности Австралии обратился к генеративному ИИ

Привет общество AI&Law! Комиссар по электронной безопасности Австралии опубликовал "Заявление о позиции по технологическим тенденциям - генеративный ИИ". В данном документе дается оценка современного состояния генеративного искусственного интеллекта, его жизненного цикла и приводятся примеры как благоприятного, так и неблагоприятного применения этой технологии.

Предлагая понимание потенциальных преимуществ и проблем, связанных с генеративным ИИ, данное программное заявление направлено на информирование заинтересованных сторон, стимулирование ответственного использования и внесение вклада в постоянный диалог об ответственном внедрении технологий искусственного интеллекта.

#AI #Australia #TechTrends #EthicalAI
Представляем вашему вниманию новый доклад Clifford Chance: "Ответственный ИИ на практике".

Здравствуйте, подписчики AI&Law! Компания "Клиффорд Чанс" опубликовала новый отчет "Ответственный ИИ на практике". Он проливает свет на растущие проблемы, связанные с использованием и влиянием искусственного интеллекта.

В документе, подготовленном в партнерстве с Milltown Partners, представлены результаты фокус-групп, проведенных в США, Великобритании и Германии. В ходе этих дискуссий рассматривались такие важнейшие вопросы ИИ, как предвзятость, согласие, прозрачность и управление.

Несмотря на оптимизм в отношении потенциала ИИ, очевидно, что еще предстоит работа по обеспечению его ответственного и безопасного применения.

#AI #CliffordChance #ResponsibleAI #AIandLaw #EthicalAI
Sony AI призывает к многомерной оценке предвзятости ИИ, включая оттенки кожи

Компания Sony AI предлагает более инклюзивный подход к оценке предвзятости ИИ, призывая учитывать различные оттенки кожи. Этот шаг призван стимулировать этические дискуссии при разработке ИИ.

В то время как инициативы по обеспечению справедливости ИИ были направлены в основном на снижение предвзятости, связанной со светлым или темным цветом кожи, последние исследования Sony AI выступают за более широкую перспективу. Для создания более этичных и разнообразных систем ИИ предлагается наряду с традиционными оттенками кожи оценивать красные и желтые оттенки.

Это этическое исследование направлено на решение проблемы предвзятости ИИ и продвижение систем ИИ, которые дают точные результаты независимо от цвета кожи пользователей. Google и Amazon проявили интерес к результатам исследований Sony, что свидетельствует о коллективном стремлении к созданию более этичного и инклюзивного ИИ.

#AIEthics #InclusiveAI #EthicalAI #AIandEthics
Представлен план действий по работе с ИИ в Нью-Йорке

Всем привет! В Нью-Йорке обнародован План действий в области ИИ, направленный на ответственное управление ИИ. План действий призван обеспечить ответственное и этичное использование ИИ в городских органах власти.

В нем дается определение ИИ как широкого зонтичного термина, охватывающего различные технологии, машинного и глубокого обучения, используемые для прогнозирования, выработки рекомендаций и принятия решений. Сюда входят такие передовые инструменты, как алгоритмы машинного обучения, технологии компьютерного зрения и обработки языка.

Данный план действий содержит семь важнейших инициатив:

1️⃣ Надежная система управления: Обеспечение надежности, прозрачности, справедливости и других ценностей.

2️⃣ Привлечение заинтересованных сторон: Привлечение различных секторов к решению проблем ИИ.

3️⃣ Расширение прав и возможностей общественности: Обеспечение участия общественности и открытой коммуникации по вопросам ответственного использования ИИ.

4️⃣ Грамотность в области ИИ: Обучение городских служащих ответственному взаимодействию с ИИ.

5️⃣ Поддержка ИИ: Предоставление помощи и знаний городским агентствам.

6️⃣ Ответственные закупки ИИ: Разработка стандартов закупок для этичных приобретений ИИ.

7️⃣ Обновление плана действий: Обеспечение актуальности плана и включение в него ежегодных отчетов о проделанной работе.

#NewYorkCityAI #AIActionPlan #ResponsibleAI #AIInGovernance #AIandLaw #EthicalAI #Transparency #AIRegulations
OpenAI представил новую рамочную "систему готовности"

Приветствуем, дорогие подисчики! OpenAI обнародовал свою новаторскую концепцию готовности, направленную на укрепление безопасности и этичности разработки моделей ИИ.

В качестве проактивного шага на пути к глобальной безопасности ИИ OpenAI учредил консультативную группу по безопасности, уполномоченную давать критические рекомендации руководству. Примечательно, что совет обладает правом вето, способным остановить выпуск любой модели ИИ, даже если руководство сочтет ее безопасной.

На фоне года динамичного роста и перестановок в правлении, включая быстрое восстановление в должности генерального директора Сэма Альтмана, OpenAI активно расширяет свои протоколы безопасности.

Концепция готовности OpenAI призвана восполнить пробелы в изучении рисков, связанных с передовым ИИ. В ней описаны процессы мониторинга, оценки, прогнозирования и защиты от рисков, создаваемых все более мощными моделями ИИ. Основное внимание уделяется катастрофическим рискам, включая экономический ущерб, серьезные повреждения или гибель людей, что подчеркивает приверженность ответственному развитию ИИ.

Группа по обеспечению готовности под руководством профессора Александра Мадри состоит из исследователей ИИ, компьютерных ученых, экспертов по национальной безопасности и специалистов по регулированию. В их задачи входит бдительный мониторинг, постоянное тестирование и раннее предупреждение о том, что возможности ИИ могут стать опасными. Кроме того, концепция предусматривает устранение предвзятости, чтобы не позволить системам ИИ причинять вред, особенно в таких областях, как расовые предрассудки.

По мере развития ИИ OpenAI задает тон в отрасли, демонстрируя важность баланса между технологическими инновациями и этическими соображениями.

#AIAndLaw #OpenAI #AISafety #EthicalAI #AIInnovation #TechNews #LegalTech
#AIAndLaw #OpenAI #AISafety #EthicalAI #AIInnovation #TechNews #LegalTech
Fairly Trained запускают сертификацию для ИИ, соблюдающего авторские права

Привет всем! В попытке решить проблемы авторского права в сфере ИИ некоммерческая организация Fairly Trained запускает новую программу сертификации. Программа, ориентированная на компании, занимающиеся разработкой ИИ, присуждает сертификат "Лицензированная модель" организациям, которые демонстрируют получение разрешения на использование данных, защищенных авторским правом.

#AICertification #EthicalAI #Copyright
Департамент юстиции США запускает программу Justice AI для борьбы с преступностью с помощью этичного ИИ

Привет всем! Департамент юстиции США объявил о запуске проекта Justice AI - амбициозной инициативы, направленной на модернизацию борьбы с преступностью при помощи этичного ИИ. Возглавляемая заместителем генерального прокурора Лизой Монако, инициатива Justice AI предполагает сбор информации от экспертов из различных отраслей для изучения влияния искусственного интеллекта на правоохранительную деятельность. В течение следующих шести месяцев эксперты будут сотрудничать и представлять точки зрения, которые лягут в основу доклада для президента Джо Байдена о роли ИИ в системе уголовного правосудия.

В рамках более широкой стратегии развития ИИ Минюст США назначил Джонатана Майера своим первым руководителем по ИИ. Майер, уважаемый ученый с опытом работы в области информатики и права, будет консультировать по вопросам ИИ и кибербезопасности.

#DOJ #JusticeAI #EthicalAI
ООН приняла резолюцию об искусственном интеллекте

Генеральная Ассамблея ООН единогласно приняла резолюцию об искусственном интеллекте, что стало важным шагом на пути к безопасному и этичному развитию технологий искусственного интеллекта во всем мире.

Резолюция, соавторами которой выступили более 120 стран, впервые в истории ООН устанавливает глобальные стандарты и руководящие принципы в области ИИ.

Основные положения восьмистраничной резолюции включают в себя повышение осведомленности о преимуществах и рисках ИИ, увеличение инвестиций в исследования в области ИИ, защиту конфиденциальности и устранение предвзятости в наборах данных и алгоритмах ИИ.

Резолюция также призывает правительства разработать национальную политику и стандарты этичного использования ИИ и призывает агентства ООН оказать техническую помощь нуждающимся странам.

#UN #AIResolution #EthicalAI #AIRegulation
Этические проблемы, связанные с использованием ИИ в здравоохранении, раскрыты в новом исследовании

Недавнее исследование Оксфордского университета призывает к осторожности при внедрении нерегулируемых чат-ботов ИИ в здравоохранении, ссылаясь на потенциальные этические дилеммы и риски для конфиденциальности данных.

Как сообщает газета The Guardian, раскрыты случаи, когда медицинские работники использовали ИИ-чатботы, такие как ChatGPT, для составления планов лечения пациентов. Однако исследование предупреждает, что использование таких инструментов ИИ в отсутствие регулирования может привести к принятию решений на основе недостоверной или предвзятой информации, что в конечном итоге может нанести вред пациентам.

По мере того как в здравоохранении все шире внедряются технологии искусственного интеллекта, возникают опасения по поводу защиты данных пациентов и возможности некачественного лечения из-за чрезмерного доверия к системам ИИ.

Доктор Кэролайн Грин, научный сотрудник Оксфордского института этики искусственного интеллекта, подчеркивает, что использование персональных данных для обучения моделей искусственного интеллекта может нарушить конфиденциальность пациентов. Она выступает за осторожный подход, предлагая использовать ИИ в качестве вспомогательного "второго пилота", а не единственного лица, принимающего решения по уходу за пациентом.

#AIinHealthcare #EthicalAI #DataPrivacy #OxfordUniversity
Федеральные агентства США теперь обязали назначать специалистов по искусственному интеллекту

Чтобы обеспечить ответственное и безопасное внедрение ИИ в государственном секторе, каждое федеральное агентство США теперь обязано назначить старшего сотрудника, которому будет поручено контролировать все системы искусственного интеллекта, используемые в соответствующих сферах деятельности.

Вице-президент Камала Харрис представила новое руководство Офиса по управлению и бюджету, подчеркнув настоятельную необходимость наличия специальных руководителей, обладающих необходимыми знаниями и полномочиями, чтобы ориентироваться в сложностях внедрения ИИ в государственных учреждениях.

Наряду с назначением таких сотрудников, агентства должны создать советы по управлению ИИ для координации и разработки стратегий этичного и эффективного использования технологий ИИ.

В руководстве также подчеркивается важность прозрачности и подотчетности при внедрении ИИ: агентствам предписано ежегодно представлять перечни всех используемых систем ИИ, а также оценки рисков и стратегии их снижения.

Кроме того, руководство содержит принцип прозрачности, требуя, чтобы принадлежащие правительству модели ИИ, код и данные были доступны общественности, исключая любой риск для правительственных операций.

#AIRegulation #EthicalAI