Этические проблемы, связанные с использованием ИИ в здравоохранении, раскрыты в новом исследовании
Недавнее исследование Оксфордского университета призывает к осторожности при внедрении нерегулируемых чат-ботов ИИ в здравоохранении, ссылаясь на потенциальные этические дилеммы и риски для конфиденциальности данных.
Как сообщает газета The Guardian, раскрыты случаи, когда медицинские работники использовали ИИ-чатботы, такие как ChatGPT, для составления планов лечения пациентов. Однако исследование предупреждает, что использование таких инструментов ИИ в отсутствие регулирования может привести к принятию решений на основе недостоверной или предвзятой информации, что в конечном итоге может нанести вред пациентам.
По мере того как в здравоохранении все шире внедряются технологии искусственного интеллекта, возникают опасения по поводу защиты данных пациентов и возможности некачественного лечения из-за чрезмерного доверия к системам ИИ.
Доктор Кэролайн Грин, научный сотрудник Оксфордского института этики искусственного интеллекта, подчеркивает, что использование персональных данных для обучения моделей искусственного интеллекта может нарушить конфиденциальность пациентов. Она выступает за осторожный подход, предлагая использовать ИИ в качестве вспомогательного "второго пилота", а не единственного лица, принимающего решения по уходу за пациентом.
#AIinHealthcare #EthicalAI #DataPrivacy #OxfordUniversity
Недавнее исследование Оксфордского университета призывает к осторожности при внедрении нерегулируемых чат-ботов ИИ в здравоохранении, ссылаясь на потенциальные этические дилеммы и риски для конфиденциальности данных.
Как сообщает газета The Guardian, раскрыты случаи, когда медицинские работники использовали ИИ-чатботы, такие как ChatGPT, для составления планов лечения пациентов. Однако исследование предупреждает, что использование таких инструментов ИИ в отсутствие регулирования может привести к принятию решений на основе недостоверной или предвзятой информации, что в конечном итоге может нанести вред пациентам.
По мере того как в здравоохранении все шире внедряются технологии искусственного интеллекта, возникают опасения по поводу защиты данных пациентов и возможности некачественного лечения из-за чрезмерного доверия к системам ИИ.
Доктор Кэролайн Грин, научный сотрудник Оксфордского института этики искусственного интеллекта, подчеркивает, что использование персональных данных для обучения моделей искусственного интеллекта может нарушить конфиденциальность пациентов. Она выступает за осторожный подход, предлагая использовать ИИ в качестве вспомогательного "второго пилота", а не единственного лица, принимающего решения по уходу за пациентом.
#AIinHealthcare #EthicalAI #DataPrivacy #OxfordUniversity
the Guardian
Warning over use in UK of unregulated AI chatbots to create social care plans
University of Oxford study shows benefits and risks of technology to healthcare, but ethical issues remain
YouTube требует раскрывать информацию о сгенерированном ИИ контенте
YouTube обязывает создателей раскрывать информацию о том, что реалистичный контент был сгенерирован искусственным интеллектом, особенно если его можно принять за изображение реальных людей или событий.
Создатели должны указывать на использование генеративного искусственного интеллекта в видео, которые зрители могут принять за настоящие.
Даже без раскрытия информации YouTube может маркировать контент, содержащий синтетические элементы, особенно если он потенциально может ввести зрителей в заблуждение или запутать их, причем более заметные пометки будут наноситься на такие чувствительные темы, как выборы или здравоохранение.
Однако правила исключают контент, считающийся "явно нереалистичным", например анимацию или фантастические сценарии. Также не требует раскрытия информации использование ИИ в качестве помощи в производстве контента, например, "фильтров красоты".
YouTube также работает над улучшением процесса подачи пользователями запросов на удаление дипфейков, в соответствии с рекомендациями по музыкальному контенту, создаваемому ИИ, которые были представлены в августе прошлого года.
#YouTube #AI #Deepfakes #SyntheticMedia
YouTube обязывает создателей раскрывать информацию о том, что реалистичный контент был сгенерирован искусственным интеллектом, особенно если его можно принять за изображение реальных людей или событий.
Создатели должны указывать на использование генеративного искусственного интеллекта в видео, которые зрители могут принять за настоящие.
Даже без раскрытия информации YouTube может маркировать контент, содержащий синтетические элементы, особенно если он потенциально может ввести зрителей в заблуждение или запутать их, причем более заметные пометки будут наноситься на такие чувствительные темы, как выборы или здравоохранение.
Однако правила исключают контент, считающийся "явно нереалистичным", например анимацию или фантастические сценарии. Также не требует раскрытия информации использование ИИ в качестве помощи в производстве контента, например, "фильтров красоты".
YouTube также работает над улучшением процесса подачи пользователями запросов на удаление дипфейков, в соответствии с рекомендациями по музыкальному контенту, создаваемому ИИ, которые были представлены в августе прошлого года.
#YouTube #AI #Deepfakes #SyntheticMedia
blog.youtube
How we're helping creators disclose altered or synthetic content
Learn how YouTube's new tool will require creators to disclose to viewers when realistic content – content a viewer could easily mistake for a real person, place, or event – is made with altered or synthetic media, including generative AI.
США и Великобритания объединяют усилия в области тестирования безопасности ИИ
США и Великобритания подписали историческое соглашение о сотрудничестве в области тестирования передовых систем искусственного интеллекта. Это первое в своем роде двустороннее соглашение, направленное на разработку надежных методов оценки безопасности инструментов ИИ и систем, на которых они основаны.
«Это определяющий технологический вызов нашего поколения», - заявила министр цифровых технологий Великобритании Мишель Донелан, подчеркнув необходимость глобального сотрудничества. Она считает, что совместный подход имеет решающее значение для решения потенциальных рисков и раскрытия огромного потенциала ИИ для пользы общества.
Данное соглашение основано на обязательствах, взятых на себя на саммите по безопасности ИИ, состоявшемся в Блетчли-парке в ноябре 2023 года. Обе страны создали институты безопасности ИИ, которые должны оценивать системы ИИ с открытым исходным кодом и проприетарные системы.
#AISafety #LLM
США и Великобритания подписали историческое соглашение о сотрудничестве в области тестирования передовых систем искусственного интеллекта. Это первое в своем роде двустороннее соглашение, направленное на разработку надежных методов оценки безопасности инструментов ИИ и систем, на которых они основаны.
«Это определяющий технологический вызов нашего поколения», - заявила министр цифровых технологий Великобритании Мишель Донелан, подчеркнув необходимость глобального сотрудничества. Она считает, что совместный подход имеет решающее значение для решения потенциальных рисков и раскрытия огромного потенциала ИИ для пользы общества.
Данное соглашение основано на обязательствах, взятых на себя на саммите по безопасности ИИ, состоявшемся в Блетчли-парке в ноябре 2023 года. Обе страны создали институты безопасности ИИ, которые должны оценивать системы ИИ с открытым исходным кодом и проприетарные системы.
#AISafety #LLM
GOV.UK
UK & United States announce partnership on science of AI safety
The UK and US have signed a Memorandum of Understanding which will see them work together to develop tests for the most advanced AI models.
Федеральные агентства США теперь обязали назначать специалистов по искусственному интеллекту
Чтобы обеспечить ответственное и безопасное внедрение ИИ в государственном секторе, каждое федеральное агентство США теперь обязано назначить старшего сотрудника, которому будет поручено контролировать все системы искусственного интеллекта, используемые в соответствующих сферах деятельности.
Вице-президент Камала Харрис представила новое руководство Офиса по управлению и бюджету, подчеркнув настоятельную необходимость наличия специальных руководителей, обладающих необходимыми знаниями и полномочиями, чтобы ориентироваться в сложностях внедрения ИИ в государственных учреждениях.
Наряду с назначением таких сотрудников, агентства должны создать советы по управлению ИИ для координации и разработки стратегий этичного и эффективного использования технологий ИИ.
В руководстве также подчеркивается важность прозрачности и подотчетности при внедрении ИИ: агентствам предписано ежегодно представлять перечни всех используемых систем ИИ, а также оценки рисков и стратегии их снижения.
Кроме того, руководство содержит принцип прозрачности, требуя, чтобы принадлежащие правительству модели ИИ, код и данные были доступны общественности, исключая любой риск для правительственных операций.
#AIRegulation #EthicalAI
Чтобы обеспечить ответственное и безопасное внедрение ИИ в государственном секторе, каждое федеральное агентство США теперь обязано назначить старшего сотрудника, которому будет поручено контролировать все системы искусственного интеллекта, используемые в соответствующих сферах деятельности.
Вице-президент Камала Харрис представила новое руководство Офиса по управлению и бюджету, подчеркнув настоятельную необходимость наличия специальных руководителей, обладающих необходимыми знаниями и полномочиями, чтобы ориентироваться в сложностях внедрения ИИ в государственных учреждениях.
Наряду с назначением таких сотрудников, агентства должны создать советы по управлению ИИ для координации и разработки стратегий этичного и эффективного использования технологий ИИ.
В руководстве также подчеркивается важность прозрачности и подотчетности при внедрении ИИ: агентствам предписано ежегодно представлять перечни всех используемых систем ИИ, а также оценки рисков и стратегии их снижения.
Кроме того, руководство содержит принцип прозрачности, требуя, чтобы принадлежащие правительству модели ИИ, код и данные были доступны общественности, исключая любой риск для правительственных операций.
#AIRegulation #EthicalAI
The White House
FACT SHEET: Vice President Harris Announces OMB Policy to Advance Governance, Innovation, and Risk Management in Federal Agencies’…
Administration announces completion of 150-day actions tasked by President Biden’s landmark Executive Order on AI Today, Vice President Kamala Harris
Новые рекомендации по прозрачности дипфейков и чат-ботов
Исследователь Томас Гильс из Центра знаний о данных и обществе изучил требования к прозрачности дипфейков и чат-ботов в рамках Закона ЕС об ИИ. Закон признает важность прозрачности для построения доверия и подотчетности, устанавливая требования для высокорисковых систем ИИ, некоторых конкретных систем ИИ и универсальных моделей ИИ.
Исследователи проверили несколько заинтересованных участников на соответствие этим требованиям и собрали отзывы. В результате для чат-ботов и дипфейков определили три основных передовых метода:
1️⃣ Делать заявления о раскрытии информации (дисклеймеры) доступными для разных аудиторий, включая людей с ограниченными возможностями, используя различные способы коммуникации, такие как письменный, визуальный и устный.
2️⃣ Предоставлять необходимый объем информации, соблюдая пропорциональность и баланс, чтобы не перегружать пользователей.
3️⃣ Адаптировать дисклеймеры к целевой и потенциальной аудитории, чтобы эффективно решать вопросы информационных потребностей.
Это исследование поможет разработчикам чат-ботов и дипфейков соответствовать требованиям Закона ЕС об ИИ и повысит доверие пользователей к этим технологиям.
#AIAct #Chatbots #AITransparency
Исследователь Томас Гильс из Центра знаний о данных и обществе изучил требования к прозрачности дипфейков и чат-ботов в рамках Закона ЕС об ИИ. Закон признает важность прозрачности для построения доверия и подотчетности, устанавливая требования для высокорисковых систем ИИ, некоторых конкретных систем ИИ и универсальных моделей ИИ.
Исследователи проверили несколько заинтересованных участников на соответствие этим требованиям и собрали отзывы. В результате для чат-ботов и дипфейков определили три основных передовых метода:
1️⃣ Делать заявления о раскрытии информации (дисклеймеры) доступными для разных аудиторий, включая людей с ограниченными возможностями, используя различные способы коммуникации, такие как письменный, визуальный и устный.
2️⃣ Предоставлять необходимый объем информации, соблюдая пропорциональность и баланс, чтобы не перегружать пользователей.
3️⃣ Адаптировать дисклеймеры к целевой и потенциальной аудитории, чтобы эффективно решать вопросы информационных потребностей.
Это исследование поможет разработчикам чат-ботов и дипфейков соответствовать требованиям Закона ЕС об ИИ и повысит доверие пользователей к этим технологиям.
#AIAct #Chatbots #AITransparency
CiTiP blog
Emerging best practices for deepfake and chatbot transparency under the EU AI Act - CiTiP blog
The Knowledge Centre Data & Society conducted a policy prototyping project which focused on the transparency requirements under the EU AI Act. This blog highlights the best practices regarding deepfake and chatbot transparency that emerged from this project.…
В США актеры анимационного озвучивания договорились о защите своих прав от злоупотреблений ИИ
Актеры озвучивания анимационных шоу договорились о справедливом вознаграждении, заключив соглашение о защите их прав в эпоху искусственного интеллекта.
Члены Гильдии актеров экрана и Американской федерации артистов телевидения и радио (the Screen Actors Guild-American Federation of Television and Radio Artists, SAG-AFTRA) проголосовали за заключение трехлетнего контракта с Альянсом продюсеров кино и телевидения (Alliance of Motion Picture and Television Producers, AMPTP).
Согласно условиям соглашения, актерам озвучивания гарантируется компенсация, если их выступления будут использованы для создания ИИ-клонов узнаваемых персонажей.
Соглашение также обязывает продюсеров проводить регулярные консультации с профсоюзом для изучения механизмов мониторинга и отслеживания использования цифровых копий актеров.
Соглашение вступает в силу задним числом с 1 июля 2023 года и действует по 30 июня 2026 года.
#AI
Актеры озвучивания анимационных шоу договорились о справедливом вознаграждении, заключив соглашение о защите их прав в эпоху искусственного интеллекта.
Члены Гильдии актеров экрана и Американской федерации артистов телевидения и радио (the Screen Actors Guild-American Federation of Television and Radio Artists, SAG-AFTRA) проголосовали за заключение трехлетнего контракта с Альянсом продюсеров кино и телевидения (Alliance of Motion Picture and Television Producers, AMPTP).
Согласно условиям соглашения, актерам озвучивания гарантируется компенсация, если их выступления будут использованы для создания ИИ-клонов узнаваемых персонажей.
Соглашение также обязывает продюсеров проводить регулярные консультации с профсоюзом для изучения механизмов мониторинга и отслеживания использования цифровых копий актеров.
Соглашение вступает в силу задним числом с 1 июля 2023 года и действует по 30 июня 2026 года.
#AI
Артисты призывают технологические компании прекратить неэтичное использование искусственного интеллекта
Около 250 артистов подписали призыв к технологическим компаниям прекратить использование искусственного интеллекта, который снижает ценность музыки и посягает на права творцов.
По мнению музыкантов, искусственный интеллект при безответственном использовании представляет собой угрозу для художественной ценности искусства.
#AI #этическийAI
Около 250 артистов подписали призыв к технологическим компаниям прекратить использование искусственного интеллекта, который снижает ценность музыки и посягает на права творцов.
По мнению музыкантов, искусственный интеллект при безответственном использовании представляет собой угрозу для художественной ценности искусства.
#AI #этическийAI
Medium
200+ Artists Urge Tech Platforms: Stop Devaluing Music
Click here to join the movement!
Судья из Вашингтона запретил использоватьв качестве доказательства улучшенное с помощью ИИ видео
Судья штата Вашингтон, рассматривающий дело об убийстве, запретил использовать в качестве доказательств видео, улучшенное искусственным интеллектом. Это постановление является потенциальным прецедентом в уголовных судах США.
Адвокаты подзащитного хотели представить в качестве доказательства видеозаписи с мобильных телефонов, улучшенные с помощью программ машинного обучения. Однако судья назвал такое видео новаторским и высказал опасения по поводу непрозрачности методов и возможности запутать показания очевидцев.
Прокуроры также выступили против допустимости такого видео в качестве доказательства, ссылаясь на отсутствие судебных прецедентов и неточности улучшенного видео.
Таким образом, технология, использованная для улучшения видеозаписи, была признана непригодной для использования в судебной или юридической практике.
#AIlaw #ML
Судья штата Вашингтон, рассматривающий дело об убийстве, запретил использовать в качестве доказательств видео, улучшенное искусственным интеллектом. Это постановление является потенциальным прецедентом в уголовных судах США.
Адвокаты подзащитного хотели представить в качестве доказательства видеозаписи с мобильных телефонов, улучшенные с помощью программ машинного обучения. Однако судья назвал такое видео новаторским и высказал опасения по поводу непрозрачности методов и возможности запутать показания очевидцев.
Прокуроры также выступили против допустимости такого видео в качестве доказательства, ссылаясь на отсутствие судебных прецедентов и неточности улучшенного видео.
Таким образом, технология, использованная для улучшения видеозаписи, была признана непригодной для использования в судебной или юридической практике.
#AIlaw #ML
NBC News
Washington state judge blocks use of AI-enhanced video as evidence in possible first-of-its-kind ruling
Lawyers for a man charged with murder in a triple homicide had sought to introduce cellphone video enhanced by machine-learning software.
Парламент Великобритании предупреждает о пробелах в регулировании ИИ в творческих отраслях
Межпартийная группа депутатов выразила обеспокоенность отсутствием правил, регулирующих взаимодействие между платформами искусственного интеллекта и творческими направлениями. Комитет Палаты общин по культуре, СМИ и спорту опубликовал доклад, в котором освещаются проблемы, связанные с оплатой и условиями труда профессиональных творческих работников.
Согласно отчету, многие артисты в Великобритании сталкиваются со снижением гонораров, отчасти из-за перехода индустрии на цифровые технологии. Председатель комитета подчеркнула, что правительству необходимо в срочном порядке рассмотреть устаревшие нормы авторского права и интеллектуальной собственности, чтобы обеспечить справедливую компенсацию творческим работникам.
Особые опасения вызывает влияние платформ искусственного интеллекта, которые могут воспроизводить защищенные авторским правом работы без согласия или компенсации.
Комитет выразил разочарование в связи с тем, что не удалось достичь соглашения о согласии авторов и компенсации за использование их произведений для обучения ИИ. Также отмечено, что существующие рамки непропорционально благоприятствуют разработчикам ИИ в ущерб правам интеллектуальной собственности создателей.
Для решения этих проблем в докладе предлагается создать механизмы, обеспечивающие соблюдение согласия авторов и справедливую компенсацию в случае использования их работ системами ИИ.
#AI #UK #creativeindustries #copyright
Межпартийная группа депутатов выразила обеспокоенность отсутствием правил, регулирующих взаимодействие между платформами искусственного интеллекта и творческими направлениями. Комитет Палаты общин по культуре, СМИ и спорту опубликовал доклад, в котором освещаются проблемы, связанные с оплатой и условиями труда профессиональных творческих работников.
Согласно отчету, многие артисты в Великобритании сталкиваются со снижением гонораров, отчасти из-за перехода индустрии на цифровые технологии. Председатель комитета подчеркнула, что правительству необходимо в срочном порядке рассмотреть устаревшие нормы авторского права и интеллектуальной собственности, чтобы обеспечить справедливую компенсацию творческим работникам.
Особые опасения вызывает влияние платформ искусственного интеллекта, которые могут воспроизводить защищенные авторским правом работы без согласия или компенсации.
Комитет выразил разочарование в связи с тем, что не удалось достичь соглашения о согласии авторов и компенсации за использование их произведений для обучения ИИ. Также отмечено, что существующие рамки непропорционально благоприятствуют разработчикам ИИ в ущерб правам интеллектуальной собственности создателей.
Для решения этих проблем в докладе предлагается создать механизмы, обеспечивающие соблюдение согласия авторов и справедливую компенсацию в случае использования их работ системами ИИ.
#AI #UK #creativeindustries #copyright
publications.parliament.uk
Creator remuneration
This is a House of Commons Committee report, with recommendations to government. The Government has two months to respond.
Дорогие коллеги, обратите внимание на интересный авторский канал All Things Legal, посвященный разнообразным вопросам Legal Innovation & Technology. Новости, аналитика, ссылки на полезные ресурсы, обсуждения и семинары - все самое новое в области права и технологий.
Telegram
All Things Legal
Это канал для новостей и аналитики по всем направлениям с приставкой «legal», кроме юридического консалтинга: legal business, legal innovation, legal tech, legal design, legal ops. Преобладает инфомация о технологиях. Связь по всем вопросам: @hzscheyge
США: Новый законопроект предлагает раскрывать данные, которые использовались для обучения ИИ
В США представлен новый законопроект, который направлен на решение проблем, связанных с использованием материалов, защищенных авторским правом, при обучении моделей искусственного интеллекта.
Законопроект, получивший название Generative AI Copyright Disclosure, обязывает технологические компании раскрывать все материалы, защищенные авторским правом, используемые в их наборах данных для обучения ИИ. Законопроект требует предоставления в Реестр авторских прав подробных отчетов с указанием материалов, защищенных авторским правом, и соответствующих URL-адресов. Кроме того, необходимо сообщать о любых изменениях в наборе данных.
Компании должны представить эти отчеты не позднее чем за 30 дней до того, как выпустить в открытый доступ модели ИИ. Законопроект не имеет обратной силы, но распространяется на любые последующие изменения, внесенные в существующие наборы данных для обучения ИИ-платформ.
Хотя разработчики утверждают, что их модели обучаются на общедоступных данных, сохраняется обеспокоенность по поводу использования материалов, защищенных авторским правом, без прямого согласия авторов. Законопроект пользуется поддержкой различных отраслевых групп, включая Гильдию писателей Америки, Ассоциацию звукозаписывающей индустрии Америки и другие. Вместе с тем Ассоциация кинокомпаний не поддержала инициативу.
#AI #copyright
В США представлен новый законопроект, который направлен на решение проблем, связанных с использованием материалов, защищенных авторским правом, при обучении моделей искусственного интеллекта.
Законопроект, получивший название Generative AI Copyright Disclosure, обязывает технологические компании раскрывать все материалы, защищенные авторским правом, используемые в их наборах данных для обучения ИИ. Законопроект требует предоставления в Реестр авторских прав подробных отчетов с указанием материалов, защищенных авторским правом, и соответствующих URL-адресов. Кроме того, необходимо сообщать о любых изменениях в наборе данных.
Компании должны представить эти отчеты не позднее чем за 30 дней до того, как выпустить в открытый доступ модели ИИ. Законопроект не имеет обратной силы, но распространяется на любые последующие изменения, внесенные в существующие наборы данных для обучения ИИ-платформ.
Хотя разработчики утверждают, что их модели обучаются на общедоступных данных, сохраняется обеспокоенность по поводу использования материалов, защищенных авторским правом, без прямого согласия авторов. Законопроект пользуется поддержкой различных отраслевых групп, включая Гильдию писателей Америки, Ассоциацию звукозаписывающей индустрии Америки и другие. Вместе с тем Ассоциация кинокомпаний не поддержала инициативу.
#AI #copyright
Litera представила Foundation Dragon: революционную базу данных условий сделок на основе ИИ
Компания Litera, поставщик технологических решений для юристов, представила Foundation Dragon - базу данных условий сделок, созданную на основе искусственного интеллекта. Эта новаторская технология позволяет юридическим командам получить мгновенный доступ к важнейшим данным о прошлых корпоративных сделках, и использовать для принятия новых решений.
Используя возможности ИИ, Foundation Dragon ускоряет анализ обширных данных о сделках для выявления релевантных рыночных условий, позволяя компаниям вести переговоры с позиции силы и добиваться более благоприятных результатов. Работая на базе архитектуры платформы Foundation, Dragon собирает обширную коллекцию соответствующих данных из документов компании, обеспечивая доступность и удобство использования.
Помимо обычных баз данных, заполняемых вручную, возможности искусственного интеллекта Dragon позволяют находить важные сведения в отдельных документах, преобразуя неструктурированные условия сделок в структурированные данные.
Foundation Dragon уже доступен, предлагая юридическим фирмам бесценный инструмент для использования возможностей ИИ и повышения операционной эффективности.
#Litera #FoundationDragon #GenAI #legaltech #AI
Компания Litera, поставщик технологических решений для юристов, представила Foundation Dragon - базу данных условий сделок, созданную на основе искусственного интеллекта. Эта новаторская технология позволяет юридическим командам получить мгновенный доступ к важнейшим данным о прошлых корпоративных сделках, и использовать для принятия новых решений.
Используя возможности ИИ, Foundation Dragon ускоряет анализ обширных данных о сделках для выявления релевантных рыночных условий, позволяя компаниям вести переговоры с позиции силы и добиваться более благоприятных результатов. Работая на базе архитектуры платформы Foundation, Dragon собирает обширную коллекцию соответствующих данных из документов компании, обеспечивая доступность и удобство использования.
Помимо обычных баз данных, заполняемых вручную, возможности искусственного интеллекта Dragon позволяют находить важные сведения в отдельных документах, преобразуя неструктурированные условия сделок в структурированные данные.
Foundation Dragon уже доступен, предлагая юридическим фирмам бесценный инструмент для использования возможностей ИИ и повышения операционной эффективности.
#Litera #FoundationDragon #GenAI #legaltech #AI
НПО оценили Закон ЕС об ИИ
Неправительственные организации, в том числе EDRi, AccessNow, ARTICLE19, Amnesty International и другие, опубликовали свой анализ Закона ЕС об ИИ.
Признавая успехи в обеспечении доступности и прозрачности, они, тем не менее, выражают обеспокоенность по поводу исключений для правоохранительных органов и национальной безопасности, а также частичных запретов на методы наблюдения.
Кроме того, Европейский союз гражданских свобод отметил недостатки закона, подчеркнув, что он не обеспечивает в достаточной степени верховенство закона и гражданское пространство.
#AI #AIAct
Неправительственные организации, в том числе EDRi, AccessNow, ARTICLE19, Amnesty International и другие, опубликовали свой анализ Закона ЕС об ИИ.
Признавая успехи в обеспечении доступности и прозрачности, они, тем не менее, выражают обеспокоенность по поводу исключений для правоохранительных органов и национальной безопасности, а также частичных запретов на методы наблюдения.
Кроме того, Европейский союз гражданских свобод отметил недостатки закона, подчеркнув, что он не обеспечивает в достаточной степени верховенство закона и гражданское пространство.
#AI #AIAct
European Digital Rights (EDRi)
EU’s AI Act fails to set gold standard for human rights - European Digital Rights (EDRi)
A round-up of how the EU AI Act fares against the collective demands of a broad civil society coalition that advocated for prioritising the protection of fundamental human rights in the law.
Федеральные агентства США выпустили совместное заявление по автоматизированным системам
3 апреля 2024 года несколько федеральных агентств США выпустили совместное заявление о соблюдении законов о гражданских правах, честной конкуренции, защите прав потребителей и равных возможностях в автоматизированных системах.
В заявлении подчеркивается стремление федеральных ведомств обеспечить правовую защиту автоматизированных систем, под которыми понимается программное обеспечение и алгоритмические процессы, включая искусственный интеллект, используемые для автоматизации рабочих процессов и принятия решений.
При этом ведомства подтверждают актуальность существующих законов для автоматизированных систем. Они подчеркивают свою роль в обеспечении соблюдения этих законов в процессе разработки и использования таких систем.
В заявлении указано, что ИИ и автоматизированные системы подпадают под действие существующих законов, и опровергается мнение о том, что их непрозрачность освобождает от соблюдения существующих требований. Также обращено внимание на потенциальные источники незаконной дискриминации или предвзятости, включая искаженные данные для обучения, отсутствие прозрачности и недостаточный учет социального контекста при разработке и использовании.
#AI #AIcompliance
3 апреля 2024 года несколько федеральных агентств США выпустили совместное заявление о соблюдении законов о гражданских правах, честной конкуренции, защите прав потребителей и равных возможностях в автоматизированных системах.
В заявлении подчеркивается стремление федеральных ведомств обеспечить правовую защиту автоматизированных систем, под которыми понимается программное обеспечение и алгоритмические процессы, включая искусственный интеллект, используемые для автоматизации рабочих процессов и принятия решений.
При этом ведомства подтверждают актуальность существующих законов для автоматизированных систем. Они подчеркивают свою роль в обеспечении соблюдения этих законов в процессе разработки и использования таких систем.
В заявлении указано, что ИИ и автоматизированные системы подпадают под действие существующих законов, и опровергается мнение о том, что их непрозрачность освобождает от соблюдения существующих требований. Также обращено внимание на потенциальные источники незаконной дискриминации или предвзятости, включая искаженные данные для обучения, отсутствие прозрачности и недостаточный учет социального контекста при разработке и использовании.
#AI #AIcompliance
US EEOC
Joint Statement on Enforcement of Civil Rights, Fair Competition, Consumer Protection, and Equal Opportunity Laws in Automated…
April 3, 2024
Выпущено международное руководство по безопасному развертыванию ИИ
Центр безопасности искусственного интеллекта Агентства национальной безопасности США в сотрудничестве с Агентством кибербезопасности и безопасности инфраструктуры, Федеральным бюро расследований, Австралийским центром кибербезопасности, Канадским центром кибербезопасности, Национальным центром кибербезопасности Новой Зеландии и Национальным центром кибербезопасности Великобритании выпустили совместное руководство по безопасному развертыванию систем искусственного интеллекта.
В этом руководстве изложены лучшие практики развертывания и использования систем ИИ от внешних разработчиков. Целью руководства является:
✅ повысить конфиденциальность, целостность и доступность систем искусственного интеллекта;
✅ обеспечить надлежащее устранение известных уязвимостей в системах ИИ;
✅ обеспечить методологии и средства контроля для защиты, обнаружения и реагирования на злонамеренные действия в отношении систем ИИ и связанных с ними данных и сервисов.
Документ охватывает широкий спектр тем: от защиты среды развертывания до защиты операционной системы ИИ и обеспечения безопасности операций и обслуживания ИИ.
В руководстве изложены три основных метода обеспечения безопасности:
✅ защита среды развертывания,
✅ защита системы ИИ, и
✅ обеспечение безопасности эксплуатации и обслуживания ИИ.
Понимание и выполнение рекомендаций, изложенных в руководстве, поможет организациям снизить риски ИИ и укрепить доверие к этой быстроразвивающейся технологии.
#AI #Безопасность #Кибербезопасность #CISA #NSA
Центр безопасности искусственного интеллекта Агентства национальной безопасности США в сотрудничестве с Агентством кибербезопасности и безопасности инфраструктуры, Федеральным бюро расследований, Австралийским центром кибербезопасности, Канадским центром кибербезопасности, Национальным центром кибербезопасности Новой Зеландии и Национальным центром кибербезопасности Великобритании выпустили совместное руководство по безопасному развертыванию систем искусственного интеллекта.
В этом руководстве изложены лучшие практики развертывания и использования систем ИИ от внешних разработчиков. Целью руководства является:
✅ повысить конфиденциальность, целостность и доступность систем искусственного интеллекта;
✅ обеспечить надлежащее устранение известных уязвимостей в системах ИИ;
✅ обеспечить методологии и средства контроля для защиты, обнаружения и реагирования на злонамеренные действия в отношении систем ИИ и связанных с ними данных и сервисов.
Документ охватывает широкий спектр тем: от защиты среды развертывания до защиты операционной системы ИИ и обеспечения безопасности операций и обслуживания ИИ.
В руководстве изложены три основных метода обеспечения безопасности:
✅ защита среды развертывания,
✅ защита системы ИИ, и
✅ обеспечение безопасности эксплуатации и обслуживания ИИ.
Понимание и выполнение рекомендаций, изложенных в руководстве, поможет организациям снизить риски ИИ и укрепить доверие к этой быстроразвивающейся технологии.
#AI #Безопасность #Кибербезопасность #CISA #NSA
Выборы в Европейский парламент 2024 года: Обеспечение этичного использования технологий
Вице-президент Европейской комиссии недавно провела церемонию подписания Кодекса поведения на выборах в Европейский парламент 2024 года. Кодекс подчеркивает необходимость этичного и прозрачного использования технологий, включая искусственный интеллект, для поддержания честности выборов.
Стороны, подписавшие кодекс, обязуются защищаться от киберугроз, обеспечивать прозрачность политической рекламы в Интернете и соблюдать правила защиты данных. Основное внимание уделяется борьбе с вводящим в заблуждение контентом и содействию честным и инклюзивным избирательным процессам, что соответствует руководящим принципам Комиссии по устранению цифровых рисков для выборов, опубликованным ранее.
#EU #AI #DigitalRisks
Вице-президент Европейской комиссии недавно провела церемонию подписания Кодекса поведения на выборах в Европейский парламент 2024 года. Кодекс подчеркивает необходимость этичного и прозрачного использования технологий, включая искусственный интеллект, для поддержания честности выборов.
Стороны, подписавшие кодекс, обязуются защищаться от киберугроз, обеспечивать прозрачность политической рекламы в Интернете и соблюдать правила защиты данных. Основное внимание уделяется борьбе с вводящим в заблуждение контентом и содействию честным и инклюзивным избирательным процессам, что соответствует руководящим принципам Комиссии по устранению цифровых рисков для выборов, опубликованным ранее.
#EU #AI #DigitalRisks
Профсоюзы Великобритании призывают к регулированию ИИ на рабочих местах
Конгресс профсоюзов (The Trades Union Congress, TUC), крупнейшая федерация профсоюзов Великобритании, призывает к ужесточению правил использования искусственного интеллекта на рабочем месте.
TUC утверждает, что действующее трудовое законодательство устарело и не способно адаптироваться к стремительному развитию технологий. Отсутствие регулирования делает работников уязвимыми перед эксплуатацией и дискриминацией.
Профсоюз предложил проект правового регулирования ИИ на рабочем месте. В этом документе изложены новые права и меры защиты для работников. К ним относятся:
✅ Обязательные консультации работодателя с профсоюзами по вопросам использования высокорискованного и интрузивного ИИ на рабочем месте.
✅ Гарантии против несправедливого увольнения на основании решений ИИ.
TUC подчеркивает, что ИИ играет все большую роль в принятии важнейших решений, влияющих на жизнь работников. От найма и увольнения до управления эффективностью работы - ИИ влияет на судьбоносные результаты. Профсоюз также предупреждает, что Великобритания рискует отстать от других стран, таких как США, Китай, Канада и ЕС, которые уже внедряют соответствующее законодательство.
#AI #AIRegulation
Конгресс профсоюзов (The Trades Union Congress, TUC), крупнейшая федерация профсоюзов Великобритании, призывает к ужесточению правил использования искусственного интеллекта на рабочем месте.
TUC утверждает, что действующее трудовое законодательство устарело и не способно адаптироваться к стремительному развитию технологий. Отсутствие регулирования делает работников уязвимыми перед эксплуатацией и дискриминацией.
Профсоюз предложил проект правового регулирования ИИ на рабочем месте. В этом документе изложены новые права и меры защиты для работников. К ним относятся:
✅ Обязательные консультации работодателя с профсоюзами по вопросам использования высокорискованного и интрузивного ИИ на рабочем месте.
✅ Гарантии против несправедливого увольнения на основании решений ИИ.
TUC подчеркивает, что ИИ играет все большую роль в принятии важнейших решений, влияющих на жизнь работников. От найма и увольнения до управления эффективностью работы - ИИ влияет на судьбоносные результаты. Профсоюз также предупреждает, что Великобритания рискует отстать от других стран, таких как США, Китай, Канада и ЕС, которые уже внедряют соответствующее законодательство.
#AI #AIRegulation
Уважаемые подписчики, с удовольствием представляем коллег из RPPA.pro , которые запустили линейку интересных образовательных продуктов. Программы строятся на опыте 1300 экспертов, собственных баз знаний и исследованиях. Обратите внимание на:
✅ Privacy Engineering поможет разобраться в технологиях обработки данных и рисках приватности.
✅ AI Governance сориентирует в области регулирования искусственного интеллекта, а также даст понимание ИИ-технологий.
Другие образовательные продукты и бесплатные материалы также доступны в этом канале.
✅ Privacy Engineering поможет разобраться в технологиях обработки данных и рисках приватности.
✅ AI Governance сориентирует в области регулирования искусственного интеллекта, а также даст понимание ИИ-технологий.
Другие образовательные продукты и бесплатные материалы также доступны в этом канале.
Telegram
Privacy GDPR Russia
О приватности с душой и со вкусом. При поддержке RPPA.pro, под контролем Крис, @krakozubla. Мы создаем контент, а не копируем🩵
RPPA.pro | PPCP.pro | EDPC.network
RPPA.pro | PPCP.pro | EDPC.network
Компания Lawhive привлекла $12 млн для демократизации юридических технологий с помощью ИИ
Lawhive, британский стартап в области LegalTech, привлек почти 12 миллионов долларов для расширения своей платформы для небольших юридических фирм, работающей на основе ИИ.
В отличие от большинства юридических компаний, ориентированных на крупные фирмы ("Big Law"), Lawhive ориентируется на потребности небольших независимых практик. Этим фирмам часто не хватает ресурсов для инвестиций в передовые технологии, что ставит их в невыгодное положение в конкурентной борьбе.
Lawhive предоставляет "внутреннего юриста", работающего на основе искусственного интеллекта, через платформу SaaS. Эта платформа предлагает несколько преимуществ для небольших фирм:
✅ Клиентский сервис: упорядочивание работы с клиентами, ведение дел и организация документооборота.
✅ Работа с помощью ИИ: использование искусственного интеллекта для решения повторяющихся задач, таких как KYC/AML, прием клиентов и сбор документов.
✅ ИИ-юрист "Лоуренс": запатентованный ИИ-юрист, построенный на основе большой языковой модели (LLM). Lawhive утверждает, что "Лоуренс" даже сдал квалификационный экзамен для солиситоров (SQE) с результатом, превышающим требуемый стандарт.
Генеральный директор Lawhive Пьер Пронер подчеркивает, что юридический рынок небольших практик недостаточно обслуживается:
"Практически все существующие юридические технологии... ориентированы на корпоративный рынок... Мы же пытаемся решить проблему в потребительском юридическом пространстве, которое является совершенно другим рынком".
Миллионы людей сталкиваются с юридическими проблемами, но не имеют доступа к недорогому юридическому представительству. Одновременно многие малые предприятия с трудом справляются с юридическими вопросами самостоятельно. Платформа Lawhive на базе ИИ призвана устранить этот разрыв, повысив эффективность и доступность как для юристов, так и для клиентов.
#AI #LegalTech
Lawhive, британский стартап в области LegalTech, привлек почти 12 миллионов долларов для расширения своей платформы для небольших юридических фирм, работающей на основе ИИ.
В отличие от большинства юридических компаний, ориентированных на крупные фирмы ("Big Law"), Lawhive ориентируется на потребности небольших независимых практик. Этим фирмам часто не хватает ресурсов для инвестиций в передовые технологии, что ставит их в невыгодное положение в конкурентной борьбе.
Lawhive предоставляет "внутреннего юриста", работающего на основе искусственного интеллекта, через платформу SaaS. Эта платформа предлагает несколько преимуществ для небольших фирм:
✅ Клиентский сервис: упорядочивание работы с клиентами, ведение дел и организация документооборота.
✅ Работа с помощью ИИ: использование искусственного интеллекта для решения повторяющихся задач, таких как KYC/AML, прием клиентов и сбор документов.
✅ ИИ-юрист "Лоуренс": запатентованный ИИ-юрист, построенный на основе большой языковой модели (LLM). Lawhive утверждает, что "Лоуренс" даже сдал квалификационный экзамен для солиситоров (SQE) с результатом, превышающим требуемый стандарт.
Генеральный директор Lawhive Пьер Пронер подчеркивает, что юридический рынок небольших практик недостаточно обслуживается:
"Практически все существующие юридические технологии... ориентированы на корпоративный рынок... Мы же пытаемся решить проблему в потребительском юридическом пространстве, которое является совершенно другим рынком".
Миллионы людей сталкиваются с юридическими проблемами, но не имеют доступа к недорогому юридическому представительству. Одновременно многие малые предприятия с трудом справляются с юридическими вопросами самостоятельно. Платформа Lawhive на базе ИИ призвана устранить этот разрыв, повысив эффективность и доступность как для юристов, так и для клиентов.
#AI #LegalTech
Lawhive
Work with us | Lawhive - Solicitors & Lawyers Online
Learn how solicitors can work with Lawhive to earn on average £80,000 new billables per year
Великобритания планирует пресекать деятельность создателей секс-дипфейков
Правительство Великобритании планирует принять жесткие меры против создания секс-дипфейков и представило соответствующее предложение по проекту нового закона. Проект направлен на криминализацию создания таких изображений без согласия, даже если они не распространяются широко.
Технология дипфейков позволяет создавать реалистичную порнографию путем наложения лица человека на другое тело. Эта практика становится все более доступной благодаря развитию ИИ. Правительство Великобритании считает такую практику формой домогательства и нарушением неприкосновенности частной жизни.
Согласно предлагаемому законодательству, создание секс-дипфейков без согласия будет считаться уголовным преступлением.
Правонарушителям грозят:
✅ Неограниченные штрафы.
✅ Уголовное преследование.
Кроме того, распространение созданного дипфейка может привести к тюремному заключению.
Этот закон основывается на принятом в прошлом году Законе об онлайн-безопасности, который ввел уголовную ответственность за распространение дипфейков без согласия. Новое предложение касается непосредственно создания такого контента.
Великобритания не единственная страна, столкнувшаяся с такой проблемой. Например, мы уже писали о проблемах дипфейков в школах во Флориде.
#AI #Deepfakes #Cybersecurity
Правительство Великобритании планирует принять жесткие меры против создания секс-дипфейков и представило соответствующее предложение по проекту нового закона. Проект направлен на криминализацию создания таких изображений без согласия, даже если они не распространяются широко.
Технология дипфейков позволяет создавать реалистичную порнографию путем наложения лица человека на другое тело. Эта практика становится все более доступной благодаря развитию ИИ. Правительство Великобритании считает такую практику формой домогательства и нарушением неприкосновенности частной жизни.
Согласно предлагаемому законодательству, создание секс-дипфейков без согласия будет считаться уголовным преступлением.
Правонарушителям грозят:
✅ Неограниченные штрафы.
✅ Уголовное преследование.
Кроме того, распространение созданного дипфейка может привести к тюремному заключению.
Этот закон основывается на принятом в прошлом году Законе об онлайн-безопасности, который ввел уголовную ответственность за распространение дипфейков без согласия. Новое предложение касается непосредственно создания такого контента.
Великобритания не единственная страна, столкнувшаяся с такой проблемой. Например, мы уже писали о проблемах дипфейков в школах во Флориде.
#AI #Deepfakes #Cybersecurity
GOV.UK
Government cracks down on ‘deepfakes’ creation
Despicable people who create sexually explicit ‘deepfakes’ will face prosecution under a new law announced by the government today (16 April 2024).