Австралия рассматривает возможность запрета на использование ИИ с высоким риском, включая дипфейки и алгоритмическую предвзятость
Австралийское правительство рассматривает возможность запрета приложений ИИ с высоким риском, таких как дипфейки и алгоритмическая предвзятость.
Рассматривая этот запрет, правительство Австралии стремится решить эти проблемы и обеспечить ответственное использование технологии ИИ. Цель состоит в том, чтобы найти баланс между преимуществами ИИ и потенциальным вредом, связанным с его неправильным использованием. Это развитие событий отражает растущее признание необходимости регулирования ИИ и защиты от его негативных последствий.
Хотя детали конкретного запрета и его реализации еще предстоит уточнить, это событие подчеркивает важность упреждающего регулирования в области ИИ.
#AIRegulation #EthicalAI #Deepfakes #AlgorithmicBias #AustralianGovernment #ai #artificialintelligence
Австралийское правительство рассматривает возможность запрета приложений ИИ с высоким риском, таких как дипфейки и алгоритмическая предвзятость.
Рассматривая этот запрет, правительство Австралии стремится решить эти проблемы и обеспечить ответственное использование технологии ИИ. Цель состоит в том, чтобы найти баланс между преимуществами ИИ и потенциальным вредом, связанным с его неправильным использованием. Это развитие событий отражает растущее признание необходимости регулирования ИИ и защиты от его негативных последствий.
Хотя детали конкретного запрета и его реализации еще предстоит уточнить, это событие подчеркивает важность упреждающего регулирования в области ИИ.
#AIRegulation #EthicalAI #Deepfakes #AlgorithmicBias #AustralianGovernment #ai #artificialintelligence
Франция стремится к глобальному регулированию искусственного интеллекта к концу года
Франция заявляет о ведущей роли в формировании глобального законодательства в области искусственного интеллекта и намерена представить свои идеи к концу этого года.
Признавая быстрое развитие технологии ИИ и ее потенциальное влияние на различные аспекты жизни общества, Франция стремится активно решать вопросы рисков, связанных с ИИ. Страна стремится найти баланс между стимулированием инноваций и защитой прав, конфиденциальности и безопасности частных лиц.
"С моей точки зрения... я думаю, что нам действительно необходимо регулирование, и все игроки, даже американские, согласны с этим. Я думаю, нам нужно глобальное регулирование", - сказал Макрон во время конференции VivaTech в Париже в среду.
#AIregulation #EthicalAI #ResponsibleAI #DataPrivacy
Франция заявляет о ведущей роли в формировании глобального законодательства в области искусственного интеллекта и намерена представить свои идеи к концу этого года.
Признавая быстрое развитие технологии ИИ и ее потенциальное влияние на различные аспекты жизни общества, Франция стремится активно решать вопросы рисков, связанных с ИИ. Страна стремится найти баланс между стимулированием инноваций и защитой прав, конфиденциальности и безопасности частных лиц.
"С моей точки зрения... я думаю, что нам действительно необходимо регулирование, и все игроки, даже американские, согласны с этим. Я думаю, нам нужно глобальное регулирование", - сказал Макрон во время конференции VivaTech в Париже в среду.
#AIregulation #EthicalAI #ResponsibleAI #DataPrivacy
CNBC
France sees global A.I. regulation ideas by the end of this year, wants to work with U.S. on tech laws
French President Emmanuel Macron called for "global regulation" around artificial intelligence, even as the European Union pushes forward with its own laws.
54 миллиона фунтов стерлингов на развитие исследований в области безопасного и надежного ИИ
Правительство Великобритании объявило о значительных инвестициях в размере 54 миллионов фунтов стерлингов в поддержку развития безопасного и надежного ИИ.
Финансирование будет предназначено на различные проекты и инициативы, направленные на повышение безопасности и надежности систем ИИ. Это включает в себя продвижение исследований алгоритмов ИИ, конфиденциальности данных и мер кибербезопасности. Цель - решить такие критические проблемы, как алгоритмическая предвзятость, защита данных и этические аспекты при разработке и внедрении ИИ.
#AIresearch #SecureAI #TrustworthyAI #UKgovernment #Innovation #EthicalAI #DataPrivacy #Cybersecurity
Правительство Великобритании объявило о значительных инвестициях в размере 54 миллионов фунтов стерлингов в поддержку развития безопасного и надежного ИИ.
Финансирование будет предназначено на различные проекты и инициативы, направленные на повышение безопасности и надежности систем ИИ. Это включает в себя продвижение исследований алгоритмов ИИ, конфиденциальности данных и мер кибербезопасности. Цель - решить такие критические проблемы, как алгоритмическая предвзятость, защита данных и этические аспекты при разработке и внедрении ИИ.
#AIresearch #SecureAI #TrustworthyAI #UKgovernment #Innovation #EthicalAI #DataPrivacy #Cybersecurity
GOV.UK
£54 million boost to develop secure and trustworthy AI research
Secretary of State for Science, Innovation and Technology Chloe Smith has today announced a series of investments to develop trustworthy artificial intelligence (AI) research.
UK: Доклад призывает к этичному будущему ИИ и надежному управлению
Всепартийная парламентская группа по аналитике данных в Великобритании выпустила отчет под названием "Этичное будущее ИИ: Инструменты для превращения искусственного интеллекта в силу добра".
Цель доклада - изучить, как эффективная система управления и регулирования может максимизировать преимущества ИИ, одновременно устраняя существующие риски, такие как дипфейки, и готовясь к потенциальным будущим рискам.
В докладе содержится несколько ключевых рекомендаций по формированию будущего управления ИИ:
1️⃣ Усилить международное взаимодействие.
2️⃣ Принять этическую конвенцию по ИИ.
3️⃣ Внедрить принцип "Не навреди".
4️⃣ Создать независимый регулирующий орган.
#EthicalAI #AIRegulation #Governance #AIConvention #Accountability
Всепартийная парламентская группа по аналитике данных в Великобритании выпустила отчет под названием "Этичное будущее ИИ: Инструменты для превращения искусственного интеллекта в силу добра".
Цель доклада - изучить, как эффективная система управления и регулирования может максимизировать преимущества ИИ, одновременно устраняя существующие риски, такие как дипфейки, и готовясь к потенциальным будущим рискам.
В докладе содержится несколько ключевых рекомендаций по формированию будущего управления ИИ:
1️⃣ Усилить международное взаимодействие.
2️⃣ Принять этическую конвенцию по ИИ.
3️⃣ Внедрить принцип "Не навреди".
4️⃣ Создать независимый регулирующий орган.
#EthicalAI #AIRegulation #Governance #AIConvention #Accountability
Policy Connect
An Ethical AI Future: Guardrails & Catalysts to make Artificial Intelligence a Force for Good
Parliamentarians set out proposals for the regulation of Artificial Intelligence to harness it as a force for good
Комиссар по электронной безопасности Австралии обратился к генеративному ИИ
Привет общество AI&Law! Комиссар по электронной безопасности Австралии опубликовал "Заявление о позиции по технологическим тенденциям - генеративный ИИ". В данном документе дается оценка современного состояния генеративного искусственного интеллекта, его жизненного цикла и приводятся примеры как благоприятного, так и неблагоприятного применения этой технологии.
Предлагая понимание потенциальных преимуществ и проблем, связанных с генеративным ИИ, данное программное заявление направлено на информирование заинтересованных сторон, стимулирование ответственного использования и внесение вклада в постоянный диалог об ответственном внедрении технологий искусственного интеллекта.
#AI #Australia #TechTrends #EthicalAI
Привет общество AI&Law! Комиссар по электронной безопасности Австралии опубликовал "Заявление о позиции по технологическим тенденциям - генеративный ИИ". В данном документе дается оценка современного состояния генеративного искусственного интеллекта, его жизненного цикла и приводятся примеры как благоприятного, так и неблагоприятного применения этой технологии.
Предлагая понимание потенциальных преимуществ и проблем, связанных с генеративным ИИ, данное программное заявление направлено на информирование заинтересованных сторон, стимулирование ответственного использования и внесение вклада в постоянный диалог об ответственном внедрении технологий искусственного интеллекта.
#AI #Australia #TechTrends #EthicalAI
Представляем вашему вниманию новый доклад Clifford Chance: "Ответственный ИИ на практике".
Здравствуйте, подписчики AI&Law! Компания "Клиффорд Чанс" опубликовала новый отчет "Ответственный ИИ на практике". Он проливает свет на растущие проблемы, связанные с использованием и влиянием искусственного интеллекта.
В документе, подготовленном в партнерстве с Milltown Partners, представлены результаты фокус-групп, проведенных в США, Великобритании и Германии. В ходе этих дискуссий рассматривались такие важнейшие вопросы ИИ, как предвзятость, согласие, прозрачность и управление.
Несмотря на оптимизм в отношении потенциала ИИ, очевидно, что еще предстоит работа по обеспечению его ответственного и безопасного применения.
#AI #CliffordChance #ResponsibleAI #AIandLaw #EthicalAI
Здравствуйте, подписчики AI&Law! Компания "Клиффорд Чанс" опубликовала новый отчет "Ответственный ИИ на практике". Он проливает свет на растущие проблемы, связанные с использованием и влиянием искусственного интеллекта.
В документе, подготовленном в партнерстве с Milltown Partners, представлены результаты фокус-групп, проведенных в США, Великобритании и Германии. В ходе этих дискуссий рассматривались такие важнейшие вопросы ИИ, как предвзятость, согласие, прозрачность и управление.
Несмотря на оптимизм в отношении потенциала ИИ, очевидно, что еще предстоит работа по обеспечению его ответственного и безопасного применения.
#AI #CliffordChance #ResponsibleAI #AIandLaw #EthicalAI
Sony AI призывает к многомерной оценке предвзятости ИИ, включая оттенки кожи
Компания Sony AI предлагает более инклюзивный подход к оценке предвзятости ИИ, призывая учитывать различные оттенки кожи. Этот шаг призван стимулировать этические дискуссии при разработке ИИ.
В то время как инициативы по обеспечению справедливости ИИ были направлены в основном на снижение предвзятости, связанной со светлым или темным цветом кожи, последние исследования Sony AI выступают за более широкую перспективу. Для создания более этичных и разнообразных систем ИИ предлагается наряду с традиционными оттенками кожи оценивать красные и желтые оттенки.
Это этическое исследование направлено на решение проблемы предвзятости ИИ и продвижение систем ИИ, которые дают точные результаты независимо от цвета кожи пользователей. Google и Amazon проявили интерес к результатам исследований Sony, что свидетельствует о коллективном стремлении к созданию более этичного и инклюзивного ИИ.
#AIEthics #InclusiveAI #EthicalAI #AIandEthics
Компания Sony AI предлагает более инклюзивный подход к оценке предвзятости ИИ, призывая учитывать различные оттенки кожи. Этот шаг призван стимулировать этические дискуссии при разработке ИИ.
В то время как инициативы по обеспечению справедливости ИИ были направлены в основном на снижение предвзятости, связанной со светлым или темным цветом кожи, последние исследования Sony AI выступают за более широкую перспективу. Для создания более этичных и разнообразных систем ИИ предлагается наряду с традиционными оттенками кожи оценивать красные и желтые оттенки.
Это этическое исследование направлено на решение проблемы предвзятости ИИ и продвижение систем ИИ, которые дают точные результаты независимо от цвета кожи пользователей. Google и Amazon проявили интерес к результатам исследований Sony, что свидетельствует о коллективном стремлении к созданию более этичного и инклюзивного ИИ.
#AIEthics #InclusiveAI #EthicalAI #AIandEthics
Представлен план действий по работе с ИИ в Нью-Йорке
Всем привет! В Нью-Йорке обнародован План действий в области ИИ, направленный на ответственное управление ИИ. План действий призван обеспечить ответственное и этичное использование ИИ в городских органах власти.
В нем дается определение ИИ как широкого зонтичного термина, охватывающего различные технологии, машинного и глубокого обучения, используемые для прогнозирования, выработки рекомендаций и принятия решений. Сюда входят такие передовые инструменты, как алгоритмы машинного обучения, технологии компьютерного зрения и обработки языка.
Данный план действий содержит семь важнейших инициатив:
1️⃣ Надежная система управления: Обеспечение надежности, прозрачности, справедливости и других ценностей.
2️⃣ Привлечение заинтересованных сторон: Привлечение различных секторов к решению проблем ИИ.
3️⃣ Расширение прав и возможностей общественности: Обеспечение участия общественности и открытой коммуникации по вопросам ответственного использования ИИ.
4️⃣ Грамотность в области ИИ: Обучение городских служащих ответственному взаимодействию с ИИ.
5️⃣ Поддержка ИИ: Предоставление помощи и знаний городским агентствам.
6️⃣ Ответственные закупки ИИ: Разработка стандартов закупок для этичных приобретений ИИ.
7️⃣ Обновление плана действий: Обеспечение актуальности плана и включение в него ежегодных отчетов о проделанной работе.
#NewYorkCityAI #AIActionPlan #ResponsibleAI #AIInGovernance #AIandLaw #EthicalAI #Transparency #AIRegulations
Всем привет! В Нью-Йорке обнародован План действий в области ИИ, направленный на ответственное управление ИИ. План действий призван обеспечить ответственное и этичное использование ИИ в городских органах власти.
В нем дается определение ИИ как широкого зонтичного термина, охватывающего различные технологии, машинного и глубокого обучения, используемые для прогнозирования, выработки рекомендаций и принятия решений. Сюда входят такие передовые инструменты, как алгоритмы машинного обучения, технологии компьютерного зрения и обработки языка.
Данный план действий содержит семь важнейших инициатив:
1️⃣ Надежная система управления: Обеспечение надежности, прозрачности, справедливости и других ценностей.
2️⃣ Привлечение заинтересованных сторон: Привлечение различных секторов к решению проблем ИИ.
3️⃣ Расширение прав и возможностей общественности: Обеспечение участия общественности и открытой коммуникации по вопросам ответственного использования ИИ.
4️⃣ Грамотность в области ИИ: Обучение городских служащих ответственному взаимодействию с ИИ.
5️⃣ Поддержка ИИ: Предоставление помощи и знаний городским агентствам.
6️⃣ Ответственные закупки ИИ: Разработка стандартов закупок для этичных приобретений ИИ.
7️⃣ Обновление плана действий: Обеспечение актуальности плана и включение в него ежегодных отчетов о проделанной работе.
#NewYorkCityAI #AIActionPlan #ResponsibleAI #AIInGovernance #AIandLaw #EthicalAI #Transparency #AIRegulations
OpenAI представил новую рамочную "систему готовности"
Приветствуем, дорогие подисчики! OpenAI обнародовал свою новаторскую концепцию готовности, направленную на укрепление безопасности и этичности разработки моделей ИИ.
В качестве проактивного шага на пути к глобальной безопасности ИИ OpenAI учредил консультативную группу по безопасности, уполномоченную давать критические рекомендации руководству. Примечательно, что совет обладает правом вето, способным остановить выпуск любой модели ИИ, даже если руководство сочтет ее безопасной.
На фоне года динамичного роста и перестановок в правлении, включая быстрое восстановление в должности генерального директора Сэма Альтмана, OpenAI активно расширяет свои протоколы безопасности.
Концепция готовности OpenAI призвана восполнить пробелы в изучении рисков, связанных с передовым ИИ. В ней описаны процессы мониторинга, оценки, прогнозирования и защиты от рисков, создаваемых все более мощными моделями ИИ. Основное внимание уделяется катастрофическим рискам, включая экономический ущерб, серьезные повреждения или гибель людей, что подчеркивает приверженность ответственному развитию ИИ.
Группа по обеспечению готовности под руководством профессора Александра Мадри состоит из исследователей ИИ, компьютерных ученых, экспертов по национальной безопасности и специалистов по регулированию. В их задачи входит бдительный мониторинг, постоянное тестирование и раннее предупреждение о том, что возможности ИИ могут стать опасными. Кроме того, концепция предусматривает устранение предвзятости, чтобы не позволить системам ИИ причинять вред, особенно в таких областях, как расовые предрассудки.
По мере развития ИИ OpenAI задает тон в отрасли, демонстрируя важность баланса между технологическими инновациями и этическими соображениями.
#AIAndLaw #OpenAI #AISafety #EthicalAI #AIInnovation #TechNews #LegalTech
#AIAndLaw #OpenAI #AISafety #EthicalAI #AIInnovation #TechNews #LegalTech
Приветствуем, дорогие подисчики! OpenAI обнародовал свою новаторскую концепцию готовности, направленную на укрепление безопасности и этичности разработки моделей ИИ.
В качестве проактивного шага на пути к глобальной безопасности ИИ OpenAI учредил консультативную группу по безопасности, уполномоченную давать критические рекомендации руководству. Примечательно, что совет обладает правом вето, способным остановить выпуск любой модели ИИ, даже если руководство сочтет ее безопасной.
На фоне года динамичного роста и перестановок в правлении, включая быстрое восстановление в должности генерального директора Сэма Альтмана, OpenAI активно расширяет свои протоколы безопасности.
Концепция готовности OpenAI призвана восполнить пробелы в изучении рисков, связанных с передовым ИИ. В ней описаны процессы мониторинга, оценки, прогнозирования и защиты от рисков, создаваемых все более мощными моделями ИИ. Основное внимание уделяется катастрофическим рискам, включая экономический ущерб, серьезные повреждения или гибель людей, что подчеркивает приверженность ответственному развитию ИИ.
Группа по обеспечению готовности под руководством профессора Александра Мадри состоит из исследователей ИИ, компьютерных ученых, экспертов по национальной безопасности и специалистов по регулированию. В их задачи входит бдительный мониторинг, постоянное тестирование и раннее предупреждение о том, что возможности ИИ могут стать опасными. Кроме того, концепция предусматривает устранение предвзятости, чтобы не позволить системам ИИ причинять вред, особенно в таких областях, как расовые предрассудки.
По мере развития ИИ OpenAI задает тон в отрасли, демонстрируя важность баланса между технологическими инновациями и этическими соображениями.
#AIAndLaw #OpenAI #AISafety #EthicalAI #AIInnovation #TechNews #LegalTech
#AIAndLaw #OpenAI #AISafety #EthicalAI #AIInnovation #TechNews #LegalTech
Openai
Preparedness
The study of frontier AI risks has fallen far short of what is possible and where we need to be. To address this gap and systematize our safety thinking, we are adopting the initial version of our Preparedness Framework. It describes OpenAI’s processes to…
Fairly Trained запускают сертификацию для ИИ, соблюдающего авторские права
Привет всем! В попытке решить проблемы авторского права в сфере ИИ некоммерческая организация Fairly Trained запускает новую программу сертификации. Программа, ориентированная на компании, занимающиеся разработкой ИИ, присуждает сертификат "Лицензированная модель" организациям, которые демонстрируют получение разрешения на использование данных, защищенных авторским правом.
#AICertification #EthicalAI #Copyright
Привет всем! В попытке решить проблемы авторского права в сфере ИИ некоммерческая организация Fairly Trained запускает новую программу сертификации. Программа, ориентированная на компании, занимающиеся разработкой ИИ, присуждает сертификат "Лицензированная модель" организациям, которые демонстрируют получение разрешения на использование данных, защищенных авторским правом.
#AICertification #EthicalAI #Copyright
Fairly Trained
Fairly Trained launches certification for generative AI models that respect creators’ rights — Fairly Trained
Today we’re launching Fairly Trained, a non-profit that certifies generative AI companies for training data practices that respect creators’ rights.
Департамент юстиции США запускает программу Justice AI для борьбы с преступностью с помощью этичного ИИ
Привет всем! Департамент юстиции США объявил о запуске проекта Justice AI - амбициозной инициативы, направленной на модернизацию борьбы с преступностью при помощи этичного ИИ. Возглавляемая заместителем генерального прокурора Лизой Монако, инициатива Justice AI предполагает сбор информации от экспертов из различных отраслей для изучения влияния искусственного интеллекта на правоохранительную деятельность. В течение следующих шести месяцев эксперты будут сотрудничать и представлять точки зрения, которые лягут в основу доклада для президента Джо Байдена о роли ИИ в системе уголовного правосудия.
В рамках более широкой стратегии развития ИИ Минюст США назначил Джонатана Майера своим первым руководителем по ИИ. Майер, уважаемый ученый с опытом работы в области информатики и права, будет консультировать по вопросам ИИ и кибербезопасности.
#DOJ #JusticeAI #EthicalAI
Привет всем! Департамент юстиции США объявил о запуске проекта Justice AI - амбициозной инициативы, направленной на модернизацию борьбы с преступностью при помощи этичного ИИ. Возглавляемая заместителем генерального прокурора Лизой Монако, инициатива Justice AI предполагает сбор информации от экспертов из различных отраслей для изучения влияния искусственного интеллекта на правоохранительную деятельность. В течение следующих шести месяцев эксперты будут сотрудничать и представлять точки зрения, которые лягут в основу доклада для президента Джо Байдена о роли ИИ в системе уголовного правосудия.
В рамках более широкой стратегии развития ИИ Минюст США назначил Джонатана Майера своим первым руководителем по ИИ. Майер, уважаемый ученый с опытом работы в области информатики и права, будет консультировать по вопросам ИИ и кибербезопасности.
#DOJ #JusticeAI #EthicalAI
www.justice.gov
Deputy Attorney General Lisa O. Monaco Delivers Remarks at the University of Oxford on the Promise and Peril of AI
Thank you for that very kind introduction, Sam. And thank you to Professor Sir Charles Godfray, the Oxford Martin School, and Professor Robert Trager — who couldn’t join today — for hosting this event.
ООН приняла резолюцию об искусственном интеллекте
Генеральная Ассамблея ООН единогласно приняла резолюцию об искусственном интеллекте, что стало важным шагом на пути к безопасному и этичному развитию технологий искусственного интеллекта во всем мире.
Резолюция, соавторами которой выступили более 120 стран, впервые в истории ООН устанавливает глобальные стандарты и руководящие принципы в области ИИ.
Основные положения восьмистраничной резолюции включают в себя повышение осведомленности о преимуществах и рисках ИИ, увеличение инвестиций в исследования в области ИИ, защиту конфиденциальности и устранение предвзятости в наборах данных и алгоритмах ИИ.
Резолюция также призывает правительства разработать национальную политику и стандарты этичного использования ИИ и призывает агентства ООН оказать техническую помощь нуждающимся странам.
#UN #AIResolution #EthicalAI #AIRegulation
Генеральная Ассамблея ООН единогласно приняла резолюцию об искусственном интеллекте, что стало важным шагом на пути к безопасному и этичному развитию технологий искусственного интеллекта во всем мире.
Резолюция, соавторами которой выступили более 120 стран, впервые в истории ООН устанавливает глобальные стандарты и руководящие принципы в области ИИ.
Основные положения восьмистраничной резолюции включают в себя повышение осведомленности о преимуществах и рисках ИИ, увеличение инвестиций в исследования в области ИИ, защиту конфиденциальности и устранение предвзятости в наборах данных и алгоритмах ИИ.
Резолюция также призывает правительства разработать национальную политику и стандарты этичного использования ИИ и призывает агентства ООН оказать техническую помощь нуждающимся странам.
#UN #AIResolution #EthicalAI #AIRegulation
Этические проблемы, связанные с использованием ИИ в здравоохранении, раскрыты в новом исследовании
Недавнее исследование Оксфордского университета призывает к осторожности при внедрении нерегулируемых чат-ботов ИИ в здравоохранении, ссылаясь на потенциальные этические дилеммы и риски для конфиденциальности данных.
Как сообщает газета The Guardian, раскрыты случаи, когда медицинские работники использовали ИИ-чатботы, такие как ChatGPT, для составления планов лечения пациентов. Однако исследование предупреждает, что использование таких инструментов ИИ в отсутствие регулирования может привести к принятию решений на основе недостоверной или предвзятой информации, что в конечном итоге может нанести вред пациентам.
По мере того как в здравоохранении все шире внедряются технологии искусственного интеллекта, возникают опасения по поводу защиты данных пациентов и возможности некачественного лечения из-за чрезмерного доверия к системам ИИ.
Доктор Кэролайн Грин, научный сотрудник Оксфордского института этики искусственного интеллекта, подчеркивает, что использование персональных данных для обучения моделей искусственного интеллекта может нарушить конфиденциальность пациентов. Она выступает за осторожный подход, предлагая использовать ИИ в качестве вспомогательного "второго пилота", а не единственного лица, принимающего решения по уходу за пациентом.
#AIinHealthcare #EthicalAI #DataPrivacy #OxfordUniversity
Недавнее исследование Оксфордского университета призывает к осторожности при внедрении нерегулируемых чат-ботов ИИ в здравоохранении, ссылаясь на потенциальные этические дилеммы и риски для конфиденциальности данных.
Как сообщает газета The Guardian, раскрыты случаи, когда медицинские работники использовали ИИ-чатботы, такие как ChatGPT, для составления планов лечения пациентов. Однако исследование предупреждает, что использование таких инструментов ИИ в отсутствие регулирования может привести к принятию решений на основе недостоверной или предвзятой информации, что в конечном итоге может нанести вред пациентам.
По мере того как в здравоохранении все шире внедряются технологии искусственного интеллекта, возникают опасения по поводу защиты данных пациентов и возможности некачественного лечения из-за чрезмерного доверия к системам ИИ.
Доктор Кэролайн Грин, научный сотрудник Оксфордского института этики искусственного интеллекта, подчеркивает, что использование персональных данных для обучения моделей искусственного интеллекта может нарушить конфиденциальность пациентов. Она выступает за осторожный подход, предлагая использовать ИИ в качестве вспомогательного "второго пилота", а не единственного лица, принимающего решения по уходу за пациентом.
#AIinHealthcare #EthicalAI #DataPrivacy #OxfordUniversity
the Guardian
Warning over use in UK of unregulated AI chatbots to create social care plans
University of Oxford study shows benefits and risks of technology to healthcare, but ethical issues remain
Федеральные агентства США теперь обязали назначать специалистов по искусственному интеллекту
Чтобы обеспечить ответственное и безопасное внедрение ИИ в государственном секторе, каждое федеральное агентство США теперь обязано назначить старшего сотрудника, которому будет поручено контролировать все системы искусственного интеллекта, используемые в соответствующих сферах деятельности.
Вице-президент Камала Харрис представила новое руководство Офиса по управлению и бюджету, подчеркнув настоятельную необходимость наличия специальных руководителей, обладающих необходимыми знаниями и полномочиями, чтобы ориентироваться в сложностях внедрения ИИ в государственных учреждениях.
Наряду с назначением таких сотрудников, агентства должны создать советы по управлению ИИ для координации и разработки стратегий этичного и эффективного использования технологий ИИ.
В руководстве также подчеркивается важность прозрачности и подотчетности при внедрении ИИ: агентствам предписано ежегодно представлять перечни всех используемых систем ИИ, а также оценки рисков и стратегии их снижения.
Кроме того, руководство содержит принцип прозрачности, требуя, чтобы принадлежащие правительству модели ИИ, код и данные были доступны общественности, исключая любой риск для правительственных операций.
#AIRegulation #EthicalAI
Чтобы обеспечить ответственное и безопасное внедрение ИИ в государственном секторе, каждое федеральное агентство США теперь обязано назначить старшего сотрудника, которому будет поручено контролировать все системы искусственного интеллекта, используемые в соответствующих сферах деятельности.
Вице-президент Камала Харрис представила новое руководство Офиса по управлению и бюджету, подчеркнув настоятельную необходимость наличия специальных руководителей, обладающих необходимыми знаниями и полномочиями, чтобы ориентироваться в сложностях внедрения ИИ в государственных учреждениях.
Наряду с назначением таких сотрудников, агентства должны создать советы по управлению ИИ для координации и разработки стратегий этичного и эффективного использования технологий ИИ.
В руководстве также подчеркивается важность прозрачности и подотчетности при внедрении ИИ: агентствам предписано ежегодно представлять перечни всех используемых систем ИИ, а также оценки рисков и стратегии их снижения.
Кроме того, руководство содержит принцип прозрачности, требуя, чтобы принадлежащие правительству модели ИИ, код и данные были доступны общественности, исключая любой риск для правительственных операций.
#AIRegulation #EthicalAI
The White House
FACT SHEET: Vice President Harris Announces OMB Policy to Advance Governance, Innovation, and Risk Management in Federal Agencies’…
Administration announces completion of 150-day actions tasked by President Biden’s landmark Executive Order on AI Today, Vice President Kamala Harris