Депутаты Европарламента готовы обсудить первые в истории правила для безопасного и прозрачного ИИ
Депутаты Европарламента готовы вступить в переговоры об установлении новаторских правил, регулирующих безопасное и прозрачное использование искусственного интеллекта.
Сегодня Европейский парламент принял свою позицию на переговорах по Закону об искусственном интеллекте, набрав 499 голосов за, 28 против и 93 воздержавшихся в преддверии переговоров со странами-членами ЕС об окончательной форме закона.
Переговоры с Советом Европы по окончательной форме закона начнутся позже сегодня.
#AI #Regulation #EuropeanParliament #AIAct #Ethics #Transparency #DataProtection #Innovation #FutureOfAI
Депутаты Европарламента готовы вступить в переговоры об установлении новаторских правил, регулирующих безопасное и прозрачное использование искусственного интеллекта.
Сегодня Европейский парламент принял свою позицию на переговорах по Закону об искусственном интеллекте, набрав 499 голосов за, 28 против и 93 воздержавшихся в преддверии переговоров со странами-членами ЕС об окончательной форме закона.
Переговоры с Советом Европы по окончательной форме закона начнутся позже сегодня.
#AI #Regulation #EuropeanParliament #AIAct #Ethics #Transparency #DataProtection #Innovation #FutureOfAI
European Parliament
MEPs ready to negotiate first-ever rules for safe and transparent AI
The rules aim to promote the uptake of human-centric and trustworthy AI and protect the health, safety, fundamental rights and democracy from its harmful effects.
54 миллиона фунтов стерлингов на развитие исследований в области безопасного и надежного ИИ
Правительство Великобритании объявило о значительных инвестициях в размере 54 миллионов фунтов стерлингов в поддержку развития безопасного и надежного ИИ.
Финансирование будет предназначено на различные проекты и инициативы, направленные на повышение безопасности и надежности систем ИИ. Это включает в себя продвижение исследований алгоритмов ИИ, конфиденциальности данных и мер кибербезопасности. Цель - решить такие критические проблемы, как алгоритмическая предвзятость, защита данных и этические аспекты при разработке и внедрении ИИ.
#AIresearch #SecureAI #TrustworthyAI #UKgovernment #Innovation #EthicalAI #DataPrivacy #Cybersecurity
Правительство Великобритании объявило о значительных инвестициях в размере 54 миллионов фунтов стерлингов в поддержку развития безопасного и надежного ИИ.
Финансирование будет предназначено на различные проекты и инициативы, направленные на повышение безопасности и надежности систем ИИ. Это включает в себя продвижение исследований алгоритмов ИИ, конфиденциальности данных и мер кибербезопасности. Цель - решить такие критические проблемы, как алгоритмическая предвзятость, защита данных и этические аспекты при разработке и внедрении ИИ.
#AIresearch #SecureAI #TrustworthyAI #UKgovernment #Innovation #EthicalAI #DataPrivacy #Cybersecurity
GOV.UK
£54 million boost to develop secure and trustworthy AI research
Secretary of State for Science, Innovation and Technology Chloe Smith has today announced a series of investments to develop trustworthy artificial intelligence (AI) research.
Исследование на соответствие Закону об ИИ
Исследователи Стэнфордского университета провели оценку основных поставщиков базовых моделей, включая OpenAI и Google, на предмет их соответствия версии Закона об ИИ, предложенной Европейским парламентом. Результаты показали, что в настоящее время эти провайдеры не полностью соответствуют требованиям Закона, но исследователи считают, что в будущем они смогут это сделать.
Одним из ключевых наблюдений, сделанных в ходе анализа, является отсутствие адекватного раскрытия информации. Важные детали, касающиеся данных, вычислений и ключевых характеристик моделей, часто не раскрываются. Это вызывает обеспокоенность по поводу прозрачности и подотчетности в экосистеме ИИ.
Для решения этих проблем исследователи подчеркивают необходимость того, чтобы политики ЕС избирательно устанавливали требования Закона об ИИ к влиятельным поставщикам, избегая при этом чрезмерного бремени для небольших компаний. Кроме того, крайне важно выделить необходимые технические ресурсы агентствам, ответственным за соблюдение Закона об ИИ.
Смогут ли политики обеспечить прозрачность и подотчетность в быстро развивающейся области ИИ, одновременно способствуя инновациям и поддерживая небольшие компании?
#AIAct #FoundationModels #Transparency #Accountability #Compliance #Innovation
Исследователи Стэнфордского университета провели оценку основных поставщиков базовых моделей, включая OpenAI и Google, на предмет их соответствия версии Закона об ИИ, предложенной Европейским парламентом. Результаты показали, что в настоящее время эти провайдеры не полностью соответствуют требованиям Закона, но исследователи считают, что в будущем они смогут это сделать.
Одним из ключевых наблюдений, сделанных в ходе анализа, является отсутствие адекватного раскрытия информации. Важные детали, касающиеся данных, вычислений и ключевых характеристик моделей, часто не раскрываются. Это вызывает обеспокоенность по поводу прозрачности и подотчетности в экосистеме ИИ.
Для решения этих проблем исследователи подчеркивают необходимость того, чтобы политики ЕС избирательно устанавливали требования Закона об ИИ к влиятельным поставщикам, избегая при этом чрезмерного бремени для небольших компаний. Кроме того, крайне важно выделить необходимые технические ресурсы агентствам, ответственным за соблюдение Закона об ИИ.
Смогут ли политики обеспечить прозрачность и подотчетность в быстро развивающейся области ИИ, одновременно способствуя инновациям и поддерживая небольшие компании?
#AIAct #FoundationModels #Transparency #Accountability #Compliance #Innovation
Ответственное внедрение ИИ в частном секторе
Всемирный экономический форум выпустил отчет под названием "Ответственное внедрение ИИ: Руководство по закупкам решений ИИ в частном секторе".
Поскольку глобальный рынок ИИ продолжает стремительно расширяться, существует острая необходимость в установлении стандартов и рамок для обеспечения ответственной практики ИИ и закупок. Признавая эту необходимость, Всемирный экономический форум создал всеобъемлющее руководство, специально предназначенное для коммерческих организаций.
В этом отчете представлена структурированная основа, которая позволяет организациям оценить последствия приобретения решений ИИ. В нем подчеркиваются принципы прозрачности, подотчетности и ориентированного на человека проектирования на протяжении всего процесса разработки и внедрения. Следуя этим принципам, компании смогут защитить себя от потенциальных рисков, связанных с интеллектуальной собственностью, данными и конфиденциальностью.
#AI #Ethics #ResponsibleAI #PrivateSector #Technology #Innovation #Business #Governance #WorldEconomicForum
Всемирный экономический форум выпустил отчет под названием "Ответственное внедрение ИИ: Руководство по закупкам решений ИИ в частном секторе".
Поскольку глобальный рынок ИИ продолжает стремительно расширяться, существует острая необходимость в установлении стандартов и рамок для обеспечения ответственной практики ИИ и закупок. Признавая эту необходимость, Всемирный экономический форум создал всеобъемлющее руководство, специально предназначенное для коммерческих организаций.
В этом отчете представлена структурированная основа, которая позволяет организациям оценить последствия приобретения решений ИИ. В нем подчеркиваются принципы прозрачности, подотчетности и ориентированного на человека проектирования на протяжении всего процесса разработки и внедрения. Следуя этим принципам, компании смогут защитить себя от потенциальных рисков, связанных с интеллектуальной собственностью, данными и конфиденциальностью.
#AI #Ethics #ResponsibleAI #PrivateSector #Technology #Innovation #Business #Governance #WorldEconomicForum
World Economic Forum
Adopting AI Responsibly: Guidelines for Procurement of AI Solutions by the Private Sector
In today's rapidly evolving technological landscape, responsible and ethical adoption of artificial intelligence (AI) is paramount for commercial enterprises. The exponential growth of the global AI market highlights the need for establishing standards and…
В Испании создан новый регулирующий орган в области искусственного интеллекта
Привет всем! Испания первая из стран ЕС создала специальный орган по регулированию ИИ.
Испанское агентство по надзору за искусственным интеллектом было официально учреждено Королевским указом и утверждено Советом министров 22 августа.
Цель агентства - обеспечить соответствие развития искусственного интеллекта в Испании принципам инклюзивности, устойчивости и благосостояния граждан. Оно будет курировать Национальную стратегию искусственного интеллекта, позиционируя Испанию как лидера в области инноваций в области ИИ.
Этот шаг является частью программы "Цифровая Испания 2025" (Digital Spain 2025 Agenda) - инициативы стоимостью 600 млн евро, включающей более 50 мер по формированию цифрового будущего страны.
Ожидается, что агентство также будет обеспечивать соблюдение нового закона ЕС об искусственном интеллекте, что выведет Испанию на передовые позиции в области ответственного регулирования ИИ в Европе.
#AIRegulation #SpainAI #DigitalEurope #Innovation #AESIA
Привет всем! Испания первая из стран ЕС создала специальный орган по регулированию ИИ.
Испанское агентство по надзору за искусственным интеллектом было официально учреждено Королевским указом и утверждено Советом министров 22 августа.
Цель агентства - обеспечить соответствие развития искусственного интеллекта в Испании принципам инклюзивности, устойчивости и благосостояния граждан. Оно будет курировать Национальную стратегию искусственного интеллекта, позиционируя Испанию как лидера в области инноваций в области ИИ.
Этот шаг является частью программы "Цифровая Испания 2025" (Digital Spain 2025 Agenda) - инициативы стоимостью 600 млн евро, включающей более 50 мер по формированию цифрового будущего страны.
Ожидается, что агентство также будет обеспечивать соблюдение нового закона ЕС об искусственном интеллекте, что выведет Испанию на передовые позиции в области ответственного регулирования ИИ в Европе.
#AIRegulation #SpainAI #DigitalEurope #Innovation #AESIA
Официальный представитель ЕС предостерегает от чрезмерного регулирования генеративного ИИ
Всем привет! Вице-президент Европейской комиссии Вера Йоурова предостерегла от чрезмерного регулирования генеративного ИИ, подчеркнув, что законодательство, основанное на страхе, может помешать инновациям. Йоурова подчеркнула, что риски ИИ должны оцениваться на основе тщательного анализа, а не беспочвенных страхов.
Она признала, что чрезмерное регулирование действительно может затормозить технологические и деловые инновации. ЕС находится в авангарде регулирования ИИ, однако такие страны, как США и Китай, также рассматривают возможность введения собственных мер контроля. В Великобритании в следующем месяце пройдет глобальный саммит по регулированию ИИ.
Высказывания Йоуровой совпали с текущими переговорами по доработке закона об ИИ в ЕС. Возникла обеспокоенность в связи с тем, что генеративный ИИ может создавать дипфейки и нарушать авторские права.
В то время как ЕС первоначально сосредоточился на регулировании рисков ИИ, Европейский парламент ввел юридические обязательства для создателей генеративных моделей, таких как ChatGPT. Теперь они должны раскрывать информацию о контенте, генерируемом ИИ, и предоставлять информацию о данных, защищенных авторским правом, которые использовались при обучении, а также бороться с дезинформацией и нелегальным контентом.
Йоурова стремится позиционировать модель ЕС как ведущий пример регулирования ИИ во всем мире.
#AIandLaw #AIRegulation #GenerativeAI #Innovation
Всем привет! Вице-президент Европейской комиссии Вера Йоурова предостерегла от чрезмерного регулирования генеративного ИИ, подчеркнув, что законодательство, основанное на страхе, может помешать инновациям. Йоурова подчеркнула, что риски ИИ должны оцениваться на основе тщательного анализа, а не беспочвенных страхов.
Она признала, что чрезмерное регулирование действительно может затормозить технологические и деловые инновации. ЕС находится в авангарде регулирования ИИ, однако такие страны, как США и Китай, также рассматривают возможность введения собственных мер контроля. В Великобритании в следующем месяце пройдет глобальный саммит по регулированию ИИ.
Высказывания Йоуровой совпали с текущими переговорами по доработке закона об ИИ в ЕС. Возникла обеспокоенность в связи с тем, что генеративный ИИ может создавать дипфейки и нарушать авторские права.
В то время как ЕС первоначально сосредоточился на регулировании рисков ИИ, Европейский парламент ввел юридические обязательства для создателей генеративных моделей, таких как ChatGPT. Теперь они должны раскрывать информацию о контенте, генерируемом ИИ, и предоставлять информацию о данных, защищенных авторским правом, которые использовались при обучении, а также бороться с дезинформацией и нелегальным контентом.
Йоурова стремится позиционировать модель ЕС как ведущий пример регулирования ИИ во всем мире.
#AIandLaw #AIRegulation #GenerativeAI #Innovation
Ft
Brussels warns against ‘paranoia’ when regulating generative AI | Financial Times
European Commission vice-president says legislation should be based on ‘solid analysis’
🌟 Воскресные чудеса ИИ: Flappie представляет кошачью дверь с искусственным интеллектом, чтобы прекратить нежелательные "подарки"
Привет всем! В это воскресенье мы хотим поделиться с вами странным и удивительным с выставки CES 2024: Швейцарский стартап Flappie представляет инновационную кошачью дверь с искусственным интеллектом. Умная дверь, оснащенная датчиком движения и камерой ночного видения на внешней стороне, использует запатентованный набор данных для обнаружения добычи, не позволяя вашему кошачьему другу приносить в дом мышей и крыс.
Система, обладающая точностью более 90 %, хоть и не является безошибочной, но значительно сокращает количество таких "подарков". Ручное управление внутри двери обеспечивает гибкость, при этом система распознает микрочипированных питомцев. Flappie планирует начать продажи весной в Швейцарии и Германии, и позднее в США. Предполагаемая стоимость - $399 или $199 с двухлетней подпиской на приложение.
#PetTech #AICatDoor #CES2024 #Innovation #Flappie**
Привет всем! В это воскресенье мы хотим поделиться с вами странным и удивительным с выставки CES 2024: Швейцарский стартап Flappie представляет инновационную кошачью дверь с искусственным интеллектом. Умная дверь, оснащенная датчиком движения и камерой ночного видения на внешней стороне, использует запатентованный набор данных для обнаружения добычи, не позволяя вашему кошачьему другу приносить в дом мышей и крыс.
Система, обладающая точностью более 90 %, хоть и не является безошибочной, но значительно сокращает количество таких "подарков". Ручное управление внутри двери обеспечивает гибкость, при этом система распознает микрочипированных питомцев. Flappie планирует начать продажи весной в Швейцарии и Германии, и позднее в США. Предполагаемая стоимость - $399 или $199 с двухлетней подпиской на приложение.
#PetTech #AICatDoor #CES2024 #Innovation #Flappie**
YouTube
Flappie Introduction
The two twin brothers and co-founders tell their story about Flappie.
Университет Эмори отстранил студентов за разработку учебного инструмента на базе ИИ
Двое студентов Университета Эмори, Бенджамин Крейвер и Карам Ханна, были отстранены за разработку учебного инструмента Eightball.
Примечательно, что этот инструмент не только получил одобрение университета, но и выиграл премию в размере $10,000 на дальнейшую разработку. Конфликт возник, когда Eightball получил возможность подключаться к онлайн-системе обучения Canvas, что позволило генерировать учебные карточки непосредственно из учебных материалов.
Университет Эмори сослался на возможные нарушения Кодекса чести, утверждая, что Eightball «может использоваться для мошенничества». Это привело к закрытию инструмента и судебному иску, поданному Крейвером против университета. В иске студент утверждает, что «нет доказательств, что кто-либо использовал Eightball для мошенничества».
#AI #Education #Innovation #Eightball #TechPolicy
Двое студентов Университета Эмори, Бенджамин Крейвер и Карам Ханна, были отстранены за разработку учебного инструмента Eightball.
Примечательно, что этот инструмент не только получил одобрение университета, но и выиграл премию в размере $10,000 на дальнейшую разработку. Конфликт возник, когда Eightball получил возможность подключаться к онлайн-системе обучения Canvas, что позволило генерировать учебные карточки непосредственно из учебных материалов.
Университет Эмори сослался на возможные нарушения Кодекса чести, утверждая, что Eightball «может использоваться для мошенничества». Это привело к закрытию инструмента и судебному иску, поданному Крейвером против университета. В иске студент утверждает, что «нет доказательств, что кто-либо использовал Eightball для мошенничества».
#AI #Education #Innovation #Eightball #TechPolicy
OpenAI опубликовала свою позицию по использованию патентов
OpenAI пообещала использовать свои патенты исключительно в целях защиты. Это обязательство напоминает более ранние заявления других компаний, например, обещание Tesla, что их патенты будут доступны всем. Однако в обещании OpenAI есть существенные оговорки: их обязательство использовать патенты в целях защиты действует только в том случае, если никто не выдвигает претензий или не предпринимает враждебных действий против компании.
Отсутствие четкого определения относительно того, что означает "защита" или какие действия могут считаться "вредными" для OpenAI, оставляет много места для интерпретаций, что может снизить значимость этого обещания.
Критики полагают, что обещание OpenAI может быть скорее пиар-ходом, чем истинным обязательством. По их мнению, OpenAI, похоже, делает ставку на коммерческую тайну для защиты своих самых ценных инноваций в области ИИ, предлагая при этом видимость прогрессивного подхода к использованию патентов.
#AIGovernance #OpenAI #Innovation
OpenAI пообещала использовать свои патенты исключительно в целях защиты. Это обязательство напоминает более ранние заявления других компаний, например, обещание Tesla, что их патенты будут доступны всем. Однако в обещании OpenAI есть существенные оговорки: их обязательство использовать патенты в целях защиты действует только в том случае, если никто не выдвигает претензий или не предпринимает враждебных действий против компании.
Отсутствие четкого определения относительно того, что означает "защита" или какие действия могут считаться "вредными" для OpenAI, оставляет много места для интерпретаций, что может снизить значимость этого обещания.
Критики полагают, что обещание OpenAI может быть скорее пиар-ходом, чем истинным обязательством. По их мнению, OpenAI, похоже, делает ставку на коммерческую тайну для защиты своих самых ценных инноваций в области ИИ, предлагая при этом видимость прогрессивного подхода к использованию патентов.
#AIGovernance #OpenAI #Innovation
Openai
Our approach to patents
At OpenAI, we are committed to the principles of broad access, collaboration, and safety for beneficial AI.