Беркли радует нас новыми документами по риск-менеджменту
Наступили выходные, а значит, самое время освежить свои знания по ИИ-рискам и риск-менеджменту🤩 . Благо Center for Long-Term Cybersecurity (CLTC) в UC Berkeley опубликовал несколько интересных документов:
1) Рекомендации по определению пороговых значений недопустимых рисков (Intolerable Risk Threshold Recommendations for AI).
Авторы определяют недопустимые риски следующим образом: риски, связанные с причинением значительного вреда общественной безопасности и правам человека, усилением неравенства, экономическими потерями или нежелательным изменением ценностей и общественных норм. Эти риски могут возникнуть в результате преднамеренного недобросовестного использования, сбоев в работе систем, непредвиденных последствий цепочки взаимосвязанных событий, а также каскадных, вторичных или одновременных отказов в работе передовых моделей.
Основные выводы из документа:
- пороговые значения должны быть установлены с достаточным запасом прочности, чтобы учитывать неопределённости, влияющие на достижение целей;
- оценка возможностей технологий двойного назначения должна проводиться с использованием бенчмарков, методов «красной команды» и других передовых практик;
- сравнение с соответствующими базовыми сценариями позволяет определить, является ли увеличение риска «минимальным» или «существенным»;
- анализ вероятности и последствий рисков должен включать определение типов возможного ущерба и моделирование его тяжести;
- количественные методы оценки рисков следует дополнять качественным анализом их последствий;
- сопоставление вероятности возникновения неприемлемых исходов с потенциальной степенью их тяжести помогает выявить уровни риска, требующие управления;
- установление пороговых значений должно происходить через обсуждение с заинтересованными сторонами, а их соблюдение — обеспечиваться проактивным подходом к безопасности;
2) Профиль стандартов управления рисками для ИИ общего назначения и фундаментальных моделей (AI Risk-Management Standards Profile for General-Purpose AI (GPAI) and Foundation Models).
По сути, этот документ адаптирует положения NIST AI Risk Management Framework и ISO/IEC 23894, делая акцент на специфику, с которой сталкиваются разработчики моделей ИИ общего назначения и фундаментальных моделей.
Наступили выходные, а значит, самое время освежить свои знания по ИИ-рискам и риск-менеджменту
1) Рекомендации по определению пороговых значений недопустимых рисков (Intolerable Risk Threshold Recommendations for AI).
Авторы определяют недопустимые риски следующим образом: риски, связанные с причинением значительного вреда общественной безопасности и правам человека, усилением неравенства, экономическими потерями или нежелательным изменением ценностей и общественных норм. Эти риски могут возникнуть в результате преднамеренного недобросовестного использования, сбоев в работе систем, непредвиденных последствий цепочки взаимосвязанных событий, а также каскадных, вторичных или одновременных отказов в работе передовых моделей.
Основные выводы из документа:
- пороговые значения должны быть установлены с достаточным запасом прочности, чтобы учитывать неопределённости, влияющие на достижение целей;
- оценка возможностей технологий двойного назначения должна проводиться с использованием бенчмарков, методов «красной команды» и других передовых практик;
- сравнение с соответствующими базовыми сценариями позволяет определить, является ли увеличение риска «минимальным» или «существенным»;
- анализ вероятности и последствий рисков должен включать определение типов возможного ущерба и моделирование его тяжести;
- количественные методы оценки рисков следует дополнять качественным анализом их последствий;
- сопоставление вероятности возникновения неприемлемых исходов с потенциальной степенью их тяжести помогает выявить уровни риска, требующие управления;
- установление пороговых значений должно происходить через обсуждение с заинтересованными сторонами, а их соблюдение — обеспечиваться проактивным подходом к безопасности;
2) Профиль стандартов управления рисками для ИИ общего назначения и фундаментальных моделей (AI Risk-Management Standards Profile for General-Purpose AI (GPAI) and Foundation Models).
По сути, этот документ адаптирует положения NIST AI Risk Management Framework и ISO/IEC 23894, делая акцент на специфику, с которой сталкиваются разработчики моделей ИИ общего назначения и фундаментальных моделей.
Please open Telegram to view this post
VIEW IN TELEGRAM
CLTC
Intolerable Risk Threshold Recommendations for Artificial Intelligence - CLTC
January has already seen the release of new frontier models that are creating waves with unprecedented innovation in their development and uplift in their capabilities. Simultaneously, we are…
🔥6❤4 2
Интервью Ильи Стребулаева о венчурных инвестициях в ИИ и меняющемся мире под воздействием технологий
Пост для тех, кто устал от правовой тематики🤩 . Вчера решил немного отдохнуть и посмотрел стрим у Елизаветы Осетинской с участием профессора Стэнфорда Ильи Стребулаева. Кстати, у него недавно вышла книга The Venture Mindset. Последнюю я ещё не успел прочитать. Если кто-то уже ознакомился, пишите свои мысли в комментариях.
Кратко изложу несколько интересных идей. Не все из них являются новыми, но не будет лишним ещё раз поразмыслить:
- В ближайшем будущем возникнет огромное количество моделей и систем ИИ в различных отраслях (работы будет много). Однако внутри каждой отдельной отрасли возникнет олигополия, которая будет крайне недолговечной из-за постоянного появления на рынке новых игроков. Более того, по оценке спикера, уже сейчас есть около десятка компаний, которые имеют все шансы в скором времени стать триллионными и заменить привычные нам бренды.
- Распределение прибыли внутри цепочки поставки ИИ-продуктов между держателями моделей и фактическими эксплуатантами будет неоднородным и сильно зависеть от конкретной отрасли.
- Качественная инфраструктура, включая сбалансированное регулирование, важнее огромного количества денег. Хорошие инновации невозможно построить, бездумно заливая сектор лёгкими деньгами.
- ИИ не сократит рабочие места, а изменит структуру занятости. Появятся новые профессии, будет нормой постоянно повышать квалификацию и менять специализацию несколько раз в течение жизни, вне зависимости от возраста. С удивлением узнал, что в Стэнфорде уже есть программа при Distinguished Careers Institute (DCI), позволяющая людям в 60+ лет, уже добившимся всего, вернуться на студенческую скамью для освоения новой профессии. Однако конкуренция будет только расти. Поэтому Илья советует каждому уже сегодня задать себе вопрос: как я могу использовать ИИ, чтобы стать наиболее эффективным?
Пост для тех, кто устал от правовой тематики
Кратко изложу несколько интересных идей. Не все из них являются новыми, но не будет лишним ещё раз поразмыслить:
- В ближайшем будущем возникнет огромное количество моделей и систем ИИ в различных отраслях (работы будет много). Однако внутри каждой отдельной отрасли возникнет олигополия, которая будет крайне недолговечной из-за постоянного появления на рынке новых игроков. Более того, по оценке спикера, уже сейчас есть около десятка компаний, которые имеют все шансы в скором времени стать триллионными и заменить привычные нам бренды.
- Распределение прибыли внутри цепочки поставки ИИ-продуктов между держателями моделей и фактическими эксплуатантами будет неоднородным и сильно зависеть от конкретной отрасли.
- Качественная инфраструктура, включая сбалансированное регулирование, важнее огромного количества денег. Хорошие инновации невозможно построить, бездумно заливая сектор лёгкими деньгами.
- ИИ не сократит рабочие места, а изменит структуру занятости. Появятся новые профессии, будет нормой постоянно повышать квалификацию и менять специализацию несколько раз в течение жизни, вне зависимости от возраста. С удивлением узнал, что в Стэнфорде уже есть программа при Distinguished Careers Institute (DCI), позволяющая людям в 60+ лет, уже добившимся всего, вернуться на студенческую скамью для освоения новой профессии. Однако конкуренция будет только расти. Поэтому Илья советует каждому уже сегодня задать себе вопрос: как я могу использовать ИИ, чтобы стать наиболее эффективным?
Please open Telegram to view this post
VIEW IN TELEGRAM
YouTube
“Гонка в AI и венчур: чего ждать?” - главные вопросы про AI профессору Стэнфорда Илье Стребулаеву
НАСТОЯЩИЙ МАТЕРИАЛ (ИНФОРМАЦИЯ) ПРОИЗВЕДЕН И РАСПРОСТРАНЕН ИНОСТРАННЫМ АГЕНТОМ ЕЛИЗАВЕТОЙ НИКОЛАЕВНОЙ ОСЕТИНСКОЙ ЛИБО КАСАЕТСЯ ДЕЯТЕЛЬНОСТИ ИНОСТРАННОГО АГЕНТА ЕЛИЗАВЕТЫ НИКОЛАЕВНЫ ОСЕТИНСКОЙ 18+
Попробуйте BlancVPN - 30 дней с гарантией возврата. По промокоду…
Попробуйте BlancVPN - 30 дней с гарантией возврата. По промокоду…
❤5🔥4 3
Сегодня стартуют основные мероприятия на AI Action Summit
10-11 февраля в Париже будет проходить одно из центральных мероприятий в сфере ИИ в этом году — AI Action Summit. Площадок очень много, можно выбрать на вкус и цвет.
Что и где смотреть?
Пленарное заседание начнется 10 февраля в 10:00 по CET (очень скоро). Ссылка на трансляцию тут.
Полную программу мероприятия можно найти тут.
Также в рамках саммита проходят параллельные дополнительные площадки (полный список тут). Обратите внимание, что на них нужна отдельная регистрация.
В дни саммита также проходят культурные мероприятия, включая выставки и инсталляции (отдельный перечень тут).
Если кто-то будет смотреть (или находится там), делитесь интересностями в комментариях😌 .
10-11 февраля в Париже будет проходить одно из центральных мероприятий в сфере ИИ в этом году — AI Action Summit. Площадок очень много, можно выбрать на вкус и цвет.
Что и где смотреть?
Пленарное заседание начнется 10 февраля в 10:00 по CET (очень скоро). Ссылка на трансляцию тут.
Полную программу мероприятия можно найти тут.
Также в рамках саммита проходят параллельные дополнительные площадки (полный список тут). Обратите внимание, что на них нужна отдельная регистрация.
В дни саммита также проходят культурные мероприятия, включая выставки и инсталляции (отдельный перечень тут).
Если кто-то будет смотреть (или находится там), делитесь интересностями в комментариях
Please open Telegram to view this post
VIEW IN TELEGRAM
elysee.fr
Artificial Intelligence Action Summit
AI action summit
❤4 2🔥1
Что происходит с Европейским Кодексом практик для ИИ общего назначения?
В декабре Европейский AI Office опубликовал вторую версию проекта Кодекса практик для ИИ общего назначения (General-Purpose AI Code of Practice). О том, что это за документ, я писал здесь и здесь. Также ранее я делал подробный разбор первой версии документа в четырёх частях: 1, 2, 3, 4.
Что появилось нового во второй версии?
Общий текст документа стал более детализированным и значительно увеличился в объёме: с 36 до 66 страниц.
Структура документа также претерпела изменения: теперь он состоит из преамбулы и двух основных частей. Последние включают обязательства (commitments), которые содержат KPI.
Часть II. Обязательства поставщиков моделей ИИ общего назначения
(соответствуют статьям 53 и 54 Регламента ЕС об ИИ)
Требования о прозрачности были доработаны главным образом в части уточнения того, какая именно документация должна быть представлена поставщиками моделей ИИ AI Office, другим компетентным органам, а также последующим поставщикам (downstream providers).
В раздел об авторских правах добавлены исключения для малого бизнеса (SMEs). Также уточнены требования по необходимости соблюдения машиночитаемых отказов при майнинге данных. Во внутренней политике защиты авторских прав (copyright policy) должен содержаться перечень используемых краулеров с описанием их предназначения.
В январе AI Office опубликовал примерный шаблон описания контента, содержащегося в обучающем наборе данных. Это описание должно быть опубликовано в соответствии со статьёй 53 Регламента ЕС об ИИ (об этом сделаю отдельный пост).
Часть III. Обязательства поставщиков моделей ИИ общего назначения, представляющих системные риски
(соответствуют статье 55 Регламента ЕС об ИИ)
В разделе о системных рисках обновлён перечень потенциальных рисков, опасных характеристик и возможностей моделей ИИ.
Добавлен пример содержания Safety and Security Framework, а также уточнены требования к Safety and Security Model Report.
В целом изменилось множество деталей. Если кратко обобщить, то в тексте появилось больше исключений для малого и среднего бизнеса, а подход к описанию рисков, требованиям к технической документации и риск-менеджменту стал более согласованным с международными практиками и признанными фреймворками.
Что дальше?
В ближайшие дни будет опубликован третий вариант текста, который будет значительно приближен к финальной версии документа. Мы его также подробно разберём. В марте продолжатся обсуждения новой редакции, по итогам которых состоится пленарное заседание. Как член рабочих групп я приму в них участие и обязательно сообщу, если появятся важные новости🍊 .
В декабре Европейский AI Office опубликовал вторую версию проекта Кодекса практик для ИИ общего назначения (General-Purpose AI Code of Practice). О том, что это за документ, я писал здесь и здесь. Также ранее я делал подробный разбор первой версии документа в четырёх частях: 1, 2, 3, 4.
Что появилось нового во второй версии?
Общий текст документа стал более детализированным и значительно увеличился в объёме: с 36 до 66 страниц.
Структура документа также претерпела изменения: теперь он состоит из преамбулы и двух основных частей. Последние включают обязательства (commitments), которые содержат KPI.
Часть II. Обязательства поставщиков моделей ИИ общего назначения
(соответствуют статьям 53 и 54 Регламента ЕС об ИИ)
Требования о прозрачности были доработаны главным образом в части уточнения того, какая именно документация должна быть представлена поставщиками моделей ИИ AI Office, другим компетентным органам, а также последующим поставщикам (downstream providers).
В раздел об авторских правах добавлены исключения для малого бизнеса (SMEs). Также уточнены требования по необходимости соблюдения машиночитаемых отказов при майнинге данных. Во внутренней политике защиты авторских прав (copyright policy) должен содержаться перечень используемых краулеров с описанием их предназначения.
В январе AI Office опубликовал примерный шаблон описания контента, содержащегося в обучающем наборе данных. Это описание должно быть опубликовано в соответствии со статьёй 53 Регламента ЕС об ИИ (об этом сделаю отдельный пост).
Часть III. Обязательства поставщиков моделей ИИ общего назначения, представляющих системные риски
(соответствуют статье 55 Регламента ЕС об ИИ)
В разделе о системных рисках обновлён перечень потенциальных рисков, опасных характеристик и возможностей моделей ИИ.
Добавлен пример содержания Safety and Security Framework, а также уточнены требования к Safety and Security Model Report.
В целом изменилось множество деталей. Если кратко обобщить, то в тексте появилось больше исключений для малого и среднего бизнеса, а подход к описанию рисков, требованиям к технической документации и риск-менеджменту стал более согласованным с международными практиками и признанными фреймворками.
Что дальше?
В ближайшие дни будет опубликован третий вариант текста, который будет значительно приближен к финальной версии документа. Мы его также подробно разберём. В марте продолжатся обсуждения новой редакции, по итогам которых состоится пленарное заседание. Как член рабочих групп я приму в них участие и обязательно сообщу, если появятся важные новости
Please open Telegram to view this post
VIEW IN TELEGRAM
Shaping Europe’s digital future
Second Draft of the General-Purpose AI Code of Practice published, written by independent experts
Independent experts present the second draft of the General-Purpose AI Code of Practice, based on the feedback received on the first draft, published on 14 November 2024.
🔥6❤4 3👍2
Опубликован проект шаблона Европейского AI Office для описания контента, использованного для обучения моделей ИИ общего назначения
Как и обещал в предыдущем посте, отдельно рассказываю о шаблоне, который будет использоваться для описания контента, содержащегося в наборах данных, на которых были обучены модели ИИ общего назначения.
Что это вообще значит?
Часть 1 статьи 53 Регламента ЕС об ИИ содержит следующее положение:
1. Поставщики моделей ИИ общего назначения должны:
(d) подготовить и разместить в открытом доступе подробное описание (sufficiently detailed summary) контента, использованного для обучения модели ИИ общего назначения, в соответствии с шаблоном, предоставленным AI Office.
Сейчас мы имеем дело с проектом этого шаблона.
Кратко о его структуре (детали можно посмотреть на скриншотах):
- общая информация о поставщике, модели и наборе данных: указывается наименование и адрес поставщика или его представителя, название модели, общий объём набора данных и модальности.
- детализированная информация о всех используемых типах данных: включает описание общедоступных и частных наборов данных, данных, собранных в интернете, синтетических данных, а также данных, полученных с согласия физических лиц и т.д.
- отдельные аспекты обработки данных: включает информацию о мерах, принятых поставщиком для соблюдения авторских прав и удаления противоправного контента.
Пока это проект шаблона, направленный стейкхолдерам для получения обратной связи. В дальнейшем он, как и весь Кодекс практик для ИИ общего назначения, будет дорабатываться и должен быть утверждён Еврокомиссией. По плану это должно произойти в ближайшие полгода, поскольку Глава V (Модели ИИ общего назначения) Регламента ЕС об ИИ вступает в силу 2 августа 2025 года.
Как и обещал в предыдущем посте, отдельно рассказываю о шаблоне, который будет использоваться для описания контента, содержащегося в наборах данных, на которых были обучены модели ИИ общего назначения.
Что это вообще значит?
Часть 1 статьи 53 Регламента ЕС об ИИ содержит следующее положение:
1. Поставщики моделей ИИ общего назначения должны:
(d) подготовить и разместить в открытом доступе подробное описание (sufficiently detailed summary) контента, использованного для обучения модели ИИ общего назначения, в соответствии с шаблоном, предоставленным AI Office.
Сейчас мы имеем дело с проектом этого шаблона.
Кратко о его структуре (детали можно посмотреть на скриншотах):
- общая информация о поставщике, модели и наборе данных: указывается наименование и адрес поставщика или его представителя, название модели, общий объём набора данных и модальности.
- детализированная информация о всех используемых типах данных: включает описание общедоступных и частных наборов данных, данных, собранных в интернете, синтетических данных, а также данных, полученных с согласия физических лиц и т.д.
- отдельные аспекты обработки данных: включает информацию о мерах, принятых поставщиком для соблюдения авторских прав и удаления противоправного контента.
Пока это проект шаблона, направленный стейкхолдерам для получения обратной связи. В дальнейшем он, как и весь Кодекс практик для ИИ общего назначения, будет дорабатываться и должен быть утверждён Еврокомиссией. По плану это должно произойти в ближайшие полгода, поскольку Глава V (Модели ИИ общего назначения) Регламента ЕС об ИИ вступает в силу 2 августа 2025 года.
❤5🔥2 2
Еврокомиссия прекратила работу над проектом Директивы об ответственности в сфере ИИ
Когда-нибудь появятся новости не про ЕС. Но не сегодня. Еврокомиссия отозвала проект Директивы об ответственности в сфере ИИ (AI Liability Directive, AILD). Подтверждение этому можно найти в Программе работы Комиссии на 2025 год.
Подробно о проекте директивы я писал здесь и здесь.
Что это значит?
Решение вызвало неоднозначную реакцию в сообществе: сторонники невмешательства государства в бизнес ликуют, а вот правозащитники и часть юридического сообщества — нет.
Проблема в том, что недавно был принят другой документ — Директива об ответственности за качество продукции (Product Liability Directive, PLD). Она упрощает для граждан подачу исков за счёт обязательного раскрытия информации со стороны экономического оператора (производителя, поставщика и т. п.) системы ИИ. Однако её сфера действия не безгранична. Например, она не охватывает вопросы дискриминации, прав человека, конфиденциальности и интеллектуальной собственности. В результате в этих областях на уровне ЕС законодательство отсутствует, а значит, в каждой из 27 стран-членов будут применяться свои нормативные положения. Поэтому в каком-то смысле AILD была бы даже выгодна для бизнеса, так как позволила бы выработать общие подходы на уровне всего ЕС.
Некоторые издания связывают это внезапное решение с усилившейся риторикой США в пользу дерегуляции отрасли (про это я как-нибудь напишу отдельно) и смещением фокуса мировой дискуссии после недавнего AI Action Summit. На саммите обсуждение регулирования и рисков было сведено к минимуму, а США и Великобритания и вовсе отказались подписывать и без того практически ни к чему не обязывающую декларацию.
На мой взгляд, истина где-то посередине.
- ЕС изначально сделал ставку на ex-ante подход, а не ex-post. То есть предполагалось, что ключевая роль в защите прав человека будет отведена требованиям к операторам систем и моделей ИИ ещё до их выхода на рынок на основе риск-ориентированного подхода. Поэтому сейчас все усилия направлены на то, чтобы сделать применение Регламента ЕС об ИИ максимально адекватным и не тормозящим инновации.
- В качестве механизма ex-post была принята уже упомянутая PLD, которая распространяет внедоговорную ответственность на всё ПО, включая ИИ.
- Текущая версия AILD остаётся сырой и не обладает непротиворечивой концепцией.
Таким образом, вероятно, было принято решение подождать несколько лет, пока Регламент ЕС об ИИ и PLD начнут действовать и возникнет какое-то понимание последствий. К этому времени, возможно, в странах-членах ЕС уже сложатся лучшие практики, которые затем можно будет гармонизировать. А пока это решение можно подать и в политическом ключе: ЕС тоже занимается дерегуляцией и выделяет на развитие ИИ 200 миллиардов евро🤩 .
Кстати, мой большой разбор Product Liability Directive, PLD можно почитать тут.
Когда-нибудь появятся новости не про ЕС. Но не сегодня. Еврокомиссия отозвала проект Директивы об ответственности в сфере ИИ (AI Liability Directive, AILD). Подтверждение этому можно найти в Программе работы Комиссии на 2025 год.
Подробно о проекте директивы я писал здесь и здесь.
Что это значит?
Решение вызвало неоднозначную реакцию в сообществе: сторонники невмешательства государства в бизнес ликуют, а вот правозащитники и часть юридического сообщества — нет.
Проблема в том, что недавно был принят другой документ — Директива об ответственности за качество продукции (Product Liability Directive, PLD). Она упрощает для граждан подачу исков за счёт обязательного раскрытия информации со стороны экономического оператора (производителя, поставщика и т. п.) системы ИИ. Однако её сфера действия не безгранична. Например, она не охватывает вопросы дискриминации, прав человека, конфиденциальности и интеллектуальной собственности. В результате в этих областях на уровне ЕС законодательство отсутствует, а значит, в каждой из 27 стран-членов будут применяться свои нормативные положения. Поэтому в каком-то смысле AILD была бы даже выгодна для бизнеса, так как позволила бы выработать общие подходы на уровне всего ЕС.
Некоторые издания связывают это внезапное решение с усилившейся риторикой США в пользу дерегуляции отрасли (про это я как-нибудь напишу отдельно) и смещением фокуса мировой дискуссии после недавнего AI Action Summit. На саммите обсуждение регулирования и рисков было сведено к минимуму, а США и Великобритания и вовсе отказались подписывать и без того практически ни к чему не обязывающую декларацию.
На мой взгляд, истина где-то посередине.
- ЕС изначально сделал ставку на ex-ante подход, а не ex-post. То есть предполагалось, что ключевая роль в защите прав человека будет отведена требованиям к операторам систем и моделей ИИ ещё до их выхода на рынок на основе риск-ориентированного подхода. Поэтому сейчас все усилия направлены на то, чтобы сделать применение Регламента ЕС об ИИ максимально адекватным и не тормозящим инновации.
- В качестве механизма ex-post была принята уже упомянутая PLD, которая распространяет внедоговорную ответственность на всё ПО, включая ИИ.
- Текущая версия AILD остаётся сырой и не обладает непротиворечивой концепцией.
Таким образом, вероятно, было принято решение подождать несколько лет, пока Регламент ЕС об ИИ и PLD начнут действовать и возникнет какое-то понимание последствий. К этому времени, возможно, в странах-членах ЕС уже сложатся лучшие практики, которые затем можно будет гармонизировать. А пока это решение можно подать и в политическом ключе: ЕС тоже занимается дерегуляцией и выделяет на развитие ИИ 200 миллиардов евро
Кстати, мой большой разбор Product Liability Directive, PLD можно почитать тут.
Please open Telegram to view this post
VIEW IN TELEGRAM
European Commission
Commission work programme 2025
On 11 February 2025, the European Commission adopted the 2025 Commission work programme and its annexes
🔥5 3❤2👍2
Британский AI Safety Institute переформатируется в UK AI Security Institute
В качестве подарка на 14 февраля британский Department for Science, Innovation and Technology выпустил пресс-релиз о смене названия и приоритетов AI Safety Institute, переименовав его в UK AI Security Institute. Теперь основной акцент сделан на вопросах национальной безопасности и борьбе с преступным использованием ИИ.
Что за институт?
AI Safety Institute был создан осенью 2023 года вскоре после AI Safety Summit. Он сочетал в себе элементы стартапа (гибкость, быстрая адаптация) и исследовательской организации, выступая консультантом правительства.
Его задачи заключались в разработке методик, проведении внешних оценок моделей ИИ, а также в долгосрочных исследованиях в сфере AI Governance. В частности, в прошлом году институт совместно с U.S. AI Safety Institute провел предварительные оценки моделей OpenAI o1 и Anthropic Claude 3.5 Sonnet.
Что меняется?
Теперь институт сосредоточится на вопросах национальной безопасности. Основное внимание будет уделяться угрозам, связанным с использованием ИИ для: создания оружия, проведения кибератак, распространения запрещенного и сексуализированного контента и другой противоправной деятельности. Институт будет тесно сотрудничать с правоохранительными органами и военными структурами.
Однако в пресс-релизе прямо указано, что он больше не будет заниматься вопросами предвзятости, дискриминации и свободы слова🐱 .
Эти изменения также отражают пересмотр роли института в проведении предварительных внешних оценок ИИ-моделей, которые вызывали раздражение у американских компаний. Теперь тестирование будет сосредоточено не на прозрачности и социально-этических аспектах, а на выявлении угроз национальной безопасности. Не исключено, что институт полностью откажется от независимых оценок, заменив их более тесным сотрудничеством с разработчиками и государственными структурами.
Таким образом, новое правительство Великобритании, с одной стороны, отказывается от AI Safety повестки прежнего правительства, а с другой — придерживается линии новой администрации США, смещая фокус с широких вопросов безопасности ИИ на вооружения, киберугрозы и защиту критической инфраструктуры.
В качестве подарка на 14 февраля британский Department for Science, Innovation and Technology выпустил пресс-релиз о смене названия и приоритетов AI Safety Institute, переименовав его в UK AI Security Institute. Теперь основной акцент сделан на вопросах национальной безопасности и борьбе с преступным использованием ИИ.
Что за институт?
AI Safety Institute был создан осенью 2023 года вскоре после AI Safety Summit. Он сочетал в себе элементы стартапа (гибкость, быстрая адаптация) и исследовательской организации, выступая консультантом правительства.
Его задачи заключались в разработке методик, проведении внешних оценок моделей ИИ, а также в долгосрочных исследованиях в сфере AI Governance. В частности, в прошлом году институт совместно с U.S. AI Safety Institute провел предварительные оценки моделей OpenAI o1 и Anthropic Claude 3.5 Sonnet.
Что меняется?
Теперь институт сосредоточится на вопросах национальной безопасности. Основное внимание будет уделяться угрозам, связанным с использованием ИИ для: создания оружия, проведения кибератак, распространения запрещенного и сексуализированного контента и другой противоправной деятельности. Институт будет тесно сотрудничать с правоохранительными органами и военными структурами.
Однако в пресс-релизе прямо указано, что он больше не будет заниматься вопросами предвзятости, дискриминации и свободы слова
Эти изменения также отражают пересмотр роли института в проведении предварительных внешних оценок ИИ-моделей, которые вызывали раздражение у американских компаний. Теперь тестирование будет сосредоточено не на прозрачности и социально-этических аспектах, а на выявлении угроз национальной безопасности. Не исключено, что институт полностью откажется от независимых оценок, заменив их более тесным сотрудничеством с разработчиками и государственными структурами.
Таким образом, новое правительство Великобритании, с одной стороны, отказывается от AI Safety повестки прежнего правительства, а с другой — придерживается линии новой администрации США, смещая фокус с широких вопросов безопасности ИИ на вооружения, киберугрозы и защиту критической инфраструктуры.
Please open Telegram to view this post
VIEW IN TELEGRAM
GOV.UK
Tackling AI security risks to unleash growth and deliver Plan for Change
UK’s AI Safety Institute becomes ‘UK AI Security Institute’.
❤3👎2 2🔥1
Группа исследователей запустила индекс ИИ-агентов на базе MIT
В этом месяце группа исследователей из различных уважаемых институтов изучила информацию о 67 ИИ-агентах и сформировала для каждого из них карточки. Затем авторы создали AI Agent Index, в котором сравнили полученные данные по следующим критериям:
- компоненты системы ИИ (модели ИИ, использование различных методик и инструментов);
- сферы применения;
- используемые методы управления рисками (проведённые внутренние и внешние оценки моделей, использование бенчмарков, установление ограничений для пользователей, обучение персонала).
Что такое ИИ-агенты?
Единого научного определения пока нет.
Для начала стоит вспомнить классическое определение из учебника Стюарта Рассела и Питера Норвига:
Агент — это всё, что воспринимает окружающую среду с помощью сенсоров и воздействует на неё с помощью исполнительных механизмов.
IBM также предлагает достаточно простое определение:
ИИ-агент — это система или компьютерная программа, способная автономно выполнять задачи от имени пользователя или другой системы, самостоятельно разрабатывая рабочий процесс и используя доступные инструменты.
Авторы исследования не стали формулировать конкретное определение, а сфокусировались на выявлении ключевых признаков (взяты из статьи Chan et al. (2023)):
- система может выполнить поставленную перед ней задачу без точного описания того, как это сделать;
- действия системы могут влиять на окружающий мир практически без участия человека;
- система действует так, как будто преследует определённую цель;
- система способна к долгосрочному планированию: она решает проблемы, рассуждая о том, как подойти к их решению, и составляет поэтапный план их реализации.
Подробную пошаговую схему отнесения систем ИИ к агентам можно найти на скриншоте.
Что важно для нас?
Авторы отмечают, что разработчики, с одной стороны, открыты для предоставления общей информации о своих системах, но, с другой стороны, крайне неохотно раскрывают проведённые меры по управлению рисками.
В этом месяце группа исследователей из различных уважаемых институтов изучила информацию о 67 ИИ-агентах и сформировала для каждого из них карточки. Затем авторы создали AI Agent Index, в котором сравнили полученные данные по следующим критериям:
- компоненты системы ИИ (модели ИИ, использование различных методик и инструментов);
- сферы применения;
- используемые методы управления рисками (проведённые внутренние и внешние оценки моделей, использование бенчмарков, установление ограничений для пользователей, обучение персонала).
Что такое ИИ-агенты?
Единого научного определения пока нет.
Для начала стоит вспомнить классическое определение из учебника Стюарта Рассела и Питера Норвига:
Агент — это всё, что воспринимает окружающую среду с помощью сенсоров и воздействует на неё с помощью исполнительных механизмов.
IBM также предлагает достаточно простое определение:
ИИ-агент — это система или компьютерная программа, способная автономно выполнять задачи от имени пользователя или другой системы, самостоятельно разрабатывая рабочий процесс и используя доступные инструменты.
Авторы исследования не стали формулировать конкретное определение, а сфокусировались на выявлении ключевых признаков (взяты из статьи Chan et al. (2023)):
- система может выполнить поставленную перед ней задачу без точного описания того, как это сделать;
- действия системы могут влиять на окружающий мир практически без участия человека;
- система действует так, как будто преследует определённую цель;
- система способна к долгосрочному планированию: она решает проблемы, рассуждая о том, как подойти к их решению, и составляет поэтапный план их реализации.
Подробную пошаговую схему отнесения систем ИИ к агентам можно найти на скриншоте.
Что важно для нас?
Авторы отмечают, что разработчики, с одной стороны, открыты для предоставления общей информации о своих системах, но, с другой стороны, крайне неохотно раскрывают проведённые меры по управлению рисками.
🔥7❤2 2
Скоро стартует второй поток курса по AI Governance от RPPA, на котором я буду преподавать
Друзья, в этом году я продолжаю преподавать на курсе AI Governance, который проводит Regional Privacy Professionals Association.
Зачем и кому он нужен?
Курс поможет за несколько месяцев подробно разобраться в ландшафте нормативного правового регулирования и научиться выстраивать комплаенс ИИ-продуктов.
Это будет полезно не только юристам, но и всем, кто вовлечён в выстраивание процессов вокруг систем ИИ, включая DPO, специалистов по комплаенсу, управлению рисками и информационной безопасностью, а также руководителей направлений, продуктовых и проектных менеджеров.
Чем, на мой взгляд, этот курс удачен?
- Все преподаватели — фанаты своего дела. Каждый из них отвечает за занятия в рамках своей экспертизы: технические основы преподаёт инженер, за оборот данных и IP отвечают профильные специалисты и т. д. Это даёт возможность получить ценные экспертные знания и ознакомиться с разными точками зрения.
- Курс ориентирован на практику. Он помогает освоить ключевые навыки для выстраивания системы управления ИИ в организации. Подробно рассматриваются такие её элементы, как работа с данными, интеллектуальная собственность, управление рисками и качеством, а также кибербезопасность. Кроме того, домашние задания основаны на разборе и обсуждении реальных кейсов, с которыми сталкиваются преподаватели.
Материал сбалансирован, поэтому изученные лучшие практики можно применять как в иностранных юрисдикциях, так и в России. Полученные знания также помогут в подготовке к международным сертификациям, например AIGP от IAPP.
Мой вклад в курс
В рамках курса я проведу занятия по регулированию в сфере разработки и применения систем и моделей ИИ в ЕС, США и КНР, а также приму участие в семинарах и других активностях🐱 .
Когда стартует обучение?
Занятия во втором потоке начинаются уже через несколько недель. Более подробно с программой можно ознакомиться по ссылке.
Друзья, в этом году я продолжаю преподавать на курсе AI Governance, который проводит Regional Privacy Professionals Association.
Зачем и кому он нужен?
Курс поможет за несколько месяцев подробно разобраться в ландшафте нормативного правового регулирования и научиться выстраивать комплаенс ИИ-продуктов.
Это будет полезно не только юристам, но и всем, кто вовлечён в выстраивание процессов вокруг систем ИИ, включая DPO, специалистов по комплаенсу, управлению рисками и информационной безопасностью, а также руководителей направлений, продуктовых и проектных менеджеров.
Чем, на мой взгляд, этот курс удачен?
- Все преподаватели — фанаты своего дела. Каждый из них отвечает за занятия в рамках своей экспертизы: технические основы преподаёт инженер, за оборот данных и IP отвечают профильные специалисты и т. д. Это даёт возможность получить ценные экспертные знания и ознакомиться с разными точками зрения.
- Курс ориентирован на практику. Он помогает освоить ключевые навыки для выстраивания системы управления ИИ в организации. Подробно рассматриваются такие её элементы, как работа с данными, интеллектуальная собственность, управление рисками и качеством, а также кибербезопасность. Кроме того, домашние задания основаны на разборе и обсуждении реальных кейсов, с которыми сталкиваются преподаватели.
Материал сбалансирован, поэтому изученные лучшие практики можно применять как в иностранных юрисдикциях, так и в России. Полученные знания также помогут в подготовке к международным сертификациям, например AIGP от IAPP.
Мой вклад в курс
В рамках курса я проведу занятия по регулированию в сфере разработки и применения систем и моделей ИИ в ЕС, США и КНР, а также приму участие в семинарах и других активностях
Когда стартует обучение?
Занятия во втором потоке начинаются уже через несколько недель. Более подробно с программой можно ознакомиться по ссылке.
Please open Telegram to view this post
VIEW IN TELEGRAM
Telegram
Privacy GDPR Russia
#RPPAedu #AI
РЕГИСТРАЦИЯ
🩵AI Governance. Регулирование и комплаенс ИИ-систем - единственный на рынке курс по ИИ-комплаенсу от приватности до интеллектуалки. Второй поток!
📕Преподаватели:
🔵Александр Партин, опыт 18 лет
🔵Анастасия Сковпень, опыт 10 лет…
РЕГИСТРАЦИЯ
🩵AI Governance. Регулирование и комплаенс ИИ-систем - единственный на рынке курс по ИИ-комплаенсу от приватности до интеллектуалки. Второй поток!
📕Преподаватели:
🔵Александр Партин, опыт 18 лет
🔵Анастасия Сковпень, опыт 10 лет…
1🔥7❤4 3👍1
В России решили пожить ещё пару лет без регулирования в сфере ИИ
Именно такие новости вчера появились по итогам презентации нацпроекта «Экономика данных».
Это хорошо или плохо?
Очень часто правовое регулирование напрасно ассоциируют с палками в колёса бизнеса. Однако такой палкой может быть только некачественное (или даже намеренно вредное) либо чрезмерное регулирование. В то же время отсутствие чётких и понятных правил, напротив, заставляет бизнес тратить больше денег на комплаенс и оценку рисков или вовсе выбирать иные юрисдикции.
Понятны ли сейчас правила в России?
К сожалению, нет. До сих пор полностью не решён вопрос с доступом к данным для бизнеса. Большинство принятых решений привели лишь к созданию государственной монополии на данные, при которой государственные органы могут сами решать, кому предоставлять доступ, а кому — нет. Отсутствует однозначное понимание того, каким образом могут охраняться модели ИИ, а также входные и выходные результаты их работы. Продолжаются бесконечные споры об особенностях применения норм гражданского права к случаям причинения вреда в результате функционирования систем ИИ.
Кроме того, никак, помимо общего законодательства, не регулируется применение систем ИИ в наиболее чувствительных областях — таких как образование, труд, финансовые услуги и т. д. Как мы недавно увидели на примере DeepSeek, граждане никак не защищены и от некачественной работы иностранных продуктов.
Однако наиболее важной проблемой, о которой я неоднократно писал ранее, является отсутствие каких-либо требований к разработке и применению систем ИИ со стороны государственных органов. По сути, сейчас все эти вопросы остаются полностью произвольными (подробнее писал об этом тут).
Нужно ли уже что-то делать бизнесу?
В отсутствие государственного регулирования и сформулированных органами власти лучших практик единственными мотиваторами могут быть конкурентные преимущества и деловая репутация. Иными словами, с одной стороны, важно избежать наступления негативных последствий (утечек данных, низкого качества работы моделей, юридических проблем), а с другой — сделать так, чтобы использование ваших систем ИИ было прозрачным и не отпугивало контрагентов из-за чрезмерных рисков.
Поэтому вне зависимости от регулирования крайне важно внутри организации постепенно выстраивать комплексную систему управления ИИ.
Что уже можно начать делать?
В мире сейчас набирает популярность стандарт ИСО/МЭК 42001, направленный на создание и поддержание системы ИИ-менеджмента внутри организации. К его плюсам можно отнести интеграцию с другими стандартами ИСО/МЭК (как связанными с ИИ, так и из смежных отраслей), а также его совместимость с региональным мягким и жёстким регулированием. Например, внедрение ИСО/МЭК 42001 может стать первым шагом в подготовке к соблюдению Регламента ЕС об ИИ, а в сочетании с NIST AI RMF и специализированными стандартами и законодательством — основой для выхода на американский рынок.
Например, этот стандарт уже используют Microsoft и их поставщики, а также Anthropic и некоторые европейские компании.
Отдельно хочу отметить, что стандарт ИСО/МЭК 42001, равно как и ряд других примыкающих к нему стандартов в сфере ИИ, с незначительными изменениями был утверждён Росстандартом и начал применяться с 1 января 2025 года.
Таким образом, можно не ждать решения своих проблем от государства, а начать самостоятельно выстраивать процессы так, чтобы обеспечить безопасность своих продуктов и иметь в дальнейшем более понятные перспективы для выхода на международные рынки.
Если у вас или вашего бизнеса есть вопросы, связанные с ИИ, буду рад помочь — обращайтесь за консультацией👀
Именно такие новости вчера появились по итогам презентации нацпроекта «Экономика данных».
Это хорошо или плохо?
Очень часто правовое регулирование напрасно ассоциируют с палками в колёса бизнеса. Однако такой палкой может быть только некачественное (или даже намеренно вредное) либо чрезмерное регулирование. В то же время отсутствие чётких и понятных правил, напротив, заставляет бизнес тратить больше денег на комплаенс и оценку рисков или вовсе выбирать иные юрисдикции.
Понятны ли сейчас правила в России?
К сожалению, нет. До сих пор полностью не решён вопрос с доступом к данным для бизнеса. Большинство принятых решений привели лишь к созданию государственной монополии на данные, при которой государственные органы могут сами решать, кому предоставлять доступ, а кому — нет. Отсутствует однозначное понимание того, каким образом могут охраняться модели ИИ, а также входные и выходные результаты их работы. Продолжаются бесконечные споры об особенностях применения норм гражданского права к случаям причинения вреда в результате функционирования систем ИИ.
Кроме того, никак, помимо общего законодательства, не регулируется применение систем ИИ в наиболее чувствительных областях — таких как образование, труд, финансовые услуги и т. д. Как мы недавно увидели на примере DeepSeek, граждане никак не защищены и от некачественной работы иностранных продуктов.
Однако наиболее важной проблемой, о которой я неоднократно писал ранее, является отсутствие каких-либо требований к разработке и применению систем ИИ со стороны государственных органов. По сути, сейчас все эти вопросы остаются полностью произвольными (подробнее писал об этом тут).
Нужно ли уже что-то делать бизнесу?
В отсутствие государственного регулирования и сформулированных органами власти лучших практик единственными мотиваторами могут быть конкурентные преимущества и деловая репутация. Иными словами, с одной стороны, важно избежать наступления негативных последствий (утечек данных, низкого качества работы моделей, юридических проблем), а с другой — сделать так, чтобы использование ваших систем ИИ было прозрачным и не отпугивало контрагентов из-за чрезмерных рисков.
Поэтому вне зависимости от регулирования крайне важно внутри организации постепенно выстраивать комплексную систему управления ИИ.
Что уже можно начать делать?
В мире сейчас набирает популярность стандарт ИСО/МЭК 42001, направленный на создание и поддержание системы ИИ-менеджмента внутри организации. К его плюсам можно отнести интеграцию с другими стандартами ИСО/МЭК (как связанными с ИИ, так и из смежных отраслей), а также его совместимость с региональным мягким и жёстким регулированием. Например, внедрение ИСО/МЭК 42001 может стать первым шагом в подготовке к соблюдению Регламента ЕС об ИИ, а в сочетании с NIST AI RMF и специализированными стандартами и законодательством — основой для выхода на американский рынок.
Например, этот стандарт уже используют Microsoft и их поставщики, а также Anthropic и некоторые европейские компании.
Отдельно хочу отметить, что стандарт ИСО/МЭК 42001, равно как и ряд других примыкающих к нему стандартов в сфере ИИ, с незначительными изменениями был утверждён Росстандартом и начал применяться с 1 января 2025 года.
Таким образом, можно не ждать решения своих проблем от государства, а начать самостоятельно выстраивать процессы так, чтобы обеспечить безопасность своих продуктов и иметь в дальнейшем более понятные перспективы для выхода на международные рынки.
Если у вас или вашего бизнеса есть вопросы, связанные с ИИ, буду рад помочь — обращайтесь за консультацией
Please open Telegram to view this post
VIEW IN TELEGRAM
2🔥9 6❤2 1
Смотрим базу про LLM от Андрея Карпатого
Друзья, если кто-то ещё не видел, советую провести выходные с пользой. Исследователь Андрей Карпатый (ex-Tesla и OpenAI) продолжает делиться серией лекций, в которых простым языком рассказывает о внутреннем устройстве и сценариях работы с современными моделями ИИ.
Вчера у него вышла лекция, в которой он описывает, какие функции есть у наиболее популярных ИИ-продуктов и как ими эффективно пользоваться.
Если есть время, советую начать просмотр с предыдущей лекции, где Андрей на пальцах объясняет, как создаются и из чего состоят большие языковые модели.
Друзья, если кто-то ещё не видел, советую провести выходные с пользой. Исследователь Андрей Карпатый (ex-Tesla и OpenAI) продолжает делиться серией лекций, в которых простым языком рассказывает о внутреннем устройстве и сценариях работы с современными моделями ИИ.
Вчера у него вышла лекция, в которой он описывает, какие функции есть у наиболее популярных ИИ-продуктов и как ими эффективно пользоваться.
Если есть время, советую начать просмотр с предыдущей лекции, где Андрей на пальцах объясняет, как создаются и из чего состоят большие языковые модели.
YouTube
How I use LLMs
The example-driven, practical walkthrough of Large Language Models and their growing list of related features, as a new entry to my general audience series on LLMs. In this more practical followup, I take you through the many ways I use LLMs in my own life.…
❤6🔥5 3
В четверг участвую в подкасте, приходите обсудить будущее ИИ-регулирования и задать вопросы
Друзья, в этот четверг я приму участие в прямом эфире на канале моих друзей Privacy GDPR Russia.
Что обсудим?
Я поделюсь своим опытом работы в AI Governance, а также поразмышляем о том, каким будет будущее ИИ-регулирования в наши турбулентные времена и как оно повлияет на юристов и бизнес.
Буду рад дискуссии и вопросам, приходите!
Когда эфир?
6 марта в 18:00 по МСК.
Друзья, в этот четверг я приму участие в прямом эфире на канале моих друзей Privacy GDPR Russia.
Что обсудим?
Я поделюсь своим опытом работы в AI Governance, а также поразмышляем о том, каким будет будущее ИИ-регулирования в наши турбулентные времена и как оно повлияет на юристов и бизнес.
Буду рад дискуссии и вопросам, приходите!
Когда эфир?
6 марта в 18:00 по МСК.
Telegram
Privacy GDPR Russia
#RadioGroot #RPPA #AI
А мы финалим серию подкастов с преподавателями курса AI Governance.
📱В ролях:
🔸Дмитрий Кутейников - юрист и исследователь в сфере AI Governance, кандидат юридических наук, автор телеграм-канала howtocomply_AI: право и ИИ.
⚡️Обсудим:…
А мы финалим серию подкастов с преподавателями курса AI Governance.
📱В ролях:
🔸Дмитрий Кутейников - юрист и исследователь в сфере AI Governance, кандидат юридических наук, автор телеграм-канала howtocomply_AI: право и ИИ.
⚡️Обсудим:…
🔥9❤3 2
Что люди думают про ИИ: изучаем данные опросов из разных стран
Исследование с примерно таким названием недавно было опубликовано на сайте Centre for the Governance of AI. Важно отметить, что авторы не проводили отдельного изучения общественного мнения, а агрегировали данные из уже существующих исследований.
Что интересного?
- Осведомлённость об ИИ растёт, особенно после массового распространения генеративных систем ИИ, но знания о технологии остаются поверхностными. Многие респонденты затрудняются объяснить, как именно работает ИИ, и не всегда правильно определяют, используется ли он в конкретных продуктах и услугах.
- В США и Великобритании чаще преобладает обеспокоенность по поводу последствий развития ИИ. Например, в США за последний год число тех, кто беспокоится о развитии ИИ, заметно выросло. При этом повышение осведомлённости не делает людей автоматически технооптимистами. Наоборот, по мере знакомства с технологиями отношение становится всё более поляризованным.
- Большинство американцев и британцев считают, что ИИ увеличит безработицу в целом, хотя меньшая часть респондентов беспокоится за своё собственное рабочее место.
- В США и Великобритании значительное большинство людей (65–71%) выступает за регулирование в сфере ИИ. Однако уровень доверия к потенциальным регуляторам низкий: всего около четверти респондентов доверяют правительству, а доверие к технологическим компаниям ещё ниже. Большинство людей не верит в способность индустрии к эффективному саморегулированию.
- Отношение к ИИ сильно варьируется в зависимости от страны. Например, в Китае и Индии примерно две трети респондентов позитивно воспринимают влияние ИИ, тогда как в США и Великобритании доля оптимистов заметно ниже.
- Уровень поддержки развития ИИ зависит от сферы его применения. Например, в США поддержка использования ИИ в медицинской диагностике значительно выше, чем в финансовых услугах. Серьёзную обеспокоенность вызывает применение ИИ в военных целях. Использование автономного вооружения воспринимается негативно большинством опрошенных.
Исследование с примерно таким названием недавно было опубликовано на сайте Centre for the Governance of AI. Важно отметить, что авторы не проводили отдельного изучения общественного мнения, а агрегировали данные из уже существующих исследований.
Что интересного?
- Осведомлённость об ИИ растёт, особенно после массового распространения генеративных систем ИИ, но знания о технологии остаются поверхностными. Многие респонденты затрудняются объяснить, как именно работает ИИ, и не всегда правильно определяют, используется ли он в конкретных продуктах и услугах.
- В США и Великобритании чаще преобладает обеспокоенность по поводу последствий развития ИИ. Например, в США за последний год число тех, кто беспокоится о развитии ИИ, заметно выросло. При этом повышение осведомлённости не делает людей автоматически технооптимистами. Наоборот, по мере знакомства с технологиями отношение становится всё более поляризованным.
- Большинство американцев и британцев считают, что ИИ увеличит безработицу в целом, хотя меньшая часть респондентов беспокоится за своё собственное рабочее место.
- В США и Великобритании значительное большинство людей (65–71%) выступает за регулирование в сфере ИИ. Однако уровень доверия к потенциальным регуляторам низкий: всего около четверти респондентов доверяют правительству, а доверие к технологическим компаниям ещё ниже. Большинство людей не верит в способность индустрии к эффективному саморегулированию.
- Отношение к ИИ сильно варьируется в зависимости от страны. Например, в Китае и Индии примерно две трети респондентов позитивно воспринимают влияние ИИ, тогда как в США и Великобритании доля оптимистов заметно ниже.
- Уровень поддержки развития ИИ зависит от сферы его применения. Например, в США поддержка использования ИИ в медицинской диагностике значительно выше, чем в финансовых услугах. Серьёзную обеспокоенность вызывает применение ИИ в военных целях. Использование автономного вооружения воспринимается негативно большинством опрошенных.
www.governance.ai
What Does the Public Think About AI? | GovAI
Drawing from academic studies and public polling data, this report synthesises public attitudes towards AI with a focus on the United Kingdom and United States. It discusses public views on issues such as concern about job loss...
❤4🔥2 2
Сходил на подкаст про AI Governance. Делюсь с вами записью
Друзья, на днях я писал, что приму участие в прямом эфире про AI Governance на канале Privacy GDPR Russia.
Полную запись разговора можно найти по ссылке.
Если хотите продолжить дискуссию или задать вопросы, пишите в комментарии или в обратную связь🤩
Друзья, на днях я писал, что приму участие в прямом эфире про AI Governance на канале Privacy GDPR Russia.
Полную запись разговора можно найти по ссылке.
Если хотите продолжить дискуссию или задать вопросы, пишите в комментарии или в обратную связь
Please open Telegram to view this post
VIEW IN TELEGRAM
Telegram
Privacy GDPR Russia
#RadioGroot #AI
AI x Governance с Дмитрием Кутейниковым
💬Обсудили:
🟡Опыт - в части AI Governance и карьерный путь
🟡Куда движется регулировании ИИ
🟡Кейс в практике
🟡Советы по погружению в тему AI Gov
🟡Прогнозы для академической сферы на фоне развития…
AI x Governance с Дмитрием Кутейниковым
💬Обсудили:
🟡Опыт - в части AI Governance и карьерный путь
🟡Куда движется регулировании ИИ
🟡Кейс в практике
🟡Советы по погружению в тему AI Gov
🟡Прогнозы для академической сферы на фоне развития…
1🔥9❤4 3
Ищем себя на компасе отношения к ИИ
Друзья, в пятницу отвелкаю вас от серьезьезных тем🤩 . Наверняка многие в разные этапы жизни проходили знаменитый компас политических предпочтений, который снова стал популярным из-за текущего хайпа вокруг противостояния между правыми и левыми (никогда такого не было и вот опять).
Благодаря автору поста теперь у нас есть возможность проверить свое отношение к развитию искусственного интеллекта (с определенной долей иронии, конечно).
Нашли себя? Делитесь в комментариях!
Я заметил, что балансирую где-то между правым верхним и нижним левым квадратами.
Пояснения от автора:
Оргинал можно найти тут.
Друзья, в пятницу отвелкаю вас от серьезьезных тем
Благодаря автору поста теперь у нас есть возможность проверить свое отношение к развитию искусственного интеллекта (с определенной долей иронии, конечно).
Нашли себя? Делитесь в комментариях!
Я заметил, что балансирую где-то между правым верхним и нижним левым квадратами.
Пояснения от автора:
Ось тряски-восторга: является ли ИИ потенциальным злом или добром.
Тряска (ИИ — опасная вещь, которая изменит жизнь людей к худшему) vs Восторг (ИИ — полезная вещь, которая изменит жизнь людей к лучшему).
Ось скептики-верующие: насколько ИИ с его текущей траекторией развития вообще способен поменять мир вокруг.
Скептики (ИИ сейчас никакой не интеллект, его развитие зашло в тупик) vs Верующие (ИИ изменит всё, технология развивается семимильными шагами).ется семимильными шагами).
Оргинал можно найти тут.
Please open Telegram to view this post
VIEW IN TELEGRAM
1🔥3❤2 2
Что может быть лучше цветов и шампанского на 8 марта? Непредвзятые алгоритмы и равноправие
Друзья, поздравляю всех с праздником! Желаю вам вдохновения как у Фей-Фей Ли, а решимости – как у Сары Коннор (но без необходимости противостоять катастрофическим рискам)🤩
Модели ИИ, безусловно, являются слепками общества со всеми его положительными и отрицательными чертами. При этом этот слепок не статичен: ИИ-системы не только отражают реальность, но и активно формируют ее, многократно усиливая эффекты за счет их целенаправленного использования — от автоматизации пропаганды до распространения дезинформации и разжигания агрессии. Более того, этот поток информации заполняет интернет, попадает в наборы данных и становится основой для последующих поколений ИИ-моделей. В результате негативные эффекты не просто сохраняются, а отдаются нарастающим эхом, создавая долгосрочные системные риски для общества.
Именно поэтому безопасность ИИ становится критически важной задачей, и ее неотъемлемым элементом является правовое регулирование. В последнее время мы много говорим о поиске баланса между развитием бизнеса и чрезмерными ограничениями, но эта дискуссия не должна приводить к обесцениванию необходимости правового регулирования как такового.
В качестве подарка делюсь небольшой подборкой исследований по вопросам равноправия и предвзятости в системах ИИ:
- Исследование, подготовленное по заказу Совета Европы, посвящено рискам ИИ, связанным с дискриминацией. Несмотря на то, что документ по современным меркам уже не новый (2023 год), он позволяет освежить знания о предвзятости ИИ и ознакомиться с объемным списком источников.
- Исследование под эгидой ЮНЕСКО, в котором анализируются специфические предвзятости больших языковых моделей в отношении женщин и девочек. Документ небольшой, но содержит много интересной информации. Например, о различиях в культурных и гендерных стереотипах, проявляющихся в результатах работы открытых ИИ-моделей в странах Глобального Юга и Севера.
- Свежий сборник статей The Cambridge Handbook of the Law, Ethics and Policy of Artificial Intelligence предлагает множество интересных публикаций на актуальные темы, включая вопросы этики и обеспечения равноправия.
Друзья, поздравляю всех с праздником! Желаю вам вдохновения как у Фей-Фей Ли, а решимости – как у Сары Коннор (но без необходимости противостоять катастрофическим рискам)
Модели ИИ, безусловно, являются слепками общества со всеми его положительными и отрицательными чертами. При этом этот слепок не статичен: ИИ-системы не только отражают реальность, но и активно формируют ее, многократно усиливая эффекты за счет их целенаправленного использования — от автоматизации пропаганды до распространения дезинформации и разжигания агрессии. Более того, этот поток информации заполняет интернет, попадает в наборы данных и становится основой для последующих поколений ИИ-моделей. В результате негативные эффекты не просто сохраняются, а отдаются нарастающим эхом, создавая долгосрочные системные риски для общества.
Именно поэтому безопасность ИИ становится критически важной задачей, и ее неотъемлемым элементом является правовое регулирование. В последнее время мы много говорим о поиске баланса между развитием бизнеса и чрезмерными ограничениями, но эта дискуссия не должна приводить к обесцениванию необходимости правового регулирования как такового.
В качестве подарка делюсь небольшой подборкой исследований по вопросам равноправия и предвзятости в системах ИИ:
- Исследование, подготовленное по заказу Совета Европы, посвящено рискам ИИ, связанным с дискриминацией. Несмотря на то, что документ по современным меркам уже не новый (2023 год), он позволяет освежить знания о предвзятости ИИ и ознакомиться с объемным списком источников.
- Исследование под эгидой ЮНЕСКО, в котором анализируются специфические предвзятости больших языковых моделей в отношении женщин и девочек. Документ небольшой, но содержит много интересной информации. Например, о различиях в культурных и гендерных стереотипах, проявляющихся в результатах работы открытых ИИ-моделей в странах Глобального Юга и Севера.
- Свежий сборник статей The Cambridge Handbook of the Law, Ethics and Policy of Artificial Intelligence предлагает множество интересных публикаций на актуальные темы, включая вопросы этики и обеспечения равноправия.
Please open Telegram to view this post
VIEW IN TELEGRAM
1❤9🔥5 3
Опубликован третий вариант текста Европейского Кодекса практик для ИИ общего назначения
Друзья, чудо свершилось: с опозданием в пару недель опубликован третий вариант Кодекса практик для ИИ общего назначения (General-Purpose AI Code of Practice).
Текст изменился структурно и, на первый взгляд, стал проще. Также появились конкретные формы документов. Но не будем делать скороспелых выводов — с подробным разбором, как обычно, вернусь позже.
Кроме того, теперь запущен отдельный сайт, где кодекс можно изучить в более интерактивной форме с комментариями.
Мои обзоры предыдущих версий документа можно найти тут и тут. Также там можно почитать, что это вообще за документ и для чего он нужен.
Друзья, чудо свершилось: с опозданием в пару недель опубликован третий вариант Кодекса практик для ИИ общего назначения (General-Purpose AI Code of Practice).
Текст изменился структурно и, на первый взгляд, стал проще. Также появились конкретные формы документов. Но не будем делать скороспелых выводов — с подробным разбором, как обычно, вернусь позже.
Кроме того, теперь запущен отдельный сайт, где кодекс можно изучить в более интерактивной форме с комментариями.
Мои обзоры предыдущих версий документа можно найти тут и тут. Также там можно почитать, что это вообще за документ и для чего он нужен.
Shaping Europe’s digital future
Third Draft of the General-Purpose AI Code of Practice published, written by independent experts
The Chairs and the Vice-Chairs of the General-Purpose AI Code of Practice present the third draft of the Code.
❤5 2 2