Разбираем Европейский Кодекс практик для ИИ общего назначения ч. 3
Тем временем у нас на очереди финальная часть разбора кодекса. Сегодня мы поговорим про его самую объёмную часть — safety and security. Следует отметить, что данная глава относится только к поставщикам моделей ИИ общего назначения, представляющих системные риски. Если совсем кратко, то в эту группу пока входят наиболее большие модели, обладающие продвинутыми способностями, такие как ChatGPT, Claude, Gemini и т.д. Однако по мере развития и удешевления технологий этот список может расширяться за счёт стартапов и небольших компаний. Про тонкости классификации мы с вами как-нибудь поговорим отдельно в ближайшее время.
Всего документ содержит 10 общих принципов и 10 обязательств, состоящих из отдельных мер, глоссария терминов и 4 приложений.
Пройдёмся тезисно по основным моментам. В частности, поставщики обязуются:
- разработать, внедрить и регулярно обновлять Safety and Security Framework (SSF). Документ должен содержать высокоуровневое описание внедрённых и планируемых процессов и мер по оценке и снижению системных рисков, которые предусмотрены кодексом. Помимо этого, для каждого системного риска отдельно прописываются триггерные точки и соответствующие им разные уровни риска. Вообще, это местами очень напоминает Anthropic's Responsible Scaling Policy.
Поставщики обязаны утвердить SSF не позднее чем через четыре недели после уведомления Еврокомиссии по статье 52(1) Регламента по ИИ и не позднее чем за две недели до размещения модели на рынке. Также поставщики должны оценивать и снижать системные риски как до вывода модели на рынок, так и в течение всех этапов жизненного цикла (подробнее на скриншоте). При этом сам SSF нужно регулярно пересматривать, а изменения логировать.
- идентифицировать системные риски, присущие их моделям. Для этого в Приложении 1 содержится классификация системных рисков.
- анализировать системные риски. Для каждого риска предусмотрено пять шагов:
а) сбор общей, не привязанной к конкретной модели информации;
б) проведение внутренних и внешних оценок моделей (требования к оценкам содержатся в Приложении 3);
в) моделирование системных рисков;
г) оценка системных рисков;
д) проведение пострыночного мониторинга.
- определить чёткие критерии принятия системных рисков Если риски нельзя принять, то и модель нельзя размещать на рынке.
- предпринимать меры по обеспечению качества и безопасности моделей. Среди них можно выделить:
а) фильтрацию и очистку данных;
б) мониторинг входных данных и выходных результатов;
в) ограничение доступа к моделям (сначала API — потом для всех);
г) использование перспективных методов и обеспечение кибербезопасности.
- до вывода модели ИИ на рынок обязуются предоставлять AI Office отчёт о модели (Security Model Report), в котором описываются используемые методы и процессы для снижения системных рисков. Не буду подробно останавливаться, так как это в целом очень близко к уже применяемым в индустрии системным и модельным карточкам.
- определить ответственных за управление системными рисками, возникающими в результате использования своих моделей, на всех уровнях организации, выделять необходимые ресурсы субъектам, отвечающим за управление рисками, а также способствовать формированию понимания рисков.
- уведомлять AI Office и иные компетентные органы о серьёзных инцидентах. Помимо этого, им также следует изучать иную общедоступную информацию об инцидентах, которые произошли в отрасли, и запрашивать информацию у нижестоящих поставщиков.
- хранить документацию не менее 10 лет, а также предоставлять дополнительную информацию по запросу AI Office. Между тем, делать публичными части SSF и SMR прямой обязанности нет. Используется хитрая формулировка: агрегированные версии документов могут быть опубликованы в той мере, в какой это необходимо для оценки и/или снижения системных рисков.
Помимо того, что мы с вами разобрали, в тексте есть также масса интересных деталей. Мы к ним будем неоднократно возвращаться в дальнейших материалах🐱 .
Тем временем у нас на очереди финальная часть разбора кодекса. Сегодня мы поговорим про его самую объёмную часть — safety and security. Следует отметить, что данная глава относится только к поставщикам моделей ИИ общего назначения, представляющих системные риски. Если совсем кратко, то в эту группу пока входят наиболее большие модели, обладающие продвинутыми способностями, такие как ChatGPT, Claude, Gemini и т.д. Однако по мере развития и удешевления технологий этот список может расширяться за счёт стартапов и небольших компаний. Про тонкости классификации мы с вами как-нибудь поговорим отдельно в ближайшее время.
Всего документ содержит 10 общих принципов и 10 обязательств, состоящих из отдельных мер, глоссария терминов и 4 приложений.
Пройдёмся тезисно по основным моментам. В частности, поставщики обязуются:
- разработать, внедрить и регулярно обновлять Safety and Security Framework (SSF). Документ должен содержать высокоуровневое описание внедрённых и планируемых процессов и мер по оценке и снижению системных рисков, которые предусмотрены кодексом. Помимо этого, для каждого системного риска отдельно прописываются триггерные точки и соответствующие им разные уровни риска. Вообще, это местами очень напоминает Anthropic's Responsible Scaling Policy.
Поставщики обязаны утвердить SSF не позднее чем через четыре недели после уведомления Еврокомиссии по статье 52(1) Регламента по ИИ и не позднее чем за две недели до размещения модели на рынке. Также поставщики должны оценивать и снижать системные риски как до вывода модели на рынок, так и в течение всех этапов жизненного цикла (подробнее на скриншоте). При этом сам SSF нужно регулярно пересматривать, а изменения логировать.
- идентифицировать системные риски, присущие их моделям. Для этого в Приложении 1 содержится классификация системных рисков.
- анализировать системные риски. Для каждого риска предусмотрено пять шагов:
а) сбор общей, не привязанной к конкретной модели информации;
б) проведение внутренних и внешних оценок моделей (требования к оценкам содержатся в Приложении 3);
в) моделирование системных рисков;
г) оценка системных рисков;
д) проведение пострыночного мониторинга.
- определить чёткие критерии принятия системных рисков Если риски нельзя принять, то и модель нельзя размещать на рынке.
- предпринимать меры по обеспечению качества и безопасности моделей. Среди них можно выделить:
а) фильтрацию и очистку данных;
б) мониторинг входных данных и выходных результатов;
в) ограничение доступа к моделям (сначала API — потом для всех);
г) использование перспективных методов и обеспечение кибербезопасности.
- до вывода модели ИИ на рынок обязуются предоставлять AI Office отчёт о модели (Security Model Report), в котором описываются используемые методы и процессы для снижения системных рисков. Не буду подробно останавливаться, так как это в целом очень близко к уже применяемым в индустрии системным и модельным карточкам.
- определить ответственных за управление системными рисками, возникающими в результате использования своих моделей, на всех уровнях организации, выделять необходимые ресурсы субъектам, отвечающим за управление рисками, а также способствовать формированию понимания рисков.
- уведомлять AI Office и иные компетентные органы о серьёзных инцидентах. Помимо этого, им также следует изучать иную общедоступную информацию об инцидентах, которые произошли в отрасли, и запрашивать информацию у нижестоящих поставщиков.
- хранить документацию не менее 10 лет, а также предоставлять дополнительную информацию по запросу AI Office. Между тем, делать публичными части SSF и SMR прямой обязанности нет. Используется хитрая формулировка: агрегированные версии документов могут быть опубликованы в той мере, в какой это необходимо для оценки и/или снижения системных рисков.
Помимо того, что мы с вами разобрали, в тексте есть также масса интересных деталей. Мы к ним будем неоднократно возвращаться в дальнейших материалах
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
Через неделю провожу мастер-класс по моделям ИИ общего назначения. Приходите, всех жду
Друзья, почти ровно через неделю состоится мой мастер-класс «Глава V Регламента по ИИ: ЕС наносит ответный удар»🤩 , на котором мы обсудим, что уже нужно знать тем, кто разрабатывает модели ИИ и интегрирует их в свои продукты.
Зачем оно нужно?
С 2 августа 2025 года вступает в силу Глава V Регламента ЕС по ИИ, устанавливающая обязательные требования для поставщиков моделей ИИ общего назначения — именно тех моделей, которые лежат в основе популярных продуктов вроде ChatGPT, Claude, Gemini, DeepSeek, Llama и других. Разобраться в требованиях необходимо не только в том случае, если вы сами разрабатываете модели ИИ, но и используете их в своем бизнесе.
Однако, как это часто бывает в юриспруденции, для того чтобы оптимально подготовиться к соблюдению законодательных требований, недостаточно ознакомиться только с текстом закона, так как существует масса практических тонкостей и рекомендаций. Поэтому мы с вами разберем ещё и ключевые моменты из свежего Руководства для поставщиков моделей ИИ общего назначения и Европейского кодекса практик для ИИ общего назначения, в создании и обсуждении которого мне удалось поучаствовать в качестве эксперта.
Что конкретно обсудим?
- Что такое модели ИИ общего назначения и как их распознать во всем многообразии систем ИИ
- Какие требования Регламент возлагает на их поставщиков
- Что нужно учитывать компаниям, которые интегрируют такие модели в свои продукты
- Зачем нужен Европейский Кодекс практик для ИИ общего назначения и как он поможет соблюдать законодательные требования
- Подпадают ли ИИ-агенты и передовые модели ИИ под данные требования
Мероприятие будет модерировать прекрасная Анастасия Сковпень @vychislit_po_IP, а значит, мы отдельно окунемся ещё и в вопросы копирайта.
Также к дискуссии подключатся и другие мои друзья и партнеры по курсу AI Governance от RPPA — Александр Партин @piiforever и Екатерина Калугина @brainy_law.
Где и когда?
Когда: 31 июля в 19:00 (мск)
Формат: онлайн
Стоимость: бесплатно
Регистрация по ссылке
Друзья, почти ровно через неделю состоится мой мастер-класс «Глава V Регламента по ИИ: ЕС наносит ответный удар»
Зачем оно нужно?
С 2 августа 2025 года вступает в силу Глава V Регламента ЕС по ИИ, устанавливающая обязательные требования для поставщиков моделей ИИ общего назначения — именно тех моделей, которые лежат в основе популярных продуктов вроде ChatGPT, Claude, Gemini, DeepSeek, Llama и других. Разобраться в требованиях необходимо не только в том случае, если вы сами разрабатываете модели ИИ, но и используете их в своем бизнесе.
Однако, как это часто бывает в юриспруденции, для того чтобы оптимально подготовиться к соблюдению законодательных требований, недостаточно ознакомиться только с текстом закона, так как существует масса практических тонкостей и рекомендаций. Поэтому мы с вами разберем ещё и ключевые моменты из свежего Руководства для поставщиков моделей ИИ общего назначения и Европейского кодекса практик для ИИ общего назначения, в создании и обсуждении которого мне удалось поучаствовать в качестве эксперта.
Что конкретно обсудим?
- Что такое модели ИИ общего назначения и как их распознать во всем многообразии систем ИИ
- Какие требования Регламент возлагает на их поставщиков
- Что нужно учитывать компаниям, которые интегрируют такие модели в свои продукты
- Зачем нужен Европейский Кодекс практик для ИИ общего назначения и как он поможет соблюдать законодательные требования
- Подпадают ли ИИ-агенты и передовые модели ИИ под данные требования
Мероприятие будет модерировать прекрасная Анастасия Сковпень @vychislit_po_IP, а значит, мы отдельно окунемся ещё и в вопросы копирайта.
Также к дискуссии подключатся и другие мои друзья и партнеры по курсу AI Governance от RPPA — Александр Партин @piiforever и Екатерина Калугина @brainy_law.
Где и когда?
Когда: 31 июля в 19:00 (мск)
Формат: онлайн
Стоимость: бесплатно
Регистрация по ссылке
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥12 5 4❤1
Еврокомиссия утвердила шаблон раскрытия обучающих данных для моделей ИИ общего назначения
Хотел сегодня написать про очередной американский AI Action Plan, но подоспели более важные новости. Когда мы недавно разбирали с вами GPAI Code of Practice, вы могли заметить, что мы пропустили пункт d части 1 статьи 73 Регламента ЕС по ИИ:
(поставщик) d) составляет и публикует достаточно подробное резюме о контенте, использованном для обучения модели ИИ общего назначения, в соответствии с шаблоном, предоставленным AI Office.
Так вот, пропустили мы пункт не просто так, а потому что ждали финальную версию данного шаблона. Дождались — давайте разбираться🐱 .
Для чего он нужен?
Предполагается, что такое краткое содержание о контенте, используемом для обучения моделей ИИ, позволит защитить права правообладателей и субъектов данных, повысит информированность последующих поставщиков, способствует развитию науки за счёт увеличения прозрачности и улучшит конкуренцию.
Какие наборы данных должны быть описаны?
Все данные, которые используются на этапах предобучения и постобучения, включая элайнмент и файнтюнинг. Однако данные, используемые на этапе эксплуатации модели (например, при использовании RAG), уже не должны включаться в шаблон, если модель на них не обучается.
Важно отметить, что в случае, если последующий поставщик дорабатывает модель таким образом, что сам становится поставщиком, то краткое описание нужно составлять только на те данные, которые использовались для модификации.
Из чего состоит шаблон?
Шаблон состоит из трёх основных разделов:
- общая информация: информация, позволяющая идентифицировать поставщика и модель; информация о модальностях и их размерах;
- перечень источников данных:
а) раскрытие основных наборов данных, использованных для обучения модели, такие как крупные частные или государственные базы данных;
б) полное описание данных, собранных с помощью веб-скрейпинга самим поставщиком или третьими лицами (включая краткое описание наиболее релевантных доменных имён);
в) описание другой использованной информации, такой как пользовательские или синтетические данные. Для синтетических данных нужно также указать информацию о модели ИИ, с помощью которой эти данные были получены;
- отдельные аспекты обработки данных: раскрытие того, каким образом исполняются машиночитаемые оговорки и удаляется противоправный контент. В этой части происходит пересечение с GPAI Code of Practice, поэтому поставщики могут сослаться на его исполнение и продублировать соответствующие части. Подробнее этот момент можно посмотреть в моём недавнем обзоре кодекса.
При этом важно подчеркнуть, что поставщики должны лишь указать основные доменные имена ресурсов, с которых собирались данные, но без описания конкретных единиц контента (например, работ художников). Вместе с тем Еврокомиссия поощряет добровольное раскрытие поставщиками более детальной информации, а также в качестве доброй воли просит взаимодействовать с правообладателями по их запросам об обучении на конкретных охраняемых объектах. Понятно, что правообладатели были разочарованы таким трактованием закона, так как ожидали императивного механизма раскрытия и удаления информации, а не ссылки на общее законодательство.
Где и как должна быть размещена информация?
Форма с кратким описанием обучающих данных размещается публично на сайте поставщика и должна регулярно обновляться не реже чем раз в 6 месяцев.
Когда эти положения начнут действовать?
Как я уже отмечал ранее, соответствующая глава Регламента начинает действовать с 2 августа 2025 года. Однако для моделей ИИ, размещённых до этой даты, даётся срок на выполнение требований до 2 августа 2027 года. А если эти поставщики по каким-то причинам не могут раскрыть информацию о данных, то они должны чётко обосновать причины.
Хотел сегодня написать про очередной американский AI Action Plan, но подоспели более важные новости. Когда мы недавно разбирали с вами GPAI Code of Practice, вы могли заметить, что мы пропустили пункт d части 1 статьи 73 Регламента ЕС по ИИ:
(поставщик) d) составляет и публикует достаточно подробное резюме о контенте, использованном для обучения модели ИИ общего назначения, в соответствии с шаблоном, предоставленным AI Office.
Так вот, пропустили мы пункт не просто так, а потому что ждали финальную версию данного шаблона. Дождались — давайте разбираться
Для чего он нужен?
Предполагается, что такое краткое содержание о контенте, используемом для обучения моделей ИИ, позволит защитить права правообладателей и субъектов данных, повысит информированность последующих поставщиков, способствует развитию науки за счёт увеличения прозрачности и улучшит конкуренцию.
Какие наборы данных должны быть описаны?
Все данные, которые используются на этапах предобучения и постобучения, включая элайнмент и файнтюнинг. Однако данные, используемые на этапе эксплуатации модели (например, при использовании RAG), уже не должны включаться в шаблон, если модель на них не обучается.
Важно отметить, что в случае, если последующий поставщик дорабатывает модель таким образом, что сам становится поставщиком, то краткое описание нужно составлять только на те данные, которые использовались для модификации.
Из чего состоит шаблон?
Шаблон состоит из трёх основных разделов:
- общая информация: информация, позволяющая идентифицировать поставщика и модель; информация о модальностях и их размерах;
- перечень источников данных:
а) раскрытие основных наборов данных, использованных для обучения модели, такие как крупные частные или государственные базы данных;
б) полное описание данных, собранных с помощью веб-скрейпинга самим поставщиком или третьими лицами (включая краткое описание наиболее релевантных доменных имён);
в) описание другой использованной информации, такой как пользовательские или синтетические данные. Для синтетических данных нужно также указать информацию о модели ИИ, с помощью которой эти данные были получены;
- отдельные аспекты обработки данных: раскрытие того, каким образом исполняются машиночитаемые оговорки и удаляется противоправный контент. В этой части происходит пересечение с GPAI Code of Practice, поэтому поставщики могут сослаться на его исполнение и продублировать соответствующие части. Подробнее этот момент можно посмотреть в моём недавнем обзоре кодекса.
При этом важно подчеркнуть, что поставщики должны лишь указать основные доменные имена ресурсов, с которых собирались данные, но без описания конкретных единиц контента (например, работ художников). Вместе с тем Еврокомиссия поощряет добровольное раскрытие поставщиками более детальной информации, а также в качестве доброй воли просит взаимодействовать с правообладателями по их запросам об обучении на конкретных охраняемых объектах. Понятно, что правообладатели были разочарованы таким трактованием закона, так как ожидали императивного механизма раскрытия и удаления информации, а не ссылки на общее законодательство.
Где и как должна быть размещена информация?
Форма с кратким описанием обучающих данных размещается публично на сайте поставщика и должна регулярно обновляться не реже чем раз в 6 месяцев.
Когда эти положения начнут действовать?
Как я уже отмечал ранее, соответствующая глава Регламента начинает действовать с 2 августа 2025 года. Однако для моделей ИИ, размещённых до этой даты, даётся срок на выполнение требований до 2 августа 2027 года. А если эти поставщики по каким-то причинам не могут раскрыть информацию о данных, то они должны чётко обосновать причины.
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
❤7 2
Смотрим интервью Демиса Хассабиса в подкасте у Лекса Фридмана
В выходные самое время отвлечься от регулирования и подумать о высоком. Благо, пару дней назад вышло классное интервью Демиса Хассабиса, который является одним из главных виновников нынешней ИИ-революции, будучи сооснователем и CEO DeepMind. Также он стоял за созданием прорывных систем ИИ AlphaGo и AlphaFold, последняя из которых в 2024 году принесла ему и Джону Джамперу Нобелевскую премию по химии.
Мужики обсуждают много интересных вещей: от тайн мироздания до компьютерных игр и будущего ИИ. Я пока посмотрел только половину, так что, возможно, самое интересное ещё впереди.
Кстати, после создания AGI Демис планирует взять саббатикал, чтобы либо наконец решить задачу P против NP, либо все-таки создать матрицу🎮 .
В выходные самое время отвлечься от регулирования и подумать о высоком. Благо, пару дней назад вышло классное интервью Демиса Хассабиса, который является одним из главных виновников нынешней ИИ-революции, будучи сооснователем и CEO DeepMind. Также он стоял за созданием прорывных систем ИИ AlphaGo и AlphaFold, последняя из которых в 2024 году принесла ему и Джону Джамперу Нобелевскую премию по химии.
Мужики обсуждают много интересных вещей: от тайн мироздания до компьютерных игр и будущего ИИ. Я пока посмотрел только половину, так что, возможно, самое интересное ещё впереди.
Кстати, после создания AGI Демис планирует взять саббатикал, чтобы либо наконец решить задачу P против NP, либо все-таки создать матрицу
Please open Telegram to view this post
VIEW IN TELEGRAM
YouTube
Demis Hassabis: Future of AI, Simulating Reality, Physics and Video Games | Lex Fridman Podcast #475
Demis Hassabis is the CEO of Google DeepMind and Nobel Prize winner for his groundbreaking work in protein structure prediction using AI.
Thank you for listening ❤ Check out our sponsors: https://lexfridman.com/sponsors/ep475-sb
See below for timestamps,…
Thank you for listening ❤ Check out our sponsors: https://lexfridman.com/sponsors/ep475-sb
See below for timestamps,…
🔥6 2
Как определить, является ли модель ИИ моделью общего назначения?
На прошлой неделе Еврокомиссия утвердила Руководство по определению объёма требований к поставщикам моделей ИИ общего назначения. Документ носит необязательный характер, однако отражает официальную позицию Комиссии в части толкования и применения положений Главы V Регламента ЕС по ИИ.
Одним из ключевых вопросов документа стали тонкости разграничения моделей ИИ:
- как отличить модели ИИ общего назначения (GPAI) от всех остальных;
- какие из моделей GPAI попадают в группу GPAI моделей, представляющих системные риски (GPAISR). Для их поставщиков предусмотрены дополнительные требования.
Определены два основных критерия:
- объём обучающих вычислений (training compute). Для GPAI моделей установлен порог – 10^23 FLOP, а для GPAISR моделей – 10^25 FLOP;
- способность компетентно выполнять широкий спектр задач. В качестве ориентира – способность генерировать язык (текст или речь), изображения или видео. Такие модели, как правило, являются мультимодальными.
Если модель не соответствует хотя бы одному из этих критериев, она, как правило, не считается GPAI. Однако возможны исключения – например, для меньших моделей, но с большими способностями.
Как считать training compute?
Метод подсчёта зависит от цели:
- для всех GPAI моделей считается общий объём вычислений, непосредственно использованных для обновления параметров модели (непосредственно обучение и файнтюнинг);
- для определения GPAISR моделей считается совокупный объём вычислений, затраченных на обучение модели (весь обучающий процесс: претрейнинг и посттрейнинг).
Существует два подхода к оценке объёма compute:
Всего есть два подхода подсчета компьюта:
Аппаратный подход (оценка по инфраструктуре):
Формула: 𝐶 = 𝑁 × 𝐿 × 𝐻 × 𝑈
𝑁 – количество задействованных графических процессоров (или других аппаратных ускорителей);
𝐿 – продолжительность использования в секундах;
𝐻 – пиковая теоретическая производительность оборудования (в FLOP/сек), при необходимости — как средневзвешенное;
𝑈 – средний процент загрузки оборудования (также может рассчитываться как средневзвешенный, если использовались разные типы устройств).
Архитектурный подход (оценка по архитектуре модели):
Формула: 𝐶 ≈ 6 × 𝑃 × 𝐷
𝑃 – общее количество параметров модели;
𝐷 – количество токенов, использованных для обучения.
Поставщики вправе использовать любой метод для оценки соответствующего объёма обучающих вычислений, при условии что, по их обоснованному мнению, оценка является точной с допустимой общей погрешностью не более 30% от заявленного значения. Эта допущенная погрешность предназначена для учёта возможных затруднений в получении точных данных о совокупных обучающих вычислениях модели.
А еще напоминаю: завтра я провожу мастер-класс по GPAI моделям, где обсудим ещё больше интересных тонкостей🐱 .
На прошлой неделе Еврокомиссия утвердила Руководство по определению объёма требований к поставщикам моделей ИИ общего назначения. Документ носит необязательный характер, однако отражает официальную позицию Комиссии в части толкования и применения положений Главы V Регламента ЕС по ИИ.
Одним из ключевых вопросов документа стали тонкости разграничения моделей ИИ:
- как отличить модели ИИ общего назначения (GPAI) от всех остальных;
- какие из моделей GPAI попадают в группу GPAI моделей, представляющих системные риски (GPAISR). Для их поставщиков предусмотрены дополнительные требования.
Определены два основных критерия:
- объём обучающих вычислений (training compute). Для GPAI моделей установлен порог – 10^23 FLOP, а для GPAISR моделей – 10^25 FLOP;
- способность компетентно выполнять широкий спектр задач. В качестве ориентира – способность генерировать язык (текст или речь), изображения или видео. Такие модели, как правило, являются мультимодальными.
Если модель не соответствует хотя бы одному из этих критериев, она, как правило, не считается GPAI. Однако возможны исключения – например, для меньших моделей, но с большими способностями.
Как считать training compute?
Метод подсчёта зависит от цели:
- для всех GPAI моделей считается общий объём вычислений, непосредственно использованных для обновления параметров модели (непосредственно обучение и файнтюнинг);
- для определения GPAISR моделей считается совокупный объём вычислений, затраченных на обучение модели (весь обучающий процесс: претрейнинг и посттрейнинг).
Существует два подхода к оценке объёма compute:
Всего есть два подхода подсчета компьюта:
Аппаратный подход (оценка по инфраструктуре):
Формула: 𝐶 = 𝑁 × 𝐿 × 𝐻 × 𝑈
𝑁 – количество задействованных графических процессоров (или других аппаратных ускорителей);
𝐿 – продолжительность использования в секундах;
𝐻 – пиковая теоретическая производительность оборудования (в FLOP/сек), при необходимости — как средневзвешенное;
𝑈 – средний процент загрузки оборудования (также может рассчитываться как средневзвешенный, если использовались разные типы устройств).
Архитектурный подход (оценка по архитектуре модели):
Формула: 𝐶 ≈ 6 × 𝑃 × 𝐷
𝑃 – общее количество параметров модели;
𝐷 – количество токенов, использованных для обучения.
Поставщики вправе использовать любой метод для оценки соответствующего объёма обучающих вычислений, при условии что, по их обоснованному мнению, оценка является точной с допустимой общей погрешностью не более 30% от заявленного значения. Эта допущенная погрешность предназначена для учёта возможных затруднений в получении точных данных о совокупных обучающих вычислениях модели.
А еще напоминаю: завтра я провожу мастер-класс по GPAI моделям, где обсудим ещё больше интересных тонкостей
Please open Telegram to view this post
VIEW IN TELEGRAM
Shaping Europe’s digital future
Guidelines on the scope of obligations for providers of general-purpose AI models under the AI Act
These guidelines focus on the scope of the obligations for providers of general-purpose AI models laid down in the AI Act, in light of their imminent entry into application on 2 August 2025.
❤7 2👍1
Друзья, мастер-класс стартует уже через пару часов. Буду рад со всеми пообщаться, приходите 🤩
Please open Telegram to view this post
VIEW IN TELEGRAM
Telegram
RPPA PRO: Privacy • AI • Cybersecurity • IP
😎 📱AI: Уже завтра проводим бесплатный Мастер-класс от Дмитрия Кутейникова - «Глава V Регламента по ИИ: ЕС наносит ответный удар»
✏️ Когда и где: завтра (31 июля) в 19:00, онлайн
*️⃣Спикер: Дмитрий Кутейников
*️⃣Модератор: Анастасия Сковпень
📎 Полная информация…
✏️ Когда и где: завтра (31 июля) в 19:00, онлайн
*️⃣Спикер: Дмитрий Кутейников
*️⃣Модератор: Анастасия Сковпень
📎 Полная информация…