Изучаем статистику и юзкейсы по использованию систем ИИ в России
Друзья, сегодня информация, которая не связана непосредственно с регулированием, но тоже на него влияет. На днях я наткнулся на документ, подготовленный Национальным центром развития искусственного интеллекта при Правительстве РФ (НЦРИИ) по итогам 2024 года. Он содержит результаты мониторинга внедрения решений в сфере ИИ в приоритетных отраслях экономики.
Мониторинг выполнен на основе анализа агрегированных баз данных и более 350 открытых источников информации. В ходе обзора проанализировано более 1000 сообщений информационных ресурсов о применении ИИ российскими организациями.
По результатам мониторинга отобрано 277 примеров внедрения ИИ в 16 приоритетных отраслях экономики.
Основные цифры:
- Промышленность лидирует среди отраслей по внедрению ИИ — 11,9 % кейсов.
- Второе место занимает торговля с долей 10,4 % внедрений.
- Основные используемые технологии — перспективные методы ИИ и распознавание и синтез речи (по 17,3 %).
- Подавляющее большинство проектов реализуется на федеральном уровне (70 %).
- Лидирующие разработчики ИИ-решений — университеты (34 %), «Яндекс» (22 %) и «Сбер» (19 %).
Также в документе можно ознакомиться со списком конкретных юзкейсов.
Однако необходимо помнить, что список очевидно не является полным: не учтены небольшие ИИ-проекты, а также те, которые сейчас находятся на этапе разработки или проектирования и ещё не были анонсированы публично.
Друзья, сегодня информация, которая не связана непосредственно с регулированием, но тоже на него влияет. На днях я наткнулся на документ, подготовленный Национальным центром развития искусственного интеллекта при Правительстве РФ (НЦРИИ) по итогам 2024 года. Он содержит результаты мониторинга внедрения решений в сфере ИИ в приоритетных отраслях экономики.
Мониторинг выполнен на основе анализа агрегированных баз данных и более 350 открытых источников информации. В ходе обзора проанализировано более 1000 сообщений информационных ресурсов о применении ИИ российскими организациями.
По результатам мониторинга отобрано 277 примеров внедрения ИИ в 16 приоритетных отраслях экономики.
Основные цифры:
- Промышленность лидирует среди отраслей по внедрению ИИ — 11,9 % кейсов.
- Второе место занимает торговля с долей 10,4 % внедрений.
- Основные используемые технологии — перспективные методы ИИ и распознавание и синтез речи (по 17,3 %).
- Подавляющее большинство проектов реализуется на федеральном уровне (70 %).
- Лидирующие разработчики ИИ-решений — университеты (34 %), «Яндекс» (22 %) и «Сбер» (19 %).
Также в документе можно ознакомиться со списком конкретных юзкейсов.
Однако необходимо помнить, что список очевидно не является полным: не учтены небольшие ИИ-проекты, а также те, которые сейчас находятся на этапе разработки или проектирования и ещё не были анонсированы публично.
❤7🔥3 3
Начался вебинар о будущем развитии законодательства ЕС об ответственности за вред, причиненный системами ИИ
Друзья, только что начался прямой эфир вебинара, на котором обсуждаются вопросы, связанные с будущим развитием законодательства ЕС об ответственности за вред, причиненный системами ИИ. Прежде всего, обсуждение касается особенностей применения Регламента ЕС об ИИ, а также множества вопросов, связанных с отказом от разработки Директивы об ответственности в сфере ИИ (AI Liability Directive, AILD) и дальнейшей гармонизацией подходов государств-членов.
Трансляцию и запись можно посмотреть здесь.
Спикеры:
Philipp Hacker – Professor of Law and Ethics of the Digital Society, European University Viadrina
Shu Li – Assistant Professor in Law and AI, Erasmus School of Law, Erasmus University Rotterdam
Beatrice Schütte – Postdoctoral Researcher, University of Helsinki and University of Lapland
Miriam Buiten – Professor of Law and Economics, University of St. Gallen
Mindy Duffourc – Assistant Professor of Private Law, Maastricht University
Jan De Bruyne – Professor of IT Law, KU Leuven, Head of KU Centre for IT & IP Law
Martin Ebers – Professor of IT Law, Tartu University, President of RAILS
Друзья, только что начался прямой эфир вебинара, на котором обсуждаются вопросы, связанные с будущим развитием законодательства ЕС об ответственности за вред, причиненный системами ИИ. Прежде всего, обсуждение касается особенностей применения Регламента ЕС об ИИ, а также множества вопросов, связанных с отказом от разработки Директивы об ответственности в сфере ИИ (AI Liability Directive, AILD) и дальнейшей гармонизацией подходов государств-членов.
Трансляцию и запись можно посмотреть здесь.
Спикеры:
Philipp Hacker – Professor of Law and Ethics of the Digital Society, European University Viadrina
Shu Li – Assistant Professor in Law and AI, Erasmus School of Law, Erasmus University Rotterdam
Beatrice Schütte – Postdoctoral Researcher, University of Helsinki and University of Lapland
Miriam Buiten – Professor of Law and Economics, University of St. Gallen
Mindy Duffourc – Assistant Professor of Private Law, Maastricht University
Jan De Bruyne – Professor of IT Law, KU Leuven, Head of KU Centre for IT & IP Law
Martin Ebers – Professor of IT Law, Tartu University, President of RAILS
YouTube
RAILS-Webinar: AI Liability - Where Should the European Union (Not) Go?
❤6 3 1
Forwarded from вычислить по IP (Anastasia Skovpen)
В Китае опубликованы «Меры по маркировке контента, созданного или синтезированного искусственным интеллектом». Китай тут идет в ногу с ЕС, поэтому интересно наблюдать, где их дорожки сходятся.
Основная задача создать фреймворк для регулирования маркировки генераций, направленный в первую очередь на всех интернет-услуг (платформы, приложения), предлагающих контент, созданный или измененный с помощью ИИ.
Предлагается использовать два типа маркировки: явную и скрытую.
1. Явная маркировка: видимые маркеры (текст, символы, графические элементы) в контенте или встроенные в интерфейс.
2. Скрытая маркировка: технические маркеры (метаданные, цифровые водяные знаки), встроенные в данные файла и несчитываемые пользователями.
Документ описывает каким образом должна выглядеть маркировка для разных видов контента, например: текст должен содержать маркеры в начале, конце или середине текста, либо встроены в интерфейс; а статичные изображения и видео должны содержать маркеры на ключевых кадрах или в интерфейсах воспроизведения. Скрытая маркировка должна включать атрибуты контента, название/идентификатор поставщика, ID контента.
Очень важно, что провайдеры сервиса должен обеспечить маркировку таким образом, чтобы она сохранялась в скачанных или скопированных файлах.
Также возлагаются обязанности на платформы, распространяющие контент (соцсети и прочие информационные посредники): они должны проверять метаданные на наличие скрытой маркировки. Если контент помечен как ИИ, обязательно сопровождение материала видимым предупреждением.
Если же скрытых меток нет, но пользователь при загрузке заявляет об ИИ, интерфейс платформы должен посетить такой контент, как «вероятно создан ИИ».
Если скрытых меток нет, но сервисы платформы обнаружили использование ИИ, то предлагают маркировать такой материал фразой «подозревается создание ИИ».
Магазины приложений будут обязаны требовать раскрытия использования ИИ сервисов в приложении, а также проверять соответствие маркировки у поставщиков ИИ сервисов.
Из интересных предложений: если пользователи ИИ сервисов запрашивают контент без меток, они должны подтвердить свою ответственность, а провайдеры сервисов обязаны хранить логи не менее 6 месяцев.
Пользователи обязаны маркировать ИИ контент при публикации: удаление, изменение, подделка или сокрытие меток запрещены, равно как и предоставление инструментов для обхода маркировки.
Меры по маркировке вступают в силу 1 сентября 2025.
Основная задача создать фреймворк для регулирования маркировки генераций, направленный в первую очередь на всех интернет-услуг (платформы, приложения), предлагающих контент, созданный или измененный с помощью ИИ.
Предлагается использовать два типа маркировки: явную и скрытую.
1. Явная маркировка: видимые маркеры (текст, символы, графические элементы) в контенте или встроенные в интерфейс.
2. Скрытая маркировка: технические маркеры (метаданные, цифровые водяные знаки), встроенные в данные файла и несчитываемые пользователями.
Документ описывает каким образом должна выглядеть маркировка для разных видов контента, например: текст должен содержать маркеры в начале, конце или середине текста, либо встроены в интерфейс; а статичные изображения и видео должны содержать маркеры на ключевых кадрах или в интерфейсах воспроизведения. Скрытая маркировка должна включать атрибуты контента, название/идентификатор поставщика, ID контента.
Очень важно, что провайдеры сервиса должен обеспечить маркировку таким образом, чтобы она сохранялась в скачанных или скопированных файлах.
Также возлагаются обязанности на платформы, распространяющие контент (соцсети и прочие информационные посредники): они должны проверять метаданные на наличие скрытой маркировки. Если контент помечен как ИИ, обязательно сопровождение материала видимым предупреждением.
Если же скрытых меток нет, но пользователь при загрузке заявляет об ИИ, интерфейс платформы должен посетить такой контент, как «вероятно создан ИИ».
Если скрытых меток нет, но сервисы платформы обнаружили использование ИИ, то предлагают маркировать такой материал фразой «подозревается создание ИИ».
Магазины приложений будут обязаны требовать раскрытия использования ИИ сервисов в приложении, а также проверять соответствие маркировки у поставщиков ИИ сервисов.
Из интересных предложений: если пользователи ИИ сервисов запрашивают контент без меток, они должны подтвердить свою ответственность, а провайдеры сервисов обязаны хранить логи не менее 6 месяцев.
Пользователи обязаны маркировать ИИ контент при публикации: удаление, изменение, подделка или сокрытие меток запрещены, равно как и предоставление инструментов для обхода маркировки.
Меры по маркировке вступают в силу 1 сентября 2025.
🔥8👍2
В Великобритании разрабатывают опросник AI Management Essentials (AIME)
Британский Department for Science, Innovation and Technology (DSIT) в декабре выпустил опросник, который призван помочь малому и среднему бизнесу самостоятельно оценить зрелость своих систем менеджмента ИИ.
Опросник основан на ключевых положениях таких документов, как EU AI Act, стандарт ISO/IEC 42001 и NIST AI Risk Management Framework. Предполагается, что инструмент позволит организациям идентифицировать пробелы в существующих практиках и получить рекомендации по их устранению.
В настоящее время AIME проходит стадию публичного обсуждения. После завершения консультаций планируется публикация обновлённой версии с учётом собранных комментариев.
Британский Department for Science, Innovation and Technology (DSIT) в декабре выпустил опросник, который призван помочь малому и среднему бизнесу самостоятельно оценить зрелость своих систем менеджмента ИИ.
Опросник основан на ключевых положениях таких документов, как EU AI Act, стандарт ISO/IEC 42001 и NIST AI Risk Management Framework. Предполагается, что инструмент позволит организациям идентифицировать пробелы в существующих практиках и получить рекомендации по их устранению.
В настоящее время AIME проходит стадию публичного обсуждения. После завершения консультаций планируется публикация обновлённой версии с учётом собранных комментариев.
GOV.UK
AI Management Essentials tool
We are seeking views on the design, content and use of a new AI Management Essentials (AIME) tool.
🔥3 2❤1
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥4 3👍1
CyberLaw School запускает курс по регулированию ИИ. Мои лекции там тоже будут — приходите послушать
Друзья, CyberLaw School запускает новый курс по регулированию ИИ. На нём можно будет узнать как об основах нормативного правового регулирования в этой сфере и его ключевых проблемах, так и о том, как системы ИИ безопасно использовать в деятельности юриста.
В рамках курса я расскажу про регулирование ИИ в России, ответственность за вред, причинённый ИИ, а также про управление данными и интеллектуальной собственностью.
Записаться на курс и узнать все подробности можно по ссылке.
Друзья, CyberLaw School запускает новый курс по регулированию ИИ. На нём можно будет узнать как об основах нормативного правового регулирования в этой сфере и его ключевых проблемах, так и о том, как системы ИИ безопасно использовать в деятельности юриста.
В рамках курса я расскажу про регулирование ИИ в России, ответственность за вред, причинённый ИИ, а также про управление данными и интеллектуальной собственностью.
Записаться на курс и узнать все подробности можно по ссылке.
cyberlaw.center
Искусственный интеллект для юристов
Практический курс
1🔥6❤3 3
Опубликован отчёт AI Index Report за 2025 год от Stanford HAI
Друзья, принёс вам интересное чтиво на ночь. Сегодня вышел очередной отчёт AI Index Report от Stanford HAI (год пролетел незаметно). Отчёт получился гигантский, но нас традиционно интересует глава 6: Policy and Governance.
В этом году, в соответствии с политическим трендом, Россия вновь появилась в индексе — причём сразу на ведущих позициях по числу принятых законов в сфере ИИ за 2024 год. Качество этих инициатив, к сожалению, в индексе не оценивается (но мы с вами их оценили🐱 ).
Пробежимся по основным выводам:
Во всем мире увеличивается количество упоминаний ИИ в законодательной повестке. В 2024 году в 75 ключевых странах упоминания ИИ в парламентских и законодательных обсуждениях выросли на 21,3 %, увеличившись с 1 557 в 2023 году до 1 889. С 2016 года общее количество таких упоминаний выросло более чем в девять раз.
Расширяется сеть международных институтов безопасности в сфере ИИ. Первые из них появились в ноябре 2023 года в США и Великобритании. Аналогичные или схожие организации в 2024 году были созданы в Японии, Франции, Германии, Италии, Сингапуре, Южной Корее, Австралии, Канаде и на уровне Европейского союза.
Штаты США становятся лидерами в законодательном регулировании ИИ на фоне медленного прогресса на федеральном уровне. В 2016 году был принят всего один закон на уровне штатов, касающийся ИИ; к 2023 году их количество выросло до 49. Только за последний год это число более чем удвоилось, достигнув 131. Хотя количество законопроектов об ИИ на федеральном уровне также увеличилось, фактически принятых актов остаётся немного.
Количество федеральных нормативных актов США, связанных с ИИ, стремительно растёт. В 2024 году было принято 59 нормативных актов по вопросам ИИ — более чем вдвое больше по сравнению с 25 в 2023 году. Эти акты исходили от 42 различных федеральных агентств, что также вдвое больше по сравнению с 21 агентством в предыдущем году.
Штаты США ужесточают регулирование дипфейков. До 2024 года только пять штатов — Калифорния, Мичиган, Вашингтон, Техас и Миннесота — приняли законы, регулирующие использование дипфейков в контексте выборов. В 2024 году аналогичные меры приняли ещё 15 штатов, включая Орегон, Нью-Мексико и Нью-Йорк. В целом к 2024 году регулирование дипфейков ввели уже 24 штата.
Правительства по всему миру инвестируют в инфраструктуру для развития ИИ. Канада объявила о пакете инвестиций в инфраструктуру ИИ на сумму 2,4 миллиарда долларов. Китай запустил фонд в размере 47,5 миллиарда долларов для стимулирования производства полупроводников. Франция выделила на развитие ИИ-инфраструктуры 109 миллиардов евро, Индия — 1,25 миллиарда долларов, а инициатива Project Transcendence в Саудовской Аравии предполагает инвестиции в объёме 100 миллиардов долларов.
Друзья, принёс вам интересное чтиво на ночь. Сегодня вышел очередной отчёт AI Index Report от Stanford HAI (год пролетел незаметно). Отчёт получился гигантский, но нас традиционно интересует глава 6: Policy and Governance.
В этом году, в соответствии с политическим трендом, Россия вновь появилась в индексе — причём сразу на ведущих позициях по числу принятых законов в сфере ИИ за 2024 год. Качество этих инициатив, к сожалению, в индексе не оценивается (но мы с вами их оценили
Пробежимся по основным выводам:
Во всем мире увеличивается количество упоминаний ИИ в законодательной повестке. В 2024 году в 75 ключевых странах упоминания ИИ в парламентских и законодательных обсуждениях выросли на 21,3 %, увеличившись с 1 557 в 2023 году до 1 889. С 2016 года общее количество таких упоминаний выросло более чем в девять раз.
Расширяется сеть международных институтов безопасности в сфере ИИ. Первые из них появились в ноябре 2023 года в США и Великобритании. Аналогичные или схожие организации в 2024 году были созданы в Японии, Франции, Германии, Италии, Сингапуре, Южной Корее, Австралии, Канаде и на уровне Европейского союза.
Штаты США становятся лидерами в законодательном регулировании ИИ на фоне медленного прогресса на федеральном уровне. В 2016 году был принят всего один закон на уровне штатов, касающийся ИИ; к 2023 году их количество выросло до 49. Только за последний год это число более чем удвоилось, достигнув 131. Хотя количество законопроектов об ИИ на федеральном уровне также увеличилось, фактически принятых актов остаётся немного.
Количество федеральных нормативных актов США, связанных с ИИ, стремительно растёт. В 2024 году было принято 59 нормативных актов по вопросам ИИ — более чем вдвое больше по сравнению с 25 в 2023 году. Эти акты исходили от 42 различных федеральных агентств, что также вдвое больше по сравнению с 21 агентством в предыдущем году.
Штаты США ужесточают регулирование дипфейков. До 2024 года только пять штатов — Калифорния, Мичиган, Вашингтон, Техас и Миннесота — приняли законы, регулирующие использование дипфейков в контексте выборов. В 2024 году аналогичные меры приняли ещё 15 штатов, включая Орегон, Нью-Мексико и Нью-Йорк. В целом к 2024 году регулирование дипфейков ввели уже 24 штата.
Правительства по всему миру инвестируют в инфраструктуру для развития ИИ. Канада объявила о пакете инвестиций в инфраструктуру ИИ на сумму 2,4 миллиарда долларов. Китай запустил фонд в размере 47,5 миллиарда долларов для стимулирования производства полупроводников. Франция выделила на развитие ИИ-инфраструктуры 109 миллиардов евро, Индия — 1,25 миллиарда долларов, а инициатива Project Transcendence в Саудовской Аравии предполагает инвестиции в объёме 100 миллиардов долларов.
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
❤7🔥4 3👍1
ИИ-ответственность внутри цепочки поставок систем ИИ: разбираем отчет Mozilla
Друзья, на прошлой неделе меня немного засосала работа, но вот я наконец-то выбрался к вам💻 . Да и повод выдался более чем достойный: в начале месяца вышел классный отчёт от компании Mozilla — AI Liability Along the Value Chain.
Разберем основные идеи:
Авторы предлагают свою концепцию сочетания виновной и строгой ответственности:
По общему правилу на всех субъектов, вовлечённых в цепочку поставок систем ИИ, предлагается распространять правила о виновной ответственности. При этом в ряде случаев, если в отношения вовлечены сразу несколько субъектов (разные поставщики, эксплуатанты и поставщики компонентов), могут применяться правила солидарной ответственности — хотя авторы подчёркивают, что это зависит от конкретных обстоятельств.
Однако из этого правила предлагается несколько исключений:
Продуктовая ответственность — для поставщиков потребительских ИИ-продуктов, ориентированных на широкое использование непрофессиональной аудиторией. По сути, то, что уже реализовано в обновлённой PLD (про то, что это такое, писал тут).
Квази-строгая ответственность — для крупных участников рынка, обладающих значительным контролем над технологическими цепочками и влиянием на экономику. Это позволяет им воздействовать на других коммерческих субъектов внутри цепочки поставок систем ИИ. Авторы фактически предлагают ввести для них продуктовую ответственность, распространяющуюся даже за пределы классического деликтного права.
Строгая ответственность — для поставщиков ИИ-систем в наиболее опасных сферах, таких как критическая инфраструктура, безопасность, оборона.
Также авторы затрагивают сферу договорных отношений, особенно актуальную, когда правовое регулирование ещё находится в стадии разработки. В частности, отмечается: в B2B-сфере компании менее склонны уходить от ответственности, чем в B2C. Содержание договоров и политик, с одной стороны, напрямую влияет на исход судебных споров, а с другой — может быть оспорено, если противоречит закону или публичному порядку.
Кто-то ещё пользуется браузером Mozilla? У меня, например, он был до перехода год назад на Arc.
Друзья, на прошлой неделе меня немного засосала работа, но вот я наконец-то выбрался к вам
Разберем основные идеи:
Авторы предлагают свою концепцию сочетания виновной и строгой ответственности:
По общему правилу на всех субъектов, вовлечённых в цепочку поставок систем ИИ, предлагается распространять правила о виновной ответственности. При этом в ряде случаев, если в отношения вовлечены сразу несколько субъектов (разные поставщики, эксплуатанты и поставщики компонентов), могут применяться правила солидарной ответственности — хотя авторы подчёркивают, что это зависит от конкретных обстоятельств.
Однако из этого правила предлагается несколько исключений:
Продуктовая ответственность — для поставщиков потребительских ИИ-продуктов, ориентированных на широкое использование непрофессиональной аудиторией. По сути, то, что уже реализовано в обновлённой PLD (про то, что это такое, писал тут).
Квази-строгая ответственность — для крупных участников рынка, обладающих значительным контролем над технологическими цепочками и влиянием на экономику. Это позволяет им воздействовать на других коммерческих субъектов внутри цепочки поставок систем ИИ. Авторы фактически предлагают ввести для них продуктовую ответственность, распространяющуюся даже за пределы классического деликтного права.
Строгая ответственность — для поставщиков ИИ-систем в наиболее опасных сферах, таких как критическая инфраструктура, безопасность, оборона.
Также авторы затрагивают сферу договорных отношений, особенно актуальную, когда правовое регулирование ещё находится в стадии разработки. В частности, отмечается: в B2B-сфере компании менее склонны уходить от ответственности, чем в B2C. Содержание договоров и политик, с одной стороны, напрямую влияет на исход судебных споров, а с другой — может быть оспорено, если противоречит закону или публичному порядку.
Кто-то ещё пользуется браузером Mozilla? У меня, например, он был до перехода год назад на Arc.
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥5❤3 3
Кто виноват, когда система ИИ ошибается, и что с этим делать?
В блоге Нетологии на Хабре вышла небольшая статья про ответственность за вред, причинённый системами ИИ, для которой я дал комментарий🤢 .
Внутри — о том, кто виноват, если при функционировании системы ИИ был причинён вред, каким образом ответственность распределяется внутри цепочки поставок, а также как можно снизить риски некачественной работы ИИ-систем с технической стороны.
Ознакомиться можно по ссылке.
В блоге Нетологии на Хабре вышла небольшая статья про ответственность за вред, причинённый системами ИИ, для которой я дал комментарий
Внутри — о том, кто виноват, если при функционировании системы ИИ был причинён вред, каким образом ответственность распределяется внутри цепочки поставок, а также как можно снизить риски некачественной работы ИИ-систем с технической стороны.
Ознакомиться можно по ссылке.
Please open Telegram to view this post
VIEW IN TELEGRAM
Хабр
Когда ИИ сбоит: кто виноват и как минимизировать риски
В 2018 году беспилотник Uber в Аризоне насмерть сбил женщину — система не распознала пешехода. В 2020-м алгоритм распознавания лиц в США стал причиной ареста невиновного — модель ошиблась с...
🔥6 5❤3
Сегодня стартовала двухдневная конференция ВОИС про интеллектуальную собственность и передовые технологии
23–24 апреля 2025 года в Женеве проходит одиннадцатая сессия ВОИС — WIPO Conversation on Intellectual Property and Frontier Technologies.
Обсуждаются все наши с вами любимые вопросы: исключения TDM (text and data mining), машиночитаемые opt-out, лицензирование, маркировка, AI Act и многое другое.
Кстати, недавно профессор Цянь Ван из Восточно-Китайского университета политических наук и права представил в своем докладе обзор текущего ландшафта регулирования в сфере ИС и ИИ. Доклад завершился игрой слов, которая запала мне в душу (это не точная цитата, а скорее её агрегированный смысл):
Найти единственно верное решение по исключениям TDM, которое одновременно устроило бы и авторов, и разработчиков ИИ, практически невозможно. Вопрос упирается в выбор направления: copyright или copyleft (на слайде в этот момент была фотография дорожной развилки).
Трансляция мероприятия — по ссылке
Программа — здесь
23–24 апреля 2025 года в Женеве проходит одиннадцатая сессия ВОИС — WIPO Conversation on Intellectual Property and Frontier Technologies.
Обсуждаются все наши с вами любимые вопросы: исключения TDM (text and data mining), машиночитаемые opt-out, лицензирование, маркировка, AI Act и многое другое.
Кстати, недавно профессор Цянь Ван из Восточно-Китайского университета политических наук и права представил в своем докладе обзор текущего ландшафта регулирования в сфере ИС и ИИ. Доклад завершился игрой слов, которая запала мне в душу (это не точная цитата, а скорее её агрегированный смысл):
Найти единственно верное решение по исключениям TDM, которое одновременно устроило бы и авторов, и разработчиков ИИ, практически невозможно. Вопрос упирается в выбор направления: copyright или copyleft (на слайде в этот момент была фотография дорожной развилки).
Трансляция мероприятия — по ссылке
Программа — здесь
frontier-technologies
WIPO Conversation: AI & IP: Infrastructure for Rights Holders & Innovation
👍5 3❤2🔥2 1
Друзья, в пятницу изучаем список Forbes самых молодых и самых богатых self-made женщин прямо сейчас. Внимания заслуживает тот факт, что из шести участниц списка сразу две — из сферы ИИ:
Люси Го — соосновательница Scale AI. Хотя она покинула операционную деятельность компании в 2018 году, сохранив около 6% акций, рост стоимости Scale AI позволил ей обойти Тейлор Свифт и стать самой молодой self-made женщиной в мире. В настоящее время Го развивает собственный стартап Passes.
Даниэла Амодей — соосновательница и президент Anthropic, а также сестра генерального директора компании Дарио Амодея. Недавняя оценка стоимости Anthropic в $60 миллиардов сделала всех семерых сооснователей компании миллиардерами, включая Даниэлу.
Технически сюда можно отнести и Мелани Перкинс — соосновательницу Canva: компания в последние годы активно внедряет ИИ-функции в продукт и разрабатывает собственные модели ИИ.
Это ещё одно подтверждение того, как быстро технологии меняют экономический ландшафт и создают новые точки роста. Уходим на выходные с мыслью: всё возможно — особенно в мире ИИ🤩
UPD: также Forbes опубликовал отдельный список новых миллиардеров, разбогатевших благодаря современному ИИ-буму. Среди них — основатели таких компаний, как CoreWeave, DeepSeek и Scale AI (второй кофаундер).
Люси Го — соосновательница Scale AI. Хотя она покинула операционную деятельность компании в 2018 году, сохранив около 6% акций, рост стоимости Scale AI позволил ей обойти Тейлор Свифт и стать самой молодой self-made женщиной в мире. В настоящее время Го развивает собственный стартап Passes.
Даниэла Амодей — соосновательница и президент Anthropic, а также сестра генерального директора компании Дарио Амодея. Недавняя оценка стоимости Anthropic в $60 миллиардов сделала всех семерых сооснователей компании миллиардерами, включая Даниэлу.
Технически сюда можно отнести и Мелани Перкинс — соосновательницу Canva: компания в последние годы активно внедряет ИИ-функции в продукт и разрабатывает собственные модели ИИ.
Это ещё одно подтверждение того, как быстро технологии меняют экономический ландшафт и создают новые точки роста. Уходим на выходные с мыслью: всё возможно — особенно в мире ИИ
UPD: также Forbes опубликовал отдельный список новых миллиардеров, разбогатевших благодаря современному ИИ-буму. Среди них — основатели таких компаний, как CoreWeave, DeepSeek и Scale AI (второй кофаундер).
Please open Telegram to view this post
VIEW IN TELEGRAM
❤5🔥2 2👎1