В ноябре 2024 года несколько компаний подали в суд на OpenAI, обвиняя компанию в использовании новостного контента для обучения ChatGPT.
Представитель OpenAI прокомментировал ситуацию следующим образом:
«Мы активно взаимодействуем с новостными организациями по всему миру, включая Индию, чтобы искать возможности для сотрудничества, учитывать их обратную связь и работать совместно».
Следующее заседание назначено на январь - суд планирует привлечь независимого эксперта для оценки влияния генеративных моделей ИИ на вопросы авторских прав при использовании общедоступного контента.
В сентябре 2024 года GEMA представила свою лицензионную модель для генеративного ИИ и уведомила операторов моделей ИИ о необходимости получения лицензий для законного использования музыкальных произведений их авторов.
Например, OpenAI уже заключила лицензионный договор с Hearst, медиаконгломератом, стоящим за такими изданиями, как Houston Chronicle, San Francisco Chronicle, Esquire, Cosmopolitan, Elle и другими.
Для OpenAI это не первая подобная сделка. В мае компания объявила о партнерстве с News Corp., в июне – с Time, а в августе – с Condé Nast.
Более того, крупные компании-разработчики задают тренды. Практика заключения лицензионных соглашений с правообладателями может оказаться чрезмерно обременительной для средних и малых организаций. Они не всегда обладают ресурсами для соблюдения сложных юридических процедур и финансовых обязательств, что может затормозить инновации и усилить монополизацию отрасли.
#AI #Copyright #OpenAI
Please open Telegram to view this post
VIEW IN TELEGRAM
👍6❤3🔥2
12 февраля компания опубликовала обновленную версию Model Spec - документа, определяющего, как должны вести себя ИИ-модели OpenAI.
Одна из целей обновления – поиск баланса между:
Основные изменения:
Представлен новый ключевой принцип: «Не лгать — ни путем предоставления ложных сведений, ни путем умышленного сокрытия важного контекста».
Модель теперь поощряет обсуждение сложных или спорных тем, выводя из зацензурированных тематик политические и социально-чувствительные темы.
Модель будет представлять множественные точки зрения на спорные темы вместо того, чтобы занимать позицию, соответствующую определенной идеологии или моральным установкам.
OpenAI изучает способы разрешения «режима для взрослых», но при этом строго запрещая вредоносный контент (например, педофилию, «revenged porn» или дипфейки).
Модели теперь настроены на предоставление честной обратной связи и конструктивной критики. Раньше ИИ безоговорочно поддерживал пользователя, даже если его утверждения неверны.
Введена «цепочка командования», определяющая приоритетность инструкций от платформы (OpenAI), разработчиков по API и пользователей. Какие-то аспекты поведения ИИ могут быть настроены, а какие-то остаются неизменными для обеспечения безопасности и этичности. Модель не должна позволять командам более низкого уровня влиять на интерпретацию правил, установленных на более высоком уровне.
Ранее ChatGPT выдавал пользователям сообщения о нарушении ими политики компании. OpenAI убрала эти предупреждения, чтобы сделать взаимодействие с ИИ менее ощущаемым как «цензурированное».
#AI #GenAI #OpenAI
Please open Telegram to view this post
VIEW IN TELEGRAM
👍10🔥6🙏5❤3⚡1🌚1
«Миссия OpenAI — обеспечить, чтобы общий искусственный интеллект (AGI) приносил пользу всему человечеству».
По мнению компании реализация потенциала AGI требует работы по снижению возможных рисков в соответствии с человеческими ценностями и под человеческим контролем.
На основе существующих ИИ-систем OpenAI видит три основных риска развития AGI:
OpenAI ищет баланс между развитием инноваций и безопасностью моделей в рамках их Preparedness Framework, поэтому предлагает следующие методы смягчения рисков:
#AI #Safety #AGI #OpenAI
Please open Telegram to view this post
VIEW IN TELEGRAM
👍7🔥5👏3❤1🌚1
Документ базируется на Economic Blueprint, ранее опубликованном OpenAI, и предлагает комплексный подход в пяти ключевых направлениях.
- установление государственной защиты разработчиков от чрезмерного регулирования, особенно на уровне штатов
- создание добровольного партнерства между федеральным правительством и частным сектором
- развитие «регуляторных песочниц» для стартапов
- поддержка «демократических стран» в развитии их ИИ-инфраструктуры
- ограничение использования китайского оборудования (например, чипов Huawei)
- продвижение американских стандартов безопасности ИИ в международных организациях
- доктрина «fair use» (добросовестное использование) должно защищать разработчиков ИИ, обеспечивая доступ к данным для обучения
- продвижение государственных и публичных датасетов
- мониторинг ограничений доступа к данным в других странах и их влияние на американские компании
- создание фонда госинвестиций в инфраструктуру ИИ (Sovereign Wealth Fund)
- утверждение AI Economic Zones — специальных зон с упрощенными разрешительными процедурами
- оцифровка госданных для расширения доступа разработчиков к информации
- ускорение тестирования и пилотных проектов, в том числе с реальными данными
- создание специализированных моделей ИИ для нацбезопасности
- приоритетное финансирование вычислительных мощностей для ИИ-разработок в сфере обороны
Таким образом, американские технологические компании, такие как OpenAI и Google, едины во мнении, что сбалансированное регулирование должно стимулировать инновации, а не ограничивать развитие ИИ. Компании предлагают подход, основанный на ограничении чрезмерного бюрократического вмешательства, в котором правительство создает условия для роста ИИ-индустрии и формирует глобальные стандарты, укрепляя позиции США в технологической гонке.
#AI #Regulation #USA #OpenAI #Google
Please open Telegram to view this post
VIEW IN TELEGRAM
👍8❤7🔥4🌚1
15 апреля OpenAI опубликовала новую версию Preparedness Framework – внутренней системы оценки и управления рисками, связанными с «передовыми» ИИ-моделями. Обновление отражает подготовку к запуску систем нового уровня, которые уже возможно будут способны причинить какой-либо вред — от массовых кибератак до ускоренного биоинжиниринга.
AI self-improvement - теперь OpenAI отслеживает, может ли модель ускорить собственное развитие или R&D-процессы.
Приоритетными для отслеживания считаются риски, которые являются возможными, измеримыми, серьёзными, новыми по характеру и мгновенными или необратимыми.
Хотя ручное тестирование не отменено полностью, компания развивает «набор автоматических оценок», которые позволяют сохранить высокую скорость релизов.
Если другая лаборатория выпустит высокорисковую модель без достаточных мер защиты, OpenAI может скорректировать свои требования к безопасности. Но при этом:
#AI #Safety #OpenAI
Please open Telegram to view this post
VIEW IN TELEGRAM
❤6👍6🔥4🙏1
С расширением возможностей увеличиваются и риски. Вот как OpenAI их оценивает и снижает.
Агент может наткнуться на скрытые инструкции в коде сайта. OpenAI обучила его:
🧬 Биориски — приоритетная зона контроля
Агент классифицирован как High Biological Capability, даже при отсутствии прямых доказательств вреда.
Это активирует самый жёсткий стек защиты, включая привлечение биоэкспертов и внешних лабораторий.
ChatGPT Agent отказывается:
#OpenAI #ChatGPT #Agent #Safety #SystemCard
Please open Telegram to view this post
VIEW IN TELEGRAM
👍5⚡3🔥1