💻В Госдуму могут внести законопроект о регулировании ИИ в ближайшее время.
Законопроект по регулированию технологии искусственного интеллекта (ИИ) могут внести на рассмотрение Госдумы в ближайшее время, рассчитывает министр цифрового развития РФ Максут Шадаев.
Он отметил, что сейчас на площадке правительства ведется проработка концепции комплексного законопроекта и когда будет выработана единая позиция по документу, он будет представлен.
Законопроект по регулированию технологии искусственного интеллекта (ИИ) могут внести на рассмотрение Госдумы в ближайшее время, рассчитывает министр цифрового развития РФ Максут Шадаев.
Он отметил, что сейчас на площадке правительства ведется проработка концепции комплексного законопроекта и когда будет выработана единая позиция по документу, он будет представлен.
⚖️Суд постановил, что документы, созданные с помощью ИИ, не защищены адвокатской тайной.
Решение суда Южного округа Нью-Йорка стало важным прецедентом в вопросах адвокатской тайны и использования искусственного интеллекта в юридической сфере. Суд постановил, что документы, созданные с помощью общедоступных AI-инструментов, не могут считаться защищенными адвокатской тайной, если они не были подготовлены по указанию адвоката.
В деле United States v. Heppner суд отказал в защите AI-сгенерированных материалов, основываясь на нескольких ключевых факторах. Во-первых, обвиняемый использовал общедоступный AI-инструмент, условия которого не обеспечивали конфиденциальность. Во-вторых, он действовал без указаний своего адвоката. В-третьих, материалы не отражали ментальные представления адвоката на момент их создания.
Это решение подчеркивает необходимость осторожного подхода к использованию AI в юридических вопросах. Организациям, использующим генеративный AI для работы с чувствительной информацией, следует учитывать несколько важных моментов:
1. Защита не может быть выстроена задним числом: Если AI-аналитика или черновики создаются независимо, а затем передаются адвокату, это не гарантирует защиту адвокатской тайной.
2. Общественные AI-инструменты следует рассматривать как третьи стороны: Если условия использования позволяют доступ к данным, это может привести к утрате адвокатской тайны.
3. Использование корпоративных инструментов для чувствительных вопросов: Необходимо включать в контракты ограничения на использование, раскрытие и доступ к данным.
4. Указания адвоката имеют решающее значение: Для защиты необходимо, чтобы адвокат письменно прописал необходимость конфиденциальности.
5. Тщательная подготовка логов: Описания AI-выходов должны отражать участие адвоката и специализацию на судебных разбирательствах.
6. Мониторинг изменений в судебной практике: Необходимо соблюдать действующую судебную практику по взаимодействию AI с юридическими и этическими нормами.
Решение суда Южного округа Нью-Йорка стало важным прецедентом в вопросах адвокатской тайны и использования искусственного интеллекта в юридической сфере. Суд постановил, что документы, созданные с помощью общедоступных AI-инструментов, не могут считаться защищенными адвокатской тайной, если они не были подготовлены по указанию адвоката.
В деле United States v. Heppner суд отказал в защите AI-сгенерированных материалов, основываясь на нескольких ключевых факторах. Во-первых, обвиняемый использовал общедоступный AI-инструмент, условия которого не обеспечивали конфиденциальность. Во-вторых, он действовал без указаний своего адвоката. В-третьих, материалы не отражали ментальные представления адвоката на момент их создания.
Это решение подчеркивает необходимость осторожного подхода к использованию AI в юридических вопросах. Организациям, использующим генеративный AI для работы с чувствительной информацией, следует учитывать несколько важных моментов:
1. Защита не может быть выстроена задним числом: Если AI-аналитика или черновики создаются независимо, а затем передаются адвокату, это не гарантирует защиту адвокатской тайной.
2. Общественные AI-инструменты следует рассматривать как третьи стороны: Если условия использования позволяют доступ к данным, это может привести к утрате адвокатской тайны.
3. Использование корпоративных инструментов для чувствительных вопросов: Необходимо включать в контракты ограничения на использование, раскрытие и доступ к данным.
4. Указания адвоката имеют решающее значение: Для защиты необходимо, чтобы адвокат письменно прописал необходимость конфиденциальности.
5. Тщательная подготовка логов: Описания AI-выходов должны отражать участие адвоката и специализацию на судебных разбирательствах.
6. Мониторинг изменений в судебной практике: Необходимо соблюдать действующую судебную практику по взаимодействию AI с юридическими и этическими нормами.
⚖️Суд освободил РЖД от ответственности за утечку персональных данных.
Девятый арбитражный апелляционный суд отменил штраф РЖД в 150 тысяч рублей за публикацию в Telegram базы работников объемом более 17 миллионов строк.
РКН обнаружил базу в Telegram-каналах решил что оператор плохо защищал персональные данные и обратился в суд. Суд первой инстанции назначил штраф по ч.1 ст.13.11 КоАП РФ.
РЖД пошло в апелляцию с аргументом: "это была целенаправленная кибератака, возбуждено уголовное дело, доступ получили третьи лица с использованием специализированного ПО. Это не "слив по халатности", а взлом".
Апелляция согласилась, что сам факт утечки еще не означает автоматически установленную вину компании.
Юридическое лицо виновно, если не приняло всех зависящих от него меры по соблюдению требований. А значит, регулятор должен доказать:
- какие именно обязательные меры не были реализованы;
- в чем конкретно состояло нарушение;
- как это повлияло на утечку.
Если же установлено, что имело место внешнее преступное вмешательство, а уголовное дело о взломе не завершено, то нельзя делать вывод о "вине оператора".
Девятый арбитражный апелляционный суд отменил штраф РЖД в 150 тысяч рублей за публикацию в Telegram базы работников объемом более 17 миллионов строк.
РКН обнаружил базу в Telegram-каналах решил что оператор плохо защищал персональные данные и обратился в суд. Суд первой инстанции назначил штраф по ч.1 ст.13.11 КоАП РФ.
РЖД пошло в апелляцию с аргументом: "это была целенаправленная кибератака, возбуждено уголовное дело, доступ получили третьи лица с использованием специализированного ПО. Это не "слив по халатности", а взлом".
Апелляция согласилась, что сам факт утечки еще не означает автоматически установленную вину компании.
Юридическое лицо виновно, если не приняло всех зависящих от него меры по соблюдению требований. А значит, регулятор должен доказать:
- какие именно обязательные меры не были реализованы;
- в чем конкретно состояло нарушение;
- как это повлияло на утечку.
Если же установлено, что имело место внешнее преступное вмешательство, а уголовное дело о взломе не завершено, то нельзя делать вывод о "вине оператора".
⚖️Адвокат проиграл дело из-за чрезмерного использования ИИ.
Окружной судья Нью-Йорка Кэтрин Полк Файлла вынесла постановление, о прекращение дела, вынеся заочное решение в пользу истцов, из-за того, что адвокат ответчика Стивен Фельдман, подавал в суд документы с фальшивыми цитатами, несмотря на несколько указаний суда привести документы в соответствие.
Хотя судья полагала, что из-за нетипичного стиля документы были подготовлены чат-ботом, Фельдман это отрицал, утверждая что он лично написал каждое слово.
Вместо того чтобы признать, что он позволил ИИ составить свои документы, он утверждал, что он только полагался на различные программы ИИ для проверки исопльзуемых цитат. Среди инструментов, которые он признал использованными, были Paxton AI, Vincent AI от vLex и NotebookLM от Google.
В трех документах, подготовленных со стороны защиты, содержалось 14 ошибок на приведенных 60 цитат.
В итоге вместе с проигрышем дела, суд дополнительно наложил на адвоката санкции за ненадлежащее поведение.
Окружной судья Нью-Йорка Кэтрин Полк Файлла вынесла постановление, о прекращение дела, вынеся заочное решение в пользу истцов, из-за того, что адвокат ответчика Стивен Фельдман, подавал в суд документы с фальшивыми цитатами, несмотря на несколько указаний суда привести документы в соответствие.
Хотя судья полагала, что из-за нетипичного стиля документы были подготовлены чат-ботом, Фельдман это отрицал, утверждая что он лично написал каждое слово.
Вместо того чтобы признать, что он позволил ИИ составить свои документы, он утверждал, что он только полагался на различные программы ИИ для проверки исопльзуемых цитат. Среди инструментов, которые он признал использованными, были Paxton AI, Vincent AI от vLex и NotebookLM от Google.
В трех документах, подготовленных со стороны защиты, содержалось 14 ошибок на приведенных 60 цитат.
В итоге вместе с проигрышем дела, суд дополнительно наложил на адвоката санкции за ненадлежащее поведение.
Китайские исследователи опубликовали статью, в которой указали, что возникновение галлюцинаций можно надежно предсказывать с наличием в нейросетях определенной группы нейронов (Н-нейроны).
Несмотря на то, что такие нейроны составляют не более 0.1% от общего числа, именно с ними связано чрезмерно уступчивое поведение нейросети. Т.е. когда модель не знает ответа, она пытается угодить пользователю.
Исследование показало, что ИИ буквально вынужден врать из-за механизма «сверх-покладистости» (over-compliance), заложенного при обучении: он боится промолчать больше, чем ошибиться, в результате модель начинает выдумывать ответы.
При этом если указанные нейроны удалить, пропадет гибкость и модель начать отвечать «не знаю» на любые сложные вопросы.
Please open Telegram to view this post
VIEW IN TELEGRAM
Forwarded from LawLawLand
АЕБ_Смирнова_презентация_full.pdf
840.8 KB
4 февраля состоялся круглый стол Юридического комитета АЕБ, посвящённый автоматизации юридических процессов и использованию цифровых решений в работе юриста.
В панельной дискуссии приняла участие Софья Смирнова, советник M&A и корпоративной практики. Обсуждение получилось живым, честным и — что особенно ценно — максимально приземлённым к реальной практике.
Как обычно, самые важные инсайты лежат в сложностях, ошибках и нюансах внедрения ИИ: работе с людьми, процессами и ожиданиями бизнеса. Именно об этом и шла речь.
📎 Делимся презентацией Софьи. Она не заменит живую дискуссию, но поможет лучше понять логику подходов и решений.
Спасибо коллегам из АЕБ и участникам за содержательный разговор. Тема автоматизации и ИИ в юридической функции точно не закрыта. Продолжение следует!
O2 Consulting❤️
#O2News #ИИ #Софья_Смирнова #Выступления
В панельной дискуссии приняла участие Софья Смирнова, советник M&A и корпоративной практики. Обсуждение получилось живым, честным и — что особенно ценно — максимально приземлённым к реальной практике.
Как обычно, самые важные инсайты лежат в сложностях, ошибках и нюансах внедрения ИИ: работе с людьми, процессами и ожиданиями бизнеса. Именно об этом и шла речь.
📎 Делимся презентацией Софьи. Она не заменит живую дискуссию, но поможет лучше понять логику подходов и решений.
Спасибо коллегам из АЕБ и участникам за содержательный разговор. Тема автоматизации и ИИ в юридической функции точно не закрыта. Продолжение следует!
O2 Consulting
#O2News #ИИ #Софья_Смирнова #Выступления
Please open Telegram to view this post
VIEW IN TELEGRAM
💻В России планируют разделить модели ИИ на суверенные и национальные.
В предварительной версии правительственного законопроекта «Об искусственном интеллекте в РФ» вводятся понятия суверенной модели ИИ и национальной модели ИИ.
Под суверенной авторами законопроекта понимается модель ИИ, все стадии разработки, обучения и эксплуатации которой осуществляются на территории РФ гражданами России и российскими компаниями.
Также суверенная модель должна быть обучена исключительно с использованием наборов данных (датасетов), которые сформированы на территории РФ, без использования компонентов, разработанных за пределами страны.
Национальные модели ИИ могут быть созданы при использовании иностранных open-source-решений, при их обучении также можно использовать не только российские датасеты.
Отдельная статья законопроекта посвящена «доверенным» моделям искусственного интеллекта, предназначенным для работы с критической информационной инфраструктурой. Такими моделями будут считаться системы, безопасность которых подтверждена ФСТЭК и ФСБ, критерии «доверенности» разработает правительство.
Также законопроект содержит положения о безопасном использовании моделей ИИ, требовании информировать пользователей о том, что они взаимодействуют с ИИ (в случае, например, продаж через чат-боты), распределении ответственности в части результатов деятельности ИИ, маркировке синтезированного контента и особенностях правовой охраны объектов интеллектуальной собственности.
В документе говорится, что автором результатов интеллектуальной деятельности, созданных с использованием ИИ, признается пользователь сервиса «в случае наличия его творческого вклада в их создание».
Исключительные права на созданные с использованием ИИ результаты интеллектуальной деятельности также принадлежат пользователю, если договором, заключаемым между владельцем сервиса и пользователем, не предусмотрено иное. При этом владелец сервиса обязан дополнительно проинформировать пользователя обо всех условиях использования результатов интеллектуальной деятельности.
Вступить в силу документ может с 1 сентября 2027 года.
В предварительной версии правительственного законопроекта «Об искусственном интеллекте в РФ» вводятся понятия суверенной модели ИИ и национальной модели ИИ.
Под суверенной авторами законопроекта понимается модель ИИ, все стадии разработки, обучения и эксплуатации которой осуществляются на территории РФ гражданами России и российскими компаниями.
Также суверенная модель должна быть обучена исключительно с использованием наборов данных (датасетов), которые сформированы на территории РФ, без использования компонентов, разработанных за пределами страны.
Национальные модели ИИ могут быть созданы при использовании иностранных open-source-решений, при их обучении также можно использовать не только российские датасеты.
Отдельная статья законопроекта посвящена «доверенным» моделям искусственного интеллекта, предназначенным для работы с критической информационной инфраструктурой. Такими моделями будут считаться системы, безопасность которых подтверждена ФСТЭК и ФСБ, критерии «доверенности» разработает правительство.
Также законопроект содержит положения о безопасном использовании моделей ИИ, требовании информировать пользователей о том, что они взаимодействуют с ИИ (в случае, например, продаж через чат-боты), распределении ответственности в части результатов деятельности ИИ, маркировке синтезированного контента и особенностях правовой охраны объектов интеллектуальной собственности.
В документе говорится, что автором результатов интеллектуальной деятельности, созданных с использованием ИИ, признается пользователь сервиса «в случае наличия его творческого вклада в их создание».
Исключительные права на созданные с использованием ИИ результаты интеллектуальной деятельности также принадлежат пользователю, если договором, заключаемым между владельцем сервиса и пользователем, не предусмотрено иное. При этом владелец сервиса обязан дополнительно проинформировать пользователя обо всех условиях использования результатов интеллектуальной деятельности.
Вступить в силу документ может с 1 сентября 2027 года.
👮Вступил в силу закон о признании цифровой валюты имуществом для УК и УПК.
3 марта 2026 г., вступил в силу Федеральный закон №902782-8 "О внесении изменений в статью 104.1 Уголовного кодекса Российской Федерации и Уголовно-процессуальный кодекс Российской Федерации". Закон признал цифровую валюту имуществом для обоих кодексов и описал процедуру действий следователя по изъятию и признанию цифровой валюты.
"По существу закон вносит три основных изменения: вводится норма о том, что цифровая валюта признается имуществом для целей всего Уголовного кодекса (ст.104.1 УК); цифровая валюта добавляется в перечень имущества (ст.5 УПК); появляется новая ст.164.2 УПК, регламентирующая порядок изъятия цифровой валюты: обязательное участие специалиста, опечатывание материального носителя, возможность перевода валюты на государственный адрес-идентификатор - при наличии технической возможности.
Оговорка о технической возможности появилась между редакциями законопроекта: принудить к передаче доступа технически невозможно. Порядок перевода и хранения по прежнему отнесен к компетенции правительства: подзаконные акты еще предстоит принять, без них ряд норм фактически не заработает в полную силу.
3 марта 2026 г., вступил в силу Федеральный закон №902782-8 "О внесении изменений в статью 104.1 Уголовного кодекса Российской Федерации и Уголовно-процессуальный кодекс Российской Федерации". Закон признал цифровую валюту имуществом для обоих кодексов и описал процедуру действий следователя по изъятию и признанию цифровой валюты.
"По существу закон вносит три основных изменения: вводится норма о том, что цифровая валюта признается имуществом для целей всего Уголовного кодекса (ст.104.1 УК); цифровая валюта добавляется в перечень имущества (ст.5 УПК); появляется новая ст.164.2 УПК, регламентирующая порядок изъятия цифровой валюты: обязательное участие специалиста, опечатывание материального носителя, возможность перевода валюты на государственный адрес-идентификатор - при наличии технической возможности.
Оговорка о технической возможности появилась между редакциями законопроекта: принудить к передаче доступа технически невозможно. Порядок перевода и хранения по прежнему отнесен к компетенции правительства: подзаконные акты еще предстоит принять, без них ряд норм фактически не заработает в полную силу.
💻Разработчиков нейросетей могут обязать раскрывать исходные данные.
Разработчиков отечественных моделей искусственного интеллекта (ИИ) могут обязать раскрывать сведения о наборах данных, на которых обучалась или тестировалась их нейросеть. Такая инициатива обсуждается отраслевыми ассоциациями, компаниями в области ИИ и профильным регулятором в рамках проработки законопроекта по ИИ.
В одной из рабочих версий законопроекта об ИИ (разрабатывается Минцифры) говорится, что разработчик модели должен будет указать наименование набора данных, дату его создания, назначение использования, формат, объем и происхождение. Где будет агрегироваться вся эта информация, пока не определено. Среди обсуждаемых мер – создание отдельного реестра отечественного ИИ или создание реестра отечественных наборов данных.
Представитель Минцифры подтвердил что в текущей версии законопроекта нет положений о раскрытии данных, на которых обучаются модели ИИ.
Правительство РФ прорабатывает законопроект по регулированию ИИ. В нем будут определены критерии «российской» нейросети, авторское право, маркировка ИИ-контента, права, обязанности и ответственность. Правительство предлагает придерживаться гибкого подхода. Например, предотвратить использование ИИ для совершения преступлений и признать использование технологии отягчающим обстоятельством при совершении правонарушений. Это важно прежде всего для защиты интересов граждан.
Представитель Альянса в сфере ИИ (входят «Сбер», «Яндекс», VK, Т-банк, МТС и другие компании) уточнил, что полное и точное описание подобного массива данных в реестровом формате либо потребует ресурсов, несоразмерных результату, либо сведется к формальному перечислению без аналитической ценности.
Разработчиков отечественных моделей искусственного интеллекта (ИИ) могут обязать раскрывать сведения о наборах данных, на которых обучалась или тестировалась их нейросеть. Такая инициатива обсуждается отраслевыми ассоциациями, компаниями в области ИИ и профильным регулятором в рамках проработки законопроекта по ИИ.
В одной из рабочих версий законопроекта об ИИ (разрабатывается Минцифры) говорится, что разработчик модели должен будет указать наименование набора данных, дату его создания, назначение использования, формат, объем и происхождение. Где будет агрегироваться вся эта информация, пока не определено. Среди обсуждаемых мер – создание отдельного реестра отечественного ИИ или создание реестра отечественных наборов данных.
Представитель Минцифры подтвердил что в текущей версии законопроекта нет положений о раскрытии данных, на которых обучаются модели ИИ.
Правительство РФ прорабатывает законопроект по регулированию ИИ. В нем будут определены критерии «российской» нейросети, авторское право, маркировка ИИ-контента, права, обязанности и ответственность. Правительство предлагает придерживаться гибкого подхода. Например, предотвратить использование ИИ для совершения преступлений и признать использование технологии отягчающим обстоятельством при совершении правонарушений. Это важно прежде всего для защиты интересов граждан.
Представитель Альянса в сфере ИИ (входят «Сбер», «Яндекс», VK, Т-банк, МТС и другие компании) уточнил, что полное и точное описание подобного массива данных в реестровом формате либо потребует ресурсов, несоразмерных результату, либо сведется к формальному перечислению без аналитической ценности.
👮ФАС считает, что размещение рекламы в Telegram не законно.
ФАС рассматривает размещение рекламы в Telegram каналах как нарушение законодательства. Основание - запрет распространять рекламу на информационных ресурсах, доступ к которым ограничен на территории РФ.
В ведомстве указали, что Роскомнадзор ограничил доступ к мессенджеру Telegram в соответствии со ст. 15.3 закона «Об информации», поэтому размещение рекламных объявлений в Telegram канале может содержать признаки нарушения ч. 10.7 ст. 5 закона «О рекламе».
ФАС также подчеркнула, что ответственность в подобных случаях может наступать как для рекламодателя, так и для рекламораспространителя.
ФАС рассматривает размещение рекламы в Telegram каналах как нарушение законодательства. Основание - запрет распространять рекламу на информационных ресурсах, доступ к которым ограничен на территории РФ.
В ведомстве указали, что Роскомнадзор ограничил доступ к мессенджеру Telegram в соответствии со ст. 15.3 закона «Об информации», поэтому размещение рекламных объявлений в Telegram канале может содержать признаки нарушения ч. 10.7 ст. 5 закона «О рекламе».
ФАС также подчеркнула, что ответственность в подобных случаях может наступать как для рекламодателя, так и для рекламораспространителя.
💻Исследователи Anthropic выпустили отчет о влиянии ИИ на рынок труда.
В отчете они указали что ИИ теоретически может автоматизировать, и то, что он уже реально автоматизировал.
Исследование произведено на основе анализа более 1 миллиона анонимизированных рабочих сессий Claude.
ИИ далек от достижения своих возможностей: фактический охват составляет лишь небольшую часть реальных возможностей.
Так в Юриспруденция теоретический потолок применения ИИ составляет 80%, а реальных охват только 15%.
Этот разрыв означает, что реальная волна использования ИИ ещё даже не набрала полную силу.
Еще одним выводом исследования является то, что компании не увольняют людей, но перестают нанимать новых сотрудников. В особой группе риска молодые специалисты 22–25 лет, процент найма которых упал примерно на 14% по сравнению с 2022 годом.
В отчете они указали что ИИ теоретически может автоматизировать, и то, что он уже реально автоматизировал.
Исследование произведено на основе анализа более 1 миллиона анонимизированных рабочих сессий Claude.
ИИ далек от достижения своих возможностей: фактический охват составляет лишь небольшую часть реальных возможностей.
Так в Юриспруденция теоретический потолок применения ИИ составляет 80%, а реальных охват только 15%.
Этот разрыв означает, что реальная волна использования ИИ ещё даже не набрала полную силу.
Еще одним выводом исследования является то, что компании не увольняют людей, но перестают нанимать новых сотрудников. В особой группе риска молодые специалисты 22–25 лет, процент найма которых упал примерно на 14% по сравнению с 2022 годом.
💻Google внедряет ИИ в приложения.
Компания Google объявила, что внедряет множество новых возможностей искусственного интеллекта на базе Gemini в приложения Docs, Sheets, Slides и Drive. Новые функции позволяют пользователям быстро создавать полностью отформатированные черновики, слайды и таблицы на основе информации из Gmail, чата и Google Диска.
Это призвано сделать приложения более персонализированными и дать возможность пользователям выполнять задачи с помощью ИИ прямо в самих приложениях, без необходимости переключаться на отдельный инструмент или чат-бот.
Новый инструмент в Документах позволяет пользователям описать, что они хотят создать, а Gemini будет следовать их инструкциям и собирать информацию с Диска, из Gmail и чата, чтобы сгенерировать черновик, который можно быстро поправить и превратить в финальный документ.
Для работы в таблицах теперь можно использовать инструмент «Заполнить с помощью Gemini», который может быстро заполнить таблицы. Эта функция может мгновенно генерировать пользовательский текст, распределять данные по категориям и обобщать их, а также получать информацию в режиме реального времени из поиска Google.
В приложении Slides возможно будет создавать полноценные презентации на основе одного запроса, при необходимости используя соответствующий контекст.
Google Диск это не просто место для хранения файлов, а скорее платформа для работы. Новая функция «Спроси у Gemini в Диске» позволяет задавать сложные запросы на основе хранящихся на диске документов, а также электронных писем gmail, календаря и веб-страниц.
Все новые функции доступны в бета-версии и сначала будут представлены подписчикам Google AI Ultra и Pro.
Компания Google объявила, что внедряет множество новых возможностей искусственного интеллекта на базе Gemini в приложения Docs, Sheets, Slides и Drive. Новые функции позволяют пользователям быстро создавать полностью отформатированные черновики, слайды и таблицы на основе информации из Gmail, чата и Google Диска.
Это призвано сделать приложения более персонализированными и дать возможность пользователям выполнять задачи с помощью ИИ прямо в самих приложениях, без необходимости переключаться на отдельный инструмент или чат-бот.
Новый инструмент в Документах позволяет пользователям описать, что они хотят создать, а Gemini будет следовать их инструкциям и собирать информацию с Диска, из Gmail и чата, чтобы сгенерировать черновик, который можно быстро поправить и превратить в финальный документ.
Для работы в таблицах теперь можно использовать инструмент «Заполнить с помощью Gemini», который может быстро заполнить таблицы. Эта функция может мгновенно генерировать пользовательский текст, распределять данные по категориям и обобщать их, а также получать информацию в режиме реального времени из поиска Google.
В приложении Slides возможно будет создавать полноценные презентации на основе одного запроса, при необходимости используя соответствующий контекст.
Google Диск это не просто место для хранения файлов, а скорее платформа для работы. Новая функция «Спроси у Gemini в Диске» позволяет задавать сложные запросы на основе хранящихся на диске документов, а также электронных писем gmail, календаря и веб-страниц.
Все новые функции доступны в бета-версии и сначала будут представлены подписчикам Google AI Ultra и Pro.
💻Минцифры готовит законопроект о праве отказаться от обслуживания с использованием ИИ.
Министерство цифрового развития, связи и массовых коммуникаций Российской Федерации подготовило законопроект о регулировании технологий искусственного интеллекта, который предусматривает возможность для граждан отказаться от услуг, оказываемых с использованием нейросетей.
Согласно инициативе, организации будут обязаны предоставить клиенту услугу без применения искусственного интеллекта, если пользователь отказался от такого формата взаимодействия. Документ сейчас проходит межведомственное согласование, а ориентировочной датой вступления закона в силу называется 1 сентября 2027 года. Перечень ситуаций, в которых гражданин сможет отказаться от обслуживания ИИ, должно определить правительство.
Проект также содержит ряд других требований к применению искусственного интеллекта. В частности, если ИИ принимает решение, затрагивающее права и свободы человека, пользователь должен быть уведомлён об этом. Разработчиков нейросетей могут обязать тестировать системы на предмет возможного использования в противоправных целях, а также исключать функции, способные привести к дискриминации пользователей.
В Министерство цифрового развития, связи и массовых коммуникаций РФ подчеркнули, что финальная версия законопроекта пока не сформирована, а документ находится на рассмотрении заинтересованных ведомств. В министерстве добавили, что развитие технологий искусственного интеллекта остаётся одним из ключевых направлений работы, однако их применение должно происходить с соблюдением прав и интересов граждан.
Министерство цифрового развития, связи и массовых коммуникаций Российской Федерации подготовило законопроект о регулировании технологий искусственного интеллекта, который предусматривает возможность для граждан отказаться от услуг, оказываемых с использованием нейросетей.
Согласно инициативе, организации будут обязаны предоставить клиенту услугу без применения искусственного интеллекта, если пользователь отказался от такого формата взаимодействия. Документ сейчас проходит межведомственное согласование, а ориентировочной датой вступления закона в силу называется 1 сентября 2027 года. Перечень ситуаций, в которых гражданин сможет отказаться от обслуживания ИИ, должно определить правительство.
Проект также содержит ряд других требований к применению искусственного интеллекта. В частности, если ИИ принимает решение, затрагивающее права и свободы человека, пользователь должен быть уведомлён об этом. Разработчиков нейросетей могут обязать тестировать системы на предмет возможного использования в противоправных целях, а также исключать функции, способные привести к дискриминации пользователей.
В Министерство цифрового развития, связи и массовых коммуникаций РФ подчеркнули, что финальная версия законопроекта пока не сформирована, а документ находится на рассмотрении заинтересованных ведомств. В министерстве добавили, что развитие технологий искусственного интеллекта остаётся одним из ключевых направлений работы, однако их применение должно происходить с соблюдением прав и интересов граждан.
Forwarded from Форма права • Роман Янковский
В Legal Insignt вышла большая статья-интервью про наш проект. На вопросы отвечали главный юрист Яндекса Юля Попелышева и руководитель "Нейроюриста", мой начальник Егор Староверов. Мне кажется, получилось классно! Всем, кто интересуется нашим проектом, советую.
И спасибо редакции "Legal Insight", что выложили в открытый доступ!
И спасибо редакции "Legal Insight", что выложили в открытый доступ!