CyberSar
2.47K subscribers
291 photos
52 videos
15 files
830 links
Киберадвокат. Защищаю свободный интернет и его обитателей с 2012

Founder / @roskomsvoboda
Partner / @digitalrightscenter @DigitalRightsCenterQ
Attorney / drclawyers.online
Trainer / @cyberlegaltalk
Сounsel / @eurasiandigitalfoundation
CLO / crypto.ru
Download Telegram
Forwarded from DRC Qazaqstan
В среду депутаты Европарламента большинством голосов одобрили закон о регулировании искусственного интеллекта (ИИ). За принятие документа проголосовали 499 депутатов, против — 28, воздержались 93 парламентария. Теперь окончательную редакцию закона парламент обсудит с Советом ЕС.

Документ выделяет четыре категории систем ИИ: с ограниченным, неприемлемым и высоким риском, а также генерирующие системы (нейросети).

К высокорисковым закон отнес системы, которые причиняют ущерб здоровью, безопасности и основным правам человека, а также вредят окружающей среде.

Также в эту категорию включили системы, оказывающие влияние на мнение избирателей в политкампаниях, и рекомендательные алгоритмы, используемые соцсетями с более чем 45 млн пользователей.

Новым законом будет запрещено распознавать лица людей в общественных местах в режиме реального времени. Единственное исключение — это расследование тяжких преступлений, и в этом случае правоохранители будут обязаны запрашивать доступ к данным у суда.

Системы распознавания эмоций нельзя будет использовать правоохранительным органам (включая погранконтроль), а также работодателям и учебным заведениям.

Специально оговорен в документе запрет т.н. «прогностических систем полиции» — так называется механизм, который использует ИИ для анализа big data и выявления на их основе потенциальных преступников (или же, напротив, их жертв).

Отдельный раздел документа посвящен нейросетям — таким, например, как ChatGPT. Созданный ими контент обязательно должен быть промаркирован. Любые нейросети не должны допускать в своей работе генерацию нелегального контента.

Кроме того, закон обяжет такие сети, как, например Midjourney или Stable Diffusion, сообщать о материалах, которые они используют для своего обучения и повышения «насмотренности». А обладатели авторских прав на такие материалы могут подать судебный иск, если выяснят, что разработчик незаконно обучал нейросеть на основе их контента.

#новости_oт_DRCQ #Европарламент #AI_Act #искусственный_интеллект #новые_законы
Алгоритм решит, насколько меньше вам платить

Если вы работаете на платформе в условиях цифровой экономики, то, скорее всего, алгоритм, а не человек, решает, сколько стоит ваше время - и это может быть меньше, чем у кого-то другого, выполняющего ту же работу.

Выяснилось, что так работает Uber. Например, водителю может быть предложен заказ по доставке еды по более низкой ставке, чем если бы это был другой водитель, потому что алгоритм ИИ предсказал, что первый водитель с большей вероятностью примет эту ставку. Если водитель склонен работать до тех пор, пока не достигнет определенной дневной отметки, скажем, 100 долларов, алгоритм может предложить ему более низкие ставки, чтобы водитель работал дольше.

В исследовании профессора права Вины Дубал рассматривается, как крупные компании собирают и используют данные о наемных работниках, использующих их платформы, для расчета заработной платы, "необходимой для стимулирования желаемого поведения", что представляет собой форму "алгоритмической дискриминации в оплате труда".

По словам професора Дубала, по мере того, как компании внедряют технологии ИИ, практика алгоритмической дискриминации в оплате труда имеет большой потенциал для проникновения в практику работы других секторов, что будет означать, что это повлияет не только на работников технологических платформ. Дубал заявил, что должен быть введен запрет на использование алгоритмов и ИИ для установления заработной платы, и призвал федеральное правительство более внимательно отнестись к этому вопросу.

#трудовое_право #labor #алгоритмы #ИИ #AI #нейронки

@cybersarik

➡️ https://www.businessinsider.com/uber-amazon-pay-using-ai-different-wages-same-work-discrimination-2023-4
ИИ. Быть или не быть?

Нейронки - так что это? Наша погибель или наш шанс перейти к следующему этапу эволюции, в котором человеку уже не будет необходимости делать монотонную (а иногда и элементарную творческую) работу? Конечно, можно продолжать попытки поставить ИИ на службу государству для выполнения репрессивных функций. Но это не есть технологическое развитие, это не есть эволюция.

Самое плохое для России, так это то, что страна отбросила себя далеко и надолго в части развития искусственного интеллекта. Технологическое отставание будет ощущаться все сильней и сильней ближайшие 10 лет, ведь для того, чтобы добиться высоких результатов в этой стремительно развивающиеся отрасли, нужен доступ к ученным и доступ к технологиям. Не того, не другого сейчас нет. И уже не будет, пока этот политический курс ведет российское общество в бездну, и при этом не предлагает никаких условий для того, чтобы наука и деньги заходили в страну.

Поэтому будем иметь лишь то, что предложит нам Роскомнадзор, Ростех и Ростелеком в той реализации потенциала ИИ, который он имеет для наказаний, слежки и цензуры. Об этом и многом другом говорили с Дождем в их специальном фильме про нейросети.

#ИИ #AI #нейрости #privacy #приватность

@cybersarik

https://www.youtube.com/watch?v=n4yNJx9ef9A
Регулирование ИИ от Китайской стены до Бродвея

Тема регулирования систем ИИ, а также их разработки и этичного использования волнует сейчас всех ведь, как говорит доктор Курпатов, 4-ая мировая война будет уже между естественным интеллектом и искусственным... если только мы переживем Третью мировую. Мы продолжаем глупеть, а он умнеть, поэтому исход нашего с ним
противостояния предсказуемо не в пользу "человека разумного".

И вот от Китая до Нью-Йорка юристы, социологи и общественные мыслители теперь пытаются загнать ИИ под свод правил, которые, по их мнению, будут сдерживать зверя в клетке.

11 октября Национальный технический комитет по стандартизации информационной безопасности Китая опубликовал проект документа, в котором изложены правила оценки генеративных моделей ИИ.

Данное предложение по стандартизации устанавливает строгие критерии оценки источников данных ИИ и их содержания. В документе рассматриваются такие темы, как разнообразие обучающих данных, модерация и запрещенный контент. В нем подчеркивается необходимость диверсификации обучающих корпораций и оценки качества данных.

Кроме того, предлагается привлекать модераторов для повышения качества генерируемого контента в соответствии с национальной политикой и жалобами третьих сторон. Это предполагает потенциальное расширение штата ИИ-модераторов и цензоров, управляемых людьми.

Компаниям поручается определить сотни ключевых слов для маркировки небезопасного или запрещенного контента, выделив отдельные категории для политического и дискриминационного контента. Интересно, что в документе поощряются более тонкие меры цензуры, например отказ отвечать на чувствительные запросы, но разрешается моделям ИИ отвечать на конкретные, нечувствительные запросы.

Важно отметить, что эти стандарты не являются законами, и их несоблюдение в настоящее время не влечет за собой штрафных санкций. Однако такие предложения могут существенно повлиять на будущие меры регулирования или действовать совместно с ними. Технологические эксперты, участвующие в разработке стандартов, нанимаются компаниями, что позволяет таким корпорациям, как Huawei, Alibaba и Tencent участвовать в формировании этих норм. Их влияние может иметь далеко идущие последствия для мировой индустрии ИИ и методов регулирования технологий ИИ во всем мире.

А в это время в NYC опубликован План действий в области ИИ, направленный на ответственное управление и использование ИИ в городских органах власти.

В тексте дается определение ИИ как широкого общего термина, охватывающего различные технологии, машинное и глубокое обучение, используемые для прогнозирования, выработки рекомендаций и принятия решений.

Сюда входят: такие передовые инструменты, как алгоритмы машинного обучения, технологии компьютерного зрения и обработки языка. Данный план действий включает в себя семь важнейших инициатив: Надежная система управления, мультистейкхолдеризм, расширение прав и возможностей общественности, обеспечение участия общественности и открытой коммуникации по вопросам, связанным с ответственным использованием ИИ, грамотность, поддержка ИИ, отвественные закупки и обновление плана действий.

#ИИ #AI #нейросети

@cybersarik
Please open Telegram to view this post
VIEW IN TELEGRAM
Что будет с глобальным регулированием ИИ в 2024 году?

НАСТОЯЩИЙ МАТЕРИАЛ (ИНФОРМАЦИЯ) ПРОИЗВЕДЕН, РАСПРОСТРАНЕН И (ИЛИ) НАПРАВЛЕН ИНОСТРАННЫМ АГЕНТОМ (НАИМЕНОВАНИЕ, ФАМИЛИЯ, ИМЯ ОТЧЕСТВО (ПРИ НАЛИЧИИ), СОДЕРЖАЩИЕСЯ В РЕЕСТРЕ ИНОСТРАННЫХ АГЕНТОВ) ЛИБО КАСАЕТСЯ ДЕЯТЕЛЬНОСТИ ИНОСТРАННОГО АГЕНТА (НАИМЕНОВАНИЕ, ФАМИЛИЯ, ИМЯ, ОТЧЕСТВО (ПРИ НАЛИЧИИ), СОДЕРЖАЩИЕСЯ В РЕЕСТРЕ ИНОСТРАННЫХ АГЕНТОВ) 18+

Если 2023 год был годом, когда законодатели согласовали концепции в сфере ИИ, то 2024 год станет годом, когда политика начнет превращаться в конкретные действия, решения и штрафы.

США 🇺🇸

ИИ действительно вошел в политическую дискуссию в США в 2023 году. Но это были не просто дебаты. Были также действия, кульминацией которых стал указ президента Байдена об искусственном интеллекте в конце октября — обширная директива, призывающая к большей прозрачности и новым стандартам. Очевидно, больше всего страха в США вызывает технология deepfakes, которая может быть использована для манипуляций во время президентской кампании. Уже есть несколько законодательных предложений, которые затрагивают алгоритмы deepfakes.

ЕС 🇪🇺

Европейский Союз только что согласовал Закон об ИИ, первый в мире радикальный закон об ИИ. После интенсивных технических доработок и официального одобрения Европейскими странами и Парламентом ЕС в первой половине 2024 года Закон об искусственном интеллекте вступит в силу довольно быстро. В самом оптимистичном сценарии запреты на определенные виды использования ИИ могут вступить в силу уже в конце года. В Европе полиции не будет разрешено использовать технологию распознавания лиц в общественных местах, пока она не получит предварительное разрешение суда для конкретных целей, таких как борьба с терроризмом, предотвращение торговли людьми или поиск пропавшего человека.

ЕС также работает над другим законопроектом, который называется Директивой об ответственности за искусственный интеллект, который обеспечит, чтобы люди, пострадавшие от этой технологии, может получить финансовую компенсацию.

Китай🇨🇳

До сих пор регулирование ИИ в Китае было глубоко фрагментированным и фрагментарным. Вместо того, чтобы регулировать ИИ в целом, страна выпускает отдельные законодательные акты всякий раз, когда новый продукт ИИ становится заметным. Вот почему в Китае существует один набор правил для сервисов алгоритмических рекомендаций (приложений и поисковых систем типа TikTok), другой для дипфейков и третий для генеративного искусственного интеллекта. Это может измениться в следующем году. В июне 2023 года Государственный совет Китая, высший руководящий орган, объявил, что «закон об искусственном интеллекте» включен в его законодательную повестку дня.

Россия🇷🇺

На текущий момент в России нет специального законодательства, полностью посвященного регулированию ИИ. Однако были определенные законы и инициативы, которые могли косвенно затрагивать использование ИИ и автоматизированных систем, в т.ч. ФЗ «О персональных данных», Закон «О защите прав потребителей и др. В России существует Этический кодекс, саморегулирующий организации и экспертные советы, которые занимаются проблемами использования ИИ с точки зрения этики и социальной ответственности. Использовании ИИ (в т.ч. алгоритмов распознавания лиц) органами полиции и в целях, не требующих согласие субъекта, все еще находится в серой нерегулируемой зоне. Правовое регулирование ИИ в России находится на этапе разработки и совершенствования. Работа в этом направлении ведется как на федеральном, так и на региональном уровне.

Если вы являетесь разработчиком систем ИИ и хотите реализовать свой продукт без нарушения действующих стандартов, то лучшим решением будет обратиться в нашу юрфирму для проведения аудита на ранней стадии, а также ИИ комплаенса в зависимости от выбранных рынков.

#ИИ #AI #искусственный_интеллект #нейросети #приватность #регулирование

@cybersarik

Больше читайте тут:
➡️https://www.technologyreview.com/2024/01/05/1086203/whats-next-ai-regulation-2024/
This media is not supported in your browser
VIEW IN TELEGRAM
Робопес на выгуле

НАСТОЯЩИЙ МАТЕРИАЛ (ИНФОРМАЦИЯ) ПРОИЗВЕДЕН, РАСПРОСТРАНЕН И (ИЛИ) НАПРАВЛЕН ИНОСТРАННЫМ АГЕНТОМ ДАРБИНЯНОМ САРКИСОМ СИМОНОВИЧЕМ ЛИБО КАСАЕТСЯ ДЕЯТЕЛЬНОСТИ ИНОСТРАННОГО АГЕНТА ДАРБИНЯНА САРКИСА СИМОНОВИЧА 18+

Обычный воскресный день - лондонский тип в VR-шлеме выгуливает своего робопса.🤖

@cybersarik

#пятничное #юмор #ИИ #нейронки #роботы #robots #AI
Please open Telegram to view this post
VIEW IN TELEGRAM