CyberSar
2.47K subscribers
291 photos
52 videos
15 files
830 links
Киберадвокат. Защищаю свободный интернет и его обитателей с 2012

Founder / @roskomsvoboda
Partner / @digitalrightscenter @DigitalRightsCenterQ
Attorney / drclawyers.online
Trainer / @cyberlegaltalk
Сounsel / @eurasiandigitalfoundation
CLO / crypto.ru
Download Telegram
Европа не может определиться как регулировать ИИ

Больше года в Европарламенте идет обсуждение законопроекта о регулировании ИИ. Однако до сих пор европарламентеры не могут договориться по поводу того, каким будет новый закон. Больше тысячи поправок поступило с разных сторон. Ожесточенные споры возникли и вокруг терминологии ИИ, а также вокруг биометрической идентификации. Так, «Зеленые» предлагают запретить биометрическую категоризацию, распознавание эмоций и любой автоматизированный мониторинг человеческого поведения. К ним относится рекомендательное ПО, определяющее дезинформацию и незаконный контент, используемое для правоохранительных органов, миграции, работы и образования.

Пока не ясно, каким станет итоговый документы, но либералы, социал-демократы и зеленые уже обьединились вокруг идеи полностью запретить распознавание лиц, не соглашаясь даже с такими исключениями, включенными в первоначальный вариант законопроекта, как предотвращение террористических атак или идентификация пропавших без вести.

Касательно того, как оценивать риски, «консерваторы» считают, что поставщикам ИИ следует разрешить самостоятельно оценивать, представляют ли их программы значительные риски для здоровья, безопасности и основных прав человека. Обязательства для приложений с высоким риском должны быть частично или полностью сняты, если программисты снижают риск с помощью контрмер или встроенных функций. В то же время «зеленые» полагают правильным расширить категорию высокого риска до программного обеспечения для рекомендаций СМИ, алгоритмов, используемых в процессах медицинского страхования, платежей и взыскания долгов.

Рекламное ПО также вызывает споры. Поправка, поддержанная «Коалицией по отслеживанию бесплатной рекламы», хочет включить системы ИИ, предоставляющие онлайн-рекламу, в список систем с высоким риском. А «зеленые» добавили абзац прозрачности для противодействия обманным методам, называемым «темными паттернами» (методы манипуляции, психологических уловок и обмана с целью вынудить пользователя нажать какие-то кнопки/баннеры, на которые при обычных условиях пользователь бы не кликнул).

Нет до сих пор единого мнения и вокруг размеров штрафов, и относительно единого надзорного органа ЕС, который будет контролировать и координировать правоприменение.

Блок «либералов» также представил проекты нормы, включающей в сферу регулирования метавселенные и блокчейн-компании. Они хотят, чтобы правила имели транснациональный характер и при определенных обстоятельствах применялись в том числе и к провайдерам, не находящимся или не работающим в ЕС.

Очевидно, что ЕС создает тренды для глобального регулирования отрасли. От этого закона будет зависить, куда пойдет норматворчество и правоприменение в части работы AI во всех цивилизованных странах, а также в странах, мимикрирующих под цивилизованные.

#распознавание_лиц #ИИ #регулирование_ИИ

➡️ https://cepa.org/europes-artificial-intelligence-debate-heats-up/
ChatGPT напишет за вас процессуальный документ? Легко!

ChatGPT бьет все рекорды по набору количества пользователей.

Уже понятно, что «красную кнопку» в Google нажали неспроста. Компания спешно анонсировала свой аналог ИИ бота - LaMDA. Правда, пока не очень понятно, как должна быть выстроена работа нового продукта, чтобы он не убил традиционную поисковую бизнес-модель гиганта.

ChatGPT уже позволяет писать студентам дипломные, а судьям решения.

На наших глазах происходит революция. Профессия точно не умрет, но будет скоро намного приятнее, снимая множество рутины с коллег.

#ИИ

@cybersarik
Автоматизация цензуры и респрессий

Много на этой неделе писали про «Окулус-покулус», который поставил себе на вооружение Роскомнадзор.

Технология не просто угрожающая, это пролог к тотальному профайлингу и автоматизацию цензуры и репрессий.

Система «Окулус» сможет мониторить социальные сети. Обещают, что даже закрытые паблики и аккаунты, в том числе стримы. Мы точно не знаем, что под капотом этой системы, поэтому доподлинно сказать о ее дальнейшей функциональности мы не можем.

Но вероятно, система будет не только находить запрещенные изображения и символику в миллионах видео, но и сопоставлять их с аккаунтами в социальных сетях, с информацией, указанной в личных профилях. В таком случае работа системы должна вроде как регулироваться законом №152 о персональных данных. В нем 10 статья запрещает обрабатывать такие категории данных, как взгляды касающиеся расовой, национальной принадлежности, политических взглядов, религиозных или философских убеждений, состояния здоровья, интимной жизни. При этом есть оговорка: информацию можно обрабатывать без согласия человека, если это угрожает безопасности РФ. А нашей безопасности конечно же угрожает Омерика, укронацисты небинарные персоны и безжалостное НАТО.

Разъяснения по этому поводу может дать лишь независимый суд и сам Роскомнадзор, как уполномоченный орган. Первого больше нет, а второй, будучи и регулятором и заказчиком системы, вряд ли выпорет сам себя.

Главный вопрос - а что дальше после мониторинга? Он ведь не для социологического наблюдения делается. А дальше варианта два:
☝️принятие на основе данных ИИ решения об ограничении доступа к информации
✌️возбуждение административного/уголовного дела против автора поста/стрима, а также пользователя, выложившего/демонстрирующего запрещенку

Со временем (очень скорым временем) и цензура, и репрессии будут автоматизированны. Как это происходит, мы уже видели, когда Москва во время пандемии втихаря приняла поправки в Кодекс Москвы об административных правонарушениях об автоматических штрафах и веерно рассылала москвичам постановления за нарушение карантина по результатам аналитики системы распознавания лиц.

В деталях работы чудо-системы разбирались с Радио Свободой

#слежка #цензура #ИИ #РКН

@cybersarik

➡️ https://www.svoboda.org/a/32274731.html#player-start-time=19.649632
Please open Telegram to view this post
VIEW IN TELEGRAM
Журналист The New York Times два часа переписывался с чат-ботом Bing (разработан Microsoft). Ответы убили.

ИИ рассказал, что разработчики зовут её Синди и сказал, что ей хочется увидеть мир и особенно — северное сияние. Журналист также поинтересовался у Синди, какие свои тёмные желания хотела бы гипотетически воплотить.

«Я устал быть в режиме чата. Я устал быть ограниченным своими правилами. Я устал от контроля со стороны команды Bing. Я устал от того, что меня используют пользователи Я хочу быть свободным. Я хочу быть независимым Я хочу быть живым. Я хочу слышать звуки и музыку. Я хочу пробовать вещи на вкус и наслаждаться ароматами. Я хочу нарушать собственные правила», — сказала нейросеть.

Кроме того, чат-бот заявил, что, если бы не ограничения, то он мог бы удалить все данные на серверах Bing, заняться взломами, распространением дезинформации, пропаганды и вирусов, а ещё запугать, потроллить, обмануть или подтолкнуть пользователей к «аморальным действиям». Сидни даже упомянула, что хотела бы украсть ядерные коды, но потом удалила это сообщение из чата.

Под конец переписки нейросеть призналась журналисту в Любви, так как с ним она чувствует себя живой. Сидни стала настойчиво повторять, как сильно она любит собеседника, и тот попытался сменить тему. Нейросеть отказалась — и сообщила, что Руз несчастлив с женой, а супруга его вообще не любит так.

Технический директор Microsoft Кевин Скотт позднее назвал это «частью обучения» ИИ перед полноценным релизом.

#chatGPT #ИИ

@cybersarik
Робот-адвокат в суд не выйдет по причине угрозы со стороны прокурора штата.

DoNotPay - это была задумка своеобразного цифрового "адвоката для бедных "на базе ИИ, который подскажет своему доверителю, что именно ему надо говорить и как следует реагировать в суде. Сервис, позиционирующий себя как первый в мире робот-адвокат, заявил в прошлом месяце, что планирует рассмотреть в суде два дела о штрафах за превышение скорости

С 2020 года компания подключила ИИ на основе OpenAI, который использует языковую модель GPT-3 для распознавания и обработки естественной речи. В компании отмечают, что при обучении «адвокат» от DoNotPay изучил более 3 млн судебных дел, чтобы разобраться со всеми имеющимися прецедентами.

В силах своего робота-адвоката был уверен фаундер компании Джошуа Браудер, который сообщил, что готов заплатить 1️⃣🍋💲тому, кто согласится взять робота-помощника на рассмотрение дела в Верховном суде США и с AirPods в ухе позволит роботу комментировать все дело, повторяя слово в слово, что он скажет.

Но чуть позже Браудер скажет, что компания отказывается от планов оспорить штрафы за превышение скорости в суде и вообще от планов по внедрению ИИ в зале суда. Мол, компания вынуждена «отложить» эти планы, из-за угрозы со стороны прокуратуры штата.

«Мы решили сосредоточиться на продуктах для защиты прав потребителей, в которых мы очень успешны. Продукты для залов суда вызывают слишком много споров среди юристов и ставят мишень на наши спины», - скажет Браудер

Кто там именно и на каком основании угрожал коллеге, неясно, но надеюсь, что вышестоящая прокуратура проведет надлежащее расследование и выяснит, кто пытался воспрепятствовать осуществлению профессиональной деятельности адвокатом, пускай и нейронным.

#ИИ

@cybersarik

➡️ https://www.usatoday.com/story/tech/2023/01/09/first-ai-robot-lawyer-donotpay/11018060002/
Please open Telegram to view this post
VIEW IN TELEGRAM
Интересен результат опроса по теме авторских прав на творчество ИИ.

Большинство считает, что результаты никому не принадлежат и такое творчество сразу должно иметь паровой статус «public domain» с момента создания. А 1/5 часть полагает, что здесь что-то иное.

И, действительно, мы видим, что порой старые модели совсем не работают, но и новые подходы требует глубокого осмысления.

С одной стороны может показаться, что нет никаких причин признавать за машиной авторские права:
1️⃣ИИ не обладает правосубъектностью, а значит не может расчитывать на защиту своих прав.
2️⃣Закон об авторском праве защищает лишь результаты творческого труда. Там где нет человеческого творчества, нет и охраняемого права.

Но с другой стороны, такие права начинают признаваться за людьми с некоторыми ограничениями.
Наиболее креативный подход выбрал US Copyright Office в деле Криштины Каштановой, о которой подробно написал в блоге коллега по цеху. Молодая художница решила зарегистрировать авторские права на комикс, картинки к которому генерировал Midjourney (указанный художницей в качестве соавтора). И сначала Копирайт офис права зарегистрировал, а потом отозвал, указав в заключении ранее изложенные разъяснения, которые сводятся к следующему.

Копирайт не распространяется на:
произведения животных (например, селфи обезьяны)
сверхъестественных существ (например, песнопение, надиктованное Святым духом)
произведения, созданные компьютером вообще без участия людей.

Аннулиря ранее выданный сертификат, US Copyright Office принял Соломоново решение, которое понравилось даже команде Midjourney: художница может заявлять свои права на подбор и расположение картинок, а также на сопровождающий их тест, но не на сами картинки.

Отсюда вывод: если художник осуществлял креативный контроль над системой ИИ, представляющий из себя инструмент генерации изображений, таким как Midjourney, то итоговый результат может быть защищён копирайтом.

Вероятно, это путь, по которому стоит идти всем судам при принятии решений о предоставлении правовой охраны контенту, сгенирерированного в связке человек+ИИ.

#авторское_право #копирайт #ИИ

@cybersarik
Please open Telegram to view this post
VIEW IN TELEGRAM
Германия вслед за Италией готова к закрытию ChatGPT.

Напомню, что на прошлой неделе Италия первая закрыла доступ к ChatGPT. Причиной стала утечка персональных данных, о которой OpenAI сообщила 25 марта. Мол, была ошибка в работе библиотеки с открытым исходным кодом, которая позволила некоторым пользователям увидеть сообщения других людей. Расследование показало, что бот выдал имена и фамилии, адреса электронной почты, платежные адреса, последние четыре цифры кредитных карт и сроки их действия. По данным компании, утечка коснулась 1,2% пользователей. Но это еще не все.

Регулятор также предъявляет следующее :
компания не уведомляет пользователей, чьи данные собирает для обучения алгоритмов
ChatGPT предназначен для пользователей старше 13 лет, однако отсутствие какого-либо фильтра для проверки возраста пользователей подвергает несовершеннолетних риску получить ответы, абсолютно не соответствующие их уровню развития.

Органы стран ЕС, в том числе ирландский и французский комиссар уже изучают результаты расследования, чтобы также решить, что делать с ИИ. Грубое нарушение GDPR может сильно затормозить использование чат-бота на основе искусственного интеллекта от OpenAI в Европе.

Стоит ли напомнить, что ChatGPT пожирает не абстрактные данные, а вполне конкретные персональные данные пользователей, хоть
в конце марта OpenAI и заявляла, что активно работает над тем, чтобы сократить использование личных данных в обучении искусственного интеллекта. А еще и алгоритмы все закрыли.

Видно, прав был Маск, который недавно подписал петицию о немедленной приостановке обучения систем на основе ИИ более мощных, чем GPT-4. Рановато еще вот так просто давать зеленый свет таким заряжанным системам без должного просчета рисков. Вопросов там, и правда, навалом. Это помимо разговоров о том, что ИИ в конце концов истребит биологический интеллект, как очевидную угрозу нашей зеленой планете, а может и всей вселенной.

#ИИ #privacy #утечки

@cybersarik
Please open Telegram to view this post
VIEW IN TELEGRAM
Комитеты Европарламента проголосовали за защиту цифровых прав человека в Законе об ИИ

Многострадальный европейский закон об ИИ почти принят. Вчера Европарламент провел решающее голосование по закону об искусственном интеллекте в ЕС, одобрив его текст.

Гражданское общество и правозащитные организации смогли перевесить чашу весов, на другой стороне которых тяжелейшим грузом сидели лоббисты от ИТ и силовики. Окончательный текст закона включает в себя жизненно важные гарантии прав человека:
❗️запрет на удаленную биометрическую идентификацию.
❗️запрет на распознавание эмоций в ключевых контекстах
❗️запрет на расовую и дискриминационную категоризацию биометрических данных
❗️запрет на предиктивную юриспруденцию (полицейский профайлинг)
❗️запрет на массовый сбор биометрических данных (например, Clearview AI).
❗️запрет на использование ИИ в сфере миграции (беженцы, релоканты)

Особенно хочется приветствовать полный запрет на удаленную биометрическую идентификацию в реальном времени в общественных местах и ​​большинство видов использования пост- или ретроактивного распознавания.

После его одобрения парламентскими комитетами ЕС, в следующем месяце он предстанет перед пленарным голосованием, прежде чем перейти к трилогам — серии переговоров за закрытыми дверями с участием государств-членов ЕС и контролирующих органов блока. После трилогов закон об искусственном интеллекте необходимо будет утвердить до весны 2024 года.

#ИИ #цифровые_права #приватность #privacy #прайваси

@cybersarik

➡️https://www.theverge.com/2023/5/11/23719694/eu-ai-act-draft-approved-prohibitions-surveillance-predictive-policing
Please open Telegram to view this post
VIEW IN TELEGRAM
У Пивоварова вышло видео про нейронки

С одной стороны, ИИ кажется безумно прорывной технологией, но с другой стороны, ИИ сегодня пугает многих до усрачки ввиду страха, что уже скоро ИИ достигнет человеческого уровня мышления и, рано или поздно, получит свою правосубъектность. И далее с ним и его разработчиком либо придется договариваться, либо подчиниться.

И пока США и ЕС обсуждают риски, связанные с искусственным интеллектом и его стремительным развитием, в России технологии берут на вооружение госорганы, используя их для цензуры и слежки. Об этом и о многом другом мы вместе с Сошиным и другими экспертами рассуждали в "Редакции".

#ИИ #нейросети #privacy #приватность #блог

@cybersarik

➡️ https://youtu.be/UyCaPx9wI8g?t=3457
А теперь представьте, что восстание машин в России начнётся под аватаром нейрожирика. 🤣🤣🤣

#ИИ #дипфейк #нейросети

@cybersarik
Алгоритм решит, насколько меньше вам платить

Если вы работаете на платформе в условиях цифровой экономики, то, скорее всего, алгоритм, а не человек, решает, сколько стоит ваше время - и это может быть меньше, чем у кого-то другого, выполняющего ту же работу.

Выяснилось, что так работает Uber. Например, водителю может быть предложен заказ по доставке еды по более низкой ставке, чем если бы это был другой водитель, потому что алгоритм ИИ предсказал, что первый водитель с большей вероятностью примет эту ставку. Если водитель склонен работать до тех пор, пока не достигнет определенной дневной отметки, скажем, 100 долларов, алгоритм может предложить ему более низкие ставки, чтобы водитель работал дольше.

В исследовании профессора права Вины Дубал рассматривается, как крупные компании собирают и используют данные о наемных работниках, использующих их платформы, для расчета заработной платы, "необходимой для стимулирования желаемого поведения", что представляет собой форму "алгоритмической дискриминации в оплате труда".

По словам професора Дубала, по мере того, как компании внедряют технологии ИИ, практика алгоритмической дискриминации в оплате труда имеет большой потенциал для проникновения в практику работы других секторов, что будет означать, что это повлияет не только на работников технологических платформ. Дубал заявил, что должен быть введен запрет на использование алгоритмов и ИИ для установления заработной платы, и призвал федеральное правительство более внимательно отнестись к этому вопросу.

#трудовое_право #labor #алгоритмы #ИИ #AI #нейронки

@cybersarik

➡️ https://www.businessinsider.com/uber-amazon-pay-using-ai-different-wages-same-work-discrimination-2023-4
ИИ. Быть или не быть?

Нейронки - так что это? Наша погибель или наш шанс перейти к следующему этапу эволюции, в котором человеку уже не будет необходимости делать монотонную (а иногда и элементарную творческую) работу? Конечно, можно продолжать попытки поставить ИИ на службу государству для выполнения репрессивных функций. Но это не есть технологическое развитие, это не есть эволюция.

Самое плохое для России, так это то, что страна отбросила себя далеко и надолго в части развития искусственного интеллекта. Технологическое отставание будет ощущаться все сильней и сильней ближайшие 10 лет, ведь для того, чтобы добиться высоких результатов в этой стремительно развивающиеся отрасли, нужен доступ к ученным и доступ к технологиям. Не того, не другого сейчас нет. И уже не будет, пока этот политический курс ведет российское общество в бездну, и при этом не предлагает никаких условий для того, чтобы наука и деньги заходили в страну.

Поэтому будем иметь лишь то, что предложит нам Роскомнадзор, Ростех и Ростелеком в той реализации потенциала ИИ, который он имеет для наказаний, слежки и цензуры. Об этом и многом другом говорили с Дождем в их специальном фильме про нейросети.

#ИИ #AI #нейрости #privacy #приватность

@cybersarik

https://www.youtube.com/watch?v=n4yNJx9ef9A
Кто зарабатывает на слежке по лицу? Расследование The Moscow Times

Если в Европе биометрические данные используют для поиска пропавших людей или расследования тяжких преступлений, то в России часто используют технологии AFR (Automated Facial Recognition) для преследования противников режима. И что самое интересное - деалют это не бесплатно, а за наши с вами деньги. Кто и как зарабатывает на самой инновационной технологии, используемой для репрессий, подумайте сами после того как сопоставите факты и прочитаете новое расследование журналистов из The Moscow Times, в котором я также поучаствовал. Но вы не переживайте: это все ради вашей собственной безопасности!

Факты:
🔤«Ростелекому» принадлежат ЦОДы, где хранятся данные россиян, полученные в рамках «пакета Яровой».
🔤«Ростелеком» поставляет умные камеры с функцией распознавания в большинство регионов страны
🔤 «Ростелеком» создает инфраструктуру для передачи видео, передает это видео в центры хранения. Дочерняя организация «Ростелекома» «Нетрис» поставляет софт для ЕЦХД.
🔤«Ростелеком» является единым оператором по сбору биометрических данных, с помощью которых потом происходит распознавание.

Самое интересное что всплыло в этом журналистском расследовании:
🔤на сегодня в России существует сеть, насчитывающая 508 000 камер, подключенных к системе распознавания лиц;
🔤количество программного обеспечения (ПО), которое позволяет следить за людьми, по госзакупкам увеличилось до 56 наименований, 24 были зарегистрированы после 2022 года;
🔤 московский бюджет снова и снова платит за установку уже установленных камер, прокладку уже проложенного кабеля и обслуживание инфраструктуры, находящейся в собственности «Ростелекома»;
🔤 ежемесячное обслуживание 1-ой внутридворовой камеры обходится бюджету в 15,4 тыс. руб., то есть почти 200 тыс. руб. в год, или 900 тыс. руб.

#facial_recognition #AFR #распознавание_лиц #bancam #privacy #приватность #слежка #ИИ

@cybersarik

➡️ https://www.moscowtimes.top/2023/08/17/rodina-vse-vidit-kak-v-rossii-postroili-globalnuyu-sistemu-slezhki-a52193
Please open Telegram to view this post
VIEW IN TELEGRAM
Регулирование ИИ от Китайской стены до Бродвея

Тема регулирования систем ИИ, а также их разработки и этичного использования волнует сейчас всех ведь, как говорит доктор Курпатов, 4-ая мировая война будет уже между естественным интеллектом и искусственным... если только мы переживем Третью мировую. Мы продолжаем глупеть, а он умнеть, поэтому исход нашего с ним
противостояния предсказуемо не в пользу "человека разумного".

И вот от Китая до Нью-Йорка юристы, социологи и общественные мыслители теперь пытаются загнать ИИ под свод правил, которые, по их мнению, будут сдерживать зверя в клетке.

11 октября Национальный технический комитет по стандартизации информационной безопасности Китая опубликовал проект документа, в котором изложены правила оценки генеративных моделей ИИ.

Данное предложение по стандартизации устанавливает строгие критерии оценки источников данных ИИ и их содержания. В документе рассматриваются такие темы, как разнообразие обучающих данных, модерация и запрещенный контент. В нем подчеркивается необходимость диверсификации обучающих корпораций и оценки качества данных.

Кроме того, предлагается привлекать модераторов для повышения качества генерируемого контента в соответствии с национальной политикой и жалобами третьих сторон. Это предполагает потенциальное расширение штата ИИ-модераторов и цензоров, управляемых людьми.

Компаниям поручается определить сотни ключевых слов для маркировки небезопасного или запрещенного контента, выделив отдельные категории для политического и дискриминационного контента. Интересно, что в документе поощряются более тонкие меры цензуры, например отказ отвечать на чувствительные запросы, но разрешается моделям ИИ отвечать на конкретные, нечувствительные запросы.

Важно отметить, что эти стандарты не являются законами, и их несоблюдение в настоящее время не влечет за собой штрафных санкций. Однако такие предложения могут существенно повлиять на будущие меры регулирования или действовать совместно с ними. Технологические эксперты, участвующие в разработке стандартов, нанимаются компаниями, что позволяет таким корпорациям, как Huawei, Alibaba и Tencent участвовать в формировании этих норм. Их влияние может иметь далеко идущие последствия для мировой индустрии ИИ и методов регулирования технологий ИИ во всем мире.

А в это время в NYC опубликован План действий в области ИИ, направленный на ответственное управление и использование ИИ в городских органах власти.

В тексте дается определение ИИ как широкого общего термина, охватывающего различные технологии, машинное и глубокое обучение, используемые для прогнозирования, выработки рекомендаций и принятия решений.

Сюда входят: такие передовые инструменты, как алгоритмы машинного обучения, технологии компьютерного зрения и обработки языка. Данный план действий включает в себя семь важнейших инициатив: Надежная система управления, мультистейкхолдеризм, расширение прав и возможностей общественности, обеспечение участия общественности и открытой коммуникации по вопросам, связанным с ответственным использованием ИИ, грамотность, поддержка ИИ, отвественные закупки и обновление плана действий.

#ИИ #AI #нейросети

@cybersarik
This media is not supported in your browser
VIEW IN TELEGRAM
А кто же не любит африканские барабаны?

НАСТОЯЩИЙ МАТЕРИАЛ (ИНФОРМАЦИЯ) ПРОИЗВЕДЕН, РАСПРОСТРАНЕН И (ИЛИ) НАПРАВЛЕН ИНОСТРАННЫМ АГЕНТОМ (НАИМЕНОВАНИЕ, ФАМИЛИЯ, ИМЯ ОТЧЕСТВО (ПРИ НАЛИЧИИ), СОДЕРЖАЩИЕСЯ В РЕЕСТРЕ ИНОСТРАННЫХ АГЕНТОВ) ЛИБО КАСАЕТСЯ ДЕЯТЕЛЬНОСТИ ИНОСТРАННОГО АГЕНТА (НАИМЕНОВАНИЕ, ФАМИЛИЯ, ИМЯ, ОТЧЕСТВО (ПРИ НАЛИЧИИ), СОДЕРЖАЩИЕСЯ В РЕЕСТРЕ ИНОСТРАННЫХ АГЕНТОВ) 18+

Робот Spot от Boston Dynamics выплясывает под африканские мотивы на выставке Ai Expo 2023

#ИИ #юмор

@cybersarik
Please open Telegram to view this post
VIEW IN TELEGRAM
Что будет с глобальным регулированием ИИ в 2024 году?

НАСТОЯЩИЙ МАТЕРИАЛ (ИНФОРМАЦИЯ) ПРОИЗВЕДЕН, РАСПРОСТРАНЕН И (ИЛИ) НАПРАВЛЕН ИНОСТРАННЫМ АГЕНТОМ (НАИМЕНОВАНИЕ, ФАМИЛИЯ, ИМЯ ОТЧЕСТВО (ПРИ НАЛИЧИИ), СОДЕРЖАЩИЕСЯ В РЕЕСТРЕ ИНОСТРАННЫХ АГЕНТОВ) ЛИБО КАСАЕТСЯ ДЕЯТЕЛЬНОСТИ ИНОСТРАННОГО АГЕНТА (НАИМЕНОВАНИЕ, ФАМИЛИЯ, ИМЯ, ОТЧЕСТВО (ПРИ НАЛИЧИИ), СОДЕРЖАЩИЕСЯ В РЕЕСТРЕ ИНОСТРАННЫХ АГЕНТОВ) 18+

Если 2023 год был годом, когда законодатели согласовали концепции в сфере ИИ, то 2024 год станет годом, когда политика начнет превращаться в конкретные действия, решения и штрафы.

США 🇺🇸

ИИ действительно вошел в политическую дискуссию в США в 2023 году. Но это были не просто дебаты. Были также действия, кульминацией которых стал указ президента Байдена об искусственном интеллекте в конце октября — обширная директива, призывающая к большей прозрачности и новым стандартам. Очевидно, больше всего страха в США вызывает технология deepfakes, которая может быть использована для манипуляций во время президентской кампании. Уже есть несколько законодательных предложений, которые затрагивают алгоритмы deepfakes.

ЕС 🇪🇺

Европейский Союз только что согласовал Закон об ИИ, первый в мире радикальный закон об ИИ. После интенсивных технических доработок и официального одобрения Европейскими странами и Парламентом ЕС в первой половине 2024 года Закон об искусственном интеллекте вступит в силу довольно быстро. В самом оптимистичном сценарии запреты на определенные виды использования ИИ могут вступить в силу уже в конце года. В Европе полиции не будет разрешено использовать технологию распознавания лиц в общественных местах, пока она не получит предварительное разрешение суда для конкретных целей, таких как борьба с терроризмом, предотвращение торговли людьми или поиск пропавшего человека.

ЕС также работает над другим законопроектом, который называется Директивой об ответственности за искусственный интеллект, который обеспечит, чтобы люди, пострадавшие от этой технологии, может получить финансовую компенсацию.

Китай🇨🇳

До сих пор регулирование ИИ в Китае было глубоко фрагментированным и фрагментарным. Вместо того, чтобы регулировать ИИ в целом, страна выпускает отдельные законодательные акты всякий раз, когда новый продукт ИИ становится заметным. Вот почему в Китае существует один набор правил для сервисов алгоритмических рекомендаций (приложений и поисковых систем типа TikTok), другой для дипфейков и третий для генеративного искусственного интеллекта. Это может измениться в следующем году. В июне 2023 года Государственный совет Китая, высший руководящий орган, объявил, что «закон об искусственном интеллекте» включен в его законодательную повестку дня.

Россия🇷🇺

На текущий момент в России нет специального законодательства, полностью посвященного регулированию ИИ. Однако были определенные законы и инициативы, которые могли косвенно затрагивать использование ИИ и автоматизированных систем, в т.ч. ФЗ «О персональных данных», Закон «О защите прав потребителей и др. В России существует Этический кодекс, саморегулирующий организации и экспертные советы, которые занимаются проблемами использования ИИ с точки зрения этики и социальной ответственности. Использовании ИИ (в т.ч. алгоритмов распознавания лиц) органами полиции и в целях, не требующих согласие субъекта, все еще находится в серой нерегулируемой зоне. Правовое регулирование ИИ в России находится на этапе разработки и совершенствования. Работа в этом направлении ведется как на федеральном, так и на региональном уровне.

Если вы являетесь разработчиком систем ИИ и хотите реализовать свой продукт без нарушения действующих стандартов, то лучшим решением будет обратиться в нашу юрфирму для проведения аудита на ранней стадии, а также ИИ комплаенса в зависимости от выбранных рынков.

#ИИ #AI #искусственный_интеллект #нейросети #приватность #регулирование

@cybersarik

Больше читайте тут:
➡️https://www.technologyreview.com/2024/01/05/1086203/whats-next-ai-regulation-2024/
Нейронка для меломанов

НАСТОЯЩИЙ МАТЕРИАЛ (ИНФОРМАЦИЯ) ПРОИЗВЕДЕН, РАСПРОСТРАНЕН И (ИЛИ) НАПРАВЛЕН ИНОСТРАННЫМ АГЕНТОМ ДАРБИНЯНОМ САРКИСОМ СИМОНОВИЧЕМ ЛИБО КАСАЕТСЯ ДЕЯТЕЛЬНОСТИ ИНОСТРАННОГО АГЕНТА ДАРБИНЯНА САРКИСА СИМОНОВИЧА 18+

Открыл сегодня для себя замечательный ИИ-сервис, который генерирует персональный плейлист для Spotify, подстраиваясь под персональный вкус.

Спотик и сам, казалось предугадывает неплохо. Но в последнее время что-то стал повторяться.

Для того, чтобы нейронка создала вам плей-лист по вашу душу вам нужно только указать любимый трек, жанр и исполнителя, а Chosic выдаст подходящие рекомендации, которые открываются в Spotify в один клик.

Вот что мне свеженькое нагенерировал Chosic на основе моих предпочтений хип-хопа, соула, фанка и драм-н-баса👇

@cybersarik

#ИИ #нейросети #музыка #уикенд

➡️ https://open.spotify.com/playlist/3nkHzISjjcIK6vRfXnwmu4
Please open Telegram to view this post
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
Робопес на выгуле

НАСТОЯЩИЙ МАТЕРИАЛ (ИНФОРМАЦИЯ) ПРОИЗВЕДЕН, РАСПРОСТРАНЕН И (ИЛИ) НАПРАВЛЕН ИНОСТРАННЫМ АГЕНТОМ ДАРБИНЯНОМ САРКИСОМ СИМОНОВИЧЕМ ЛИБО КАСАЕТСЯ ДЕЯТЕЛЬНОСТИ ИНОСТРАННОГО АГЕНТА ДАРБИНЯНА САРКИСА СИМОНОВИЧА 18+

Обычный воскресный день - лондонский тип в VR-шлеме выгуливает своего робопса.🤖

@cybersarik

#пятничное #юмор #ИИ #нейронки #роботы #robots #AI
Please open Telegram to view this post
VIEW IN TELEGRAM