#aipolitics
В начале года в предвыборной кампании в Индонезии посредством технологии дипфейка принял участие покойный лидер Сукарто, что вызвало в стране большие дискуссии об этичности такого формата агитации. Но похоже это было только начало. Теперь эстафету по внедрению дипфейков в политику приняла Индия.
21 января на партийном собрании выступил неожиданный спикер: индийский партийный деятель Мутувел Карунаниди, который умер в 2018 году. На видео Карунаниди ругал правительство за «ограбление государства».
Выступления воскресших политических лидеров не ограничилось этим случаем, а наоборот стало все чаще применяться в политической агитации. ТВ страны даже проводят прямой эфир подобных речей. Издание Straits Times посвятило этому тренду большую статью.
Например, в день голосования в штате Телангана появилось видео, на котором лидер одной из партий призывает голосовать за своих конкурентов. Видео стало вирусным и даже попало на официальную страницу этой партии в социальных сетях. Видео оказалось дипфейком.
После использования контента, созданного ИИ, на выборах в Пакистане, Бангладеш и Индонезии OpenAI (которая создала ChatGPT) и Midjourney (генератор видео и изображений) запретила использование своих общедоступных бесплатных инструментов в политических целях, но обычные люди в Индии довольно легко научились обходить его.
Основатель сайта анализа технологической политики Medianama Нихил Пахва уверен, что «2024 год станет годом дипфейковых выборов». Он пишет, что сгененрированные аудио и видео, выпущенные за несколько дней до выборов, могут реально влиять на политические результаты, так как выявление и ограничение распространения фейка требует времени, которого достаточно для широкого распространения среди избирателей.
Часть общества Индии уже предлагает запретить дипфейки, однако оппоненты указывают, что запрет не даст результата пока ИИ-инструменты широко доступны для обычных пользователей.
Видимо, не только США думают, как спасти демократический процесс, но с этим не закопать технологическое развитие
В начале года в предвыборной кампании в Индонезии посредством технологии дипфейка принял участие покойный лидер Сукарто, что вызвало в стране большие дискуссии об этичности такого формата агитации. Но похоже это было только начало. Теперь эстафету по внедрению дипфейков в политику приняла Индия.
21 января на партийном собрании выступил неожиданный спикер: индийский партийный деятель Мутувел Карунаниди, который умер в 2018 году. На видео Карунаниди ругал правительство за «ограбление государства».
Выступления воскресших политических лидеров не ограничилось этим случаем, а наоборот стало все чаще применяться в политической агитации. ТВ страны даже проводят прямой эфир подобных речей. Издание Straits Times посвятило этому тренду большую статью.
Например, в день голосования в штате Телангана появилось видео, на котором лидер одной из партий призывает голосовать за своих конкурентов. Видео стало вирусным и даже попало на официальную страницу этой партии в социальных сетях. Видео оказалось дипфейком.
После использования контента, созданного ИИ, на выборах в Пакистане, Бангладеш и Индонезии OpenAI (которая создала ChatGPT) и Midjourney (генератор видео и изображений) запретила использование своих общедоступных бесплатных инструментов в политических целях, но обычные люди в Индии довольно легко научились обходить его.
Основатель сайта анализа технологической политики Medianama Нихил Пахва уверен, что «2024 год станет годом дипфейковых выборов». Он пишет, что сгененрированные аудио и видео, выпущенные за несколько дней до выборов, могут реально влиять на политические результаты, так как выявление и ограничение распространения фейка требует времени, которого достаточно для широкого распространения среди избирателей.
Часть общества Индии уже предлагает запретить дипфейки, однако оппоненты указывают, что запрет не даст результата пока ИИ-инструменты широко доступны для обычных пользователей.
Видимо, не только США думают, как спасти демократический процесс, но с этим не закопать технологическое развитие
🔥2👍1
Forwarded from Нецифровая экономика (Dasha Sapozhkova)
🇮🇳 Искусственные выборы: как ИИ-инструменты меняют предвыборную кампанию в Индии
В WhatsApp завирусилось видео с премьер-министром Индии Нарендры Моди, который обращается к избирателям по имени. Непонятно, кто автор видео, но оно уже даёт представление о возможностях ИИ в создании персонализированных предвыборных кампаний. В Индии — стране с почти миллиардом избирателей — это особенно актуально.
Правда, ИИ не без изъяна. В видео у Моди меняется форма оправы очков, а отдельные элементы периодически пикселятся.
Эти видеообращения могут автоматически генерироваться на любом из десятков языков Индии, что, конечно, экономит ресурсы кандидатам.
Но такие инструменты, безобидные на первый взгляд, только сеят подозрительность к технологиям. В том числе у самих кандидатов. Партия самого Моди и оппозиционный Индийский национальный конгресс обвинили друг друга в распространении фейков в интернете.
Один индийский разработчик ИИ-дипфейков, стартап The Indian Deepfaker, в основном монтирует ИИ-ролики для селебритис Болливуда. Он рассказал NYT, что с начала года компании поступило 200 запросов от политиков — из них стартап выполнил только 14.
В WhatsApp завирусилось видео с премьер-министром Индии Нарендры Моди, который обращается к избирателям по имени. Непонятно, кто автор видео, но оно уже даёт представление о возможностях ИИ в создании персонализированных предвыборных кампаний. В Индии — стране с почти миллиардом избирателей — это особенно актуально.
Правда, ИИ не без изъяна. В видео у Моди меняется форма оправы очков, а отдельные элементы периодически пикселятся.
Эти видеообращения могут автоматически генерироваться на любом из десятков языков Индии, что, конечно, экономит ресурсы кандидатам.
Но такие инструменты, безобидные на первый взгляд, только сеят подозрительность к технологиям. В том числе у самих кандидатов. Партия самого Моди и оппозиционный Индийский национальный конгресс обвинили друг друга в распространении фейков в интернете.
Один индийский разработчик ИИ-дипфейков, стартап The Indian Deepfaker, в основном монтирует ИИ-ролики для селебритис Болливуда. Он рассказал NYT, что с начала года компании поступило 200 запросов от политиков — из них стартап выполнил только 14.
👍2
Media is too big
VIEW IN TELEGRAM
#aitrends
На днях Apple опубликовала рекламу своих новых устройств, что неожиданно вызвало скандал, а рекламу пришлось снять с показа.
В рекламе компания подробно описывает возможности новых устройств в которых теперь используются чипы с ИИ, что даст новые возможности для творческого процесса. Показаны символы человеческого творчества: музыкальные инструменты, банки с краской, аркадная видеоигра 80-х годов и бюст человеческой головы, раздавленной гигантским гидравлическим прессом. Когда металлические плиты гидравлического пресса поднимаются, на экране появляется новый iPad Pro от Apple.
Однако такой ход встретил жесткую критику, заключающейся в ключевой претензии: Apple продвигает отказ от человеческого творчества в угоду технологиям. Актер Хью Грант написал в социальных сетях, что реклама Apple представляет собой "разрушение человеческого опыта". В итоге компании пришлось публично извиняться за этот ролик, а также снять её с показа.
Эта ситуация лишний раз демонстрирует растущие опасения о том, что ИИ может заменить даже творческих профессий, казалось бы тех людей, чья работа уникальная и штучная.
Напомню принцип работы генеративных нейронок: она не создает что-то новое, а компилирует результат из загруженных в ней данных (образов, звуков и пр.). Таким образом, люди, которые выступают против ИИ в творческих задачах, возможно, банально не знаю этого или же считают, что их работа не так и уникальна и штучна. Но тогда это уже не тема про технологии, а про восприятие собственной работы.
Посмотрите ролик, так ли он провокационен?
На днях Apple опубликовала рекламу своих новых устройств, что неожиданно вызвало скандал, а рекламу пришлось снять с показа.
В рекламе компания подробно описывает возможности новых устройств в которых теперь используются чипы с ИИ, что даст новые возможности для творческого процесса. Показаны символы человеческого творчества: музыкальные инструменты, банки с краской, аркадная видеоигра 80-х годов и бюст человеческой головы, раздавленной гигантским гидравлическим прессом. Когда металлические плиты гидравлического пресса поднимаются, на экране появляется новый iPad Pro от Apple.
Однако такой ход встретил жесткую критику, заключающейся в ключевой претензии: Apple продвигает отказ от человеческого творчества в угоду технологиям. Актер Хью Грант написал в социальных сетях, что реклама Apple представляет собой "разрушение человеческого опыта". В итоге компании пришлось публично извиняться за этот ролик, а также снять её с показа.
Эта ситуация лишний раз демонстрирует растущие опасения о том, что ИИ может заменить даже творческих профессий, казалось бы тех людей, чья работа уникальная и штучная.
Напомню принцип работы генеративных нейронок: она не создает что-то новое, а компилирует результат из загруженных в ней данных (образов, звуков и пр.). Таким образом, люди, которые выступают против ИИ в творческих задачах, возможно, банально не знаю этого или же считают, что их работа не так и уникальна и штучна. Но тогда это уже не тема про технологии, а про восприятие собственной работы.
Посмотрите ролик, так ли он провокационен?
❤5🤔1
Forwarded from Нецифровая экономика (Dasha Sapozhkova)
Цикл хайпа становится всё короче, и новые профессии умирают, не успев родиться. Только недавно мы пели оды новой профессии промпт-инженера, искусно формулирующего запросы искусственному интеллекту, как сегодня ей уже устроили поминки.
➡️ Новые исследования показывают, что запросы искусственному интеллекту лучше всего формулирует он сам.
Разработчики из калифорнийской компании облачных вычислений VMware решили протестировать, действительно ли LLM выдаёт лучший ответ, если добавлять в запрос фразы вроде «Объясни свой ответ шаг за шагом», «Ты такой же умный, как ChatGPT», «Вы эксперт в математике, мне действительно нужна ваша помощь!». Исследователи протестировали три разные модели с открытым кодом и 60 подобных фраз, предложив решить математические задачи. Вывод: корреляция между качеством ответа и наличием/отсутствием «мотивирующего» промпта отсутствует.
Исследователи предложили LLM самим сгенерировать промпт, и тот работал намного лучше. В итоге, альтернативой методу перебора, который используют промт-инженеры в поиске рабочих ключевых фраз, станут ИИ-модели, которые будут выводить их на основе данных.
Компании уже работают над ИИ-промптингом
Свой промпт-генератор запустила компания Antropic на основе собственного чат-бота Claude. Инструмент доступен в Anthropic Console. Он сам вставляет нужные переменные в ваш базовый запрос, чтобы добиться максимум результата.
🖼 Любопытно, что ИИ-промты работают лучше человеческих и в случае с генерацией изображений. Команда Intel Labs сейчас работает над оптимизацией промта для модели генерации изображений Stable Diffusion XL. Называется сервис NeuroPrompts. Он модифицирует простые промпты вроде «пятнистая лягушка на велосипеде», добавляя не всегда логичные для человека описание вроде «пятнистая лягушка на велосипеде, сложная, элегантная, высокодетализированная, цифровая живопись» — и картинка на выходе получается лучше.
Разработчики из калифорнийской компании облачных вычислений VMware решили протестировать, действительно ли LLM выдаёт лучший ответ, если добавлять в запрос фразы вроде «Объясни свой ответ шаг за шагом», «Ты такой же умный, как ChatGPT», «Вы эксперт в математике, мне действительно нужна ваша помощь!». Исследователи протестировали три разные модели с открытым кодом и 60 подобных фраз, предложив решить математические задачи. Вывод: корреляция между качеством ответа и наличием/отсутствием «мотивирующего» промпта отсутствует.
Исследователи предложили LLM самим сгенерировать промпт, и тот работал намного лучше. В итоге, альтернативой методу перебора, который используют промт-инженеры в поиске рабочих ключевых фраз, станут ИИ-модели, которые будут выводить их на основе данных.
Компании уже работают над ИИ-промптингом
Свой промпт-генератор запустила компания Antropic на основе собственного чат-бота Claude. Инструмент доступен в Anthropic Console. Он сам вставляет нужные переменные в ваш базовый запрос, чтобы добиться максимум результата.
🖼 Любопытно, что ИИ-промты работают лучше человеческих и в случае с генерацией изображений. Команда Intel Labs сейчас работает над оптимизацией промта для модели генерации изображений Stable Diffusion XL. Называется сервис NeuroPrompts. Он модифицирует простые промпты вроде «пятнистая лягушка на велосипеде», добавляя не всегда логичные для человека описание вроде «пятнистая лягушка на велосипеде, сложная, элегантная, высокодетализированная, цифровая живопись» — и картинка на выходе получается лучше.
Please open Telegram to view this post
VIEW IN TELEGRAM
IEEE Spectrum
AI Prompt Engineering Is Dead
Long live AI prompt engineering
❤1
#AIrelations
На Академическом Форуме БРИКС сделали дискуссию с обсуждением международного сотрудничества в развитии ИИ.
Китайский эксперт рассказал про инициативу Пекина создать специальную структуру, которая будет преследовать цель выработать общий подход к ИИ на уровне БРИКС. Российская сторона предложила свой проект использования совместных интересов в сфере ИИ для углубления экономической и политической интеграции объединения. При этом все сошлись на том, что ИИ не должен стать новым элементом глобального неравенства, поэтому нужно недопустить монополизацию управлением развитием ИИ, как это ранее произошло с Интернетом.
Можно сказать точно - политики и эксперты всё отчетливее понимают важность ИИ для мировой политики. А значит нужно готовиться к борьбе естественных разумов за управление искусственным
На Академическом Форуме БРИКС сделали дискуссию с обсуждением международного сотрудничества в развитии ИИ.
Китайский эксперт рассказал про инициативу Пекина создать специальную структуру, которая будет преследовать цель выработать общий подход к ИИ на уровне БРИКС. Российская сторона предложила свой проект использования совместных интересов в сфере ИИ для углубления экономической и политической интеграции объединения. При этом все сошлись на том, что ИИ не должен стать новым элементом глобального неравенства, поэтому нужно недопустить монополизацию управлением развитием ИИ, как это ранее произошло с Интернетом.
Можно сказать точно - политики и эксперты всё отчетливее понимают важность ИИ для мировой политики. А значит нужно готовиться к борьбе естественных разумов за управление искусственным
www.hse.ru
На Академическом форуме БРИКС обсудили возможности и угрозы искусственного интеллекта
В рамках Академического форума БРИКС, который на днях завершил свою работу в Москве, ученые, эксперты и представители бизнеса обсудили вопросы развития технологий искусственного интеллекта (ИИ), в…
Forwarded from Поколение БРИКС
Обсуждение высоких технологий продолжилось на сессии «Искусственный интеллект: друг или враг?». Эксперты единогласно согласились, что регулирование использования технологий ИИ должно быть справедливым и инклюзивным, подразумевающим равные права и ответственность всех стран-участниц процесса в целях обеспечения глобальной безопасности и развития. Формирование специализированной системы обмена передовым опытом в этой области послужило бы интересам всех стран Мирового большинства.
🔥3👍1
The Wall Street Journal написал статью, которая крайне наглядно показывает, как ИИ меняет рынок труда.
Часто озвучиваются опасения, что ИИ может заменить человеческий труд, поэтому это прямо влияет на уровень одобрения внедрения ИИ среди населения. Однако WSJ пишет, что люди постепенно переходят от отрицания к принятию новой реальности.
Так, специалисты теперь сосредоточены на конкуренции с теми, кто лучше разбирается в новых технологиях, и активно совершенствуют свои навыки. Для этого люди берут курсы по работе с искусственным интеллектом и добавляют «модные слова» по типу умения работать с промптами для нейронок в свои резюме. Для подтверждения своих выводов издание приводит данные из свежего отчета Work Trend Index от Microsoft и LinkedIn: за прошедший год количество пользователей LinkedIn, освоивших, согласно их профилю, целый ряд ИИ-инструментов, увеличилось в 142 раза.
Что еще более удивительно, этот возросший спрос слабо коррелирует с потребностями рынка. В статье говорится, что среди компаний высокий спрос наблюдается на ИИ-специалистов «первого уровня» — тех, кто обладает глубокими техническими знаниями или опытом работы с большими языковыми моделями (LLM), на базе которых созданы современные чат-боты, такие, как ChatGPT.
Компании заинтересованы в найме кандидатов с соответствующими навыками, но их на рынке труда недостаточно. Фактически, рынку нужны люди, которые не просто прошли курсы повышения квалификации на онлайн-платформе, но уже знают как применять эти навыки и имеют практический опыт.
При этом аналитические отчеты показывают тренд на снижение числа новых вакансий с ИИ-специализацией, на которые компании ищут сотрудников. По данным CompTIA, одной из ведущих торговых ассоциаций ИТ-индустрии, в 2019 году в среднем открывалось 308 000 вакансий ежемесячно против 180 000 к апрелю 2024 года. Одним из объяснений этому может быть как раз развитие ИИ - нейронки способны самостоятельно писать простой код, чем ранее занимались специалисты начальных уровней.
Фактически, мы вступаем в этап широкого внедрения ИИ, когда хайп вокруг привлекает большое количество людей в эту сферу. При этом сам навык владения ИИ уже скоро перестанет быть чем-то уникальным, и перейдет в разряд "владения ПК", который уже даже не указывают в резюме
Часто озвучиваются опасения, что ИИ может заменить человеческий труд, поэтому это прямо влияет на уровень одобрения внедрения ИИ среди населения. Однако WSJ пишет, что люди постепенно переходят от отрицания к принятию новой реальности.
Так, специалисты теперь сосредоточены на конкуренции с теми, кто лучше разбирается в новых технологиях, и активно совершенствуют свои навыки. Для этого люди берут курсы по работе с искусственным интеллектом и добавляют «модные слова» по типу умения работать с промптами для нейронок в свои резюме. Для подтверждения своих выводов издание приводит данные из свежего отчета Work Trend Index от Microsoft и LinkedIn: за прошедший год количество пользователей LinkedIn, освоивших, согласно их профилю, целый ряд ИИ-инструментов, увеличилось в 142 раза.
Что еще более удивительно, этот возросший спрос слабо коррелирует с потребностями рынка. В статье говорится, что среди компаний высокий спрос наблюдается на ИИ-специалистов «первого уровня» — тех, кто обладает глубокими техническими знаниями или опытом работы с большими языковыми моделями (LLM), на базе которых созданы современные чат-боты, такие, как ChatGPT.
Компании заинтересованы в найме кандидатов с соответствующими навыками, но их на рынке труда недостаточно. Фактически, рынку нужны люди, которые не просто прошли курсы повышения квалификации на онлайн-платформе, но уже знают как применять эти навыки и имеют практический опыт.
При этом аналитические отчеты показывают тренд на снижение числа новых вакансий с ИИ-специализацией, на которые компании ищут сотрудников. По данным CompTIA, одной из ведущих торговых ассоциаций ИТ-индустрии, в 2019 году в среднем открывалось 308 000 вакансий ежемесячно против 180 000 к апрелю 2024 года. Одним из объяснений этому может быть как раз развитие ИИ - нейронки способны самостоятельно писать простой код, чем ранее занимались специалисты начальных уровней.
Фактически, мы вступаем в этап широкого внедрения ИИ, когда хайп вокруг привлекает большое количество людей в эту сферу. При этом сам навык владения ИИ уже скоро перестанет быть чем-то уникальным, и перейдет в разряд "владения ПК", который уже даже не указывают в резюме
❤6👍1
#AI_future
Известный футуролог и изобретатель Рэй Курцвейл (просто почитайте результативность его прогнозов) написал новую книгу «Сингулярность всё ближе: Когда мы сольемся с ИИ». В ней он размышляет, что будет, когда человечество сможет разработать сильный ИИ (AGI - ИИ, способный к самообучению, определению для себя целей и выбору средств для их достижения).
Некоторые тезисы явно достойны внимания, хотя и просятся к детальному обсуждению деталей:
▪️К тому времени, когда дети, рожденные сегодня, будут ходить в детский сад, ИИ, вероятно, превзойдет человека во всех когнитивных задачах, от науки до творчества. Таким образом, ИИ имеет потенциал совершить скачок от революционного изменения цифрового мира к трансформации физического мира.
▪️Как только более умные ИИ найдут оптимальные материалы для максимально эффективного использования альтернативной энергетики, энергия будет почти бесплатной. Большие успехи в робототехнике значительно снизят стоимость труда. Все вместе это означает, что большинство видов товаров станут удивительно дешевыми и доступными.
▪️Несмотря на 200 лет впечатляющего прогресса, наше понимание человеческого тела все еще строится на нечетких представлениях, которые, как правило, в основном верны для большинства пациентов, но, вероятно, не совсем верны для вас. Однако ИИ начинает превращать медицину в точную науку. Накопленные данные, а также современные алгоритмы позволят нам подбирать лекарства для каждого конкретного пациента. Потенциал захватывает дух — мы сможем лечить не только такие заболевания, как рак и болезнь Альцгеймера, но и старение как таковое.
▪️Когда ежегодное увеличение продолжительности жизни человека достигнет 12 месяцев, мы достигнем «скорости побега от старости».
В этом и заключается самое преобразующее обещание ИИ — более долгая и здоровая жизнь, лишенная большинства ограничений, свойственных человечеству с момента его зарождения.
Известный футуролог и изобретатель Рэй Курцвейл (просто почитайте результативность его прогнозов) написал новую книгу «Сингулярность всё ближе: Когда мы сольемся с ИИ». В ней он размышляет, что будет, когда человечество сможет разработать сильный ИИ (AGI - ИИ, способный к самообучению, определению для себя целей и выбору средств для их достижения).
Некоторые тезисы явно достойны внимания, хотя и просятся к детальному обсуждению деталей:
▪️К тому времени, когда дети, рожденные сегодня, будут ходить в детский сад, ИИ, вероятно, превзойдет человека во всех когнитивных задачах, от науки до творчества. Таким образом, ИИ имеет потенциал совершить скачок от революционного изменения цифрового мира к трансформации физического мира.
▪️Как только более умные ИИ найдут оптимальные материалы для максимально эффективного использования альтернативной энергетики, энергия будет почти бесплатной. Большие успехи в робототехнике значительно снизят стоимость труда. Все вместе это означает, что большинство видов товаров станут удивительно дешевыми и доступными.
▪️Несмотря на 200 лет впечатляющего прогресса, наше понимание человеческого тела все еще строится на нечетких представлениях, которые, как правило, в основном верны для большинства пациентов, но, вероятно, не совсем верны для вас. Однако ИИ начинает превращать медицину в точную науку. Накопленные данные, а также современные алгоритмы позволят нам подбирать лекарства для каждого конкретного пациента. Потенциал захватывает дух — мы сможем лечить не только такие заболевания, как рак и болезнь Альцгеймера, но и старение как таковое.
▪️Когда ежегодное увеличение продолжительности жизни человека достигнет 12 месяцев, мы достигнем «скорости побега от старости».
В этом и заключается самое преобразующее обещание ИИ — более долгая и здоровая жизнь, лишенная большинства ограничений, свойственных человечеству с момента его зарождения.
👍3🔥1🥰1
Альянс в сфере ИИ, а также Яков и Партнёры выпустили отчет о международных подходах к регулированию генеративного ИИ (т.е. тех самых нейросетей, в которых любой пользователь может сделать видео, картинку или аудио)
Это одно из первых исследование, где можно увидеть, насколько по-разному страны могут выстраивать правовую рамку для развития ИИ.
Можно сформулировать это так: как найти баланс между полной свободой ИИ и вписыванием его в жесткие рамки? Обе крайности несут риски: бесконтрольное развитие ИИ с непредсказуемыми последствиями, или же зарегулированность,
которая сильно ограничит раскрытие потенциала ИИ (а еще и приведет к замедлению технологического развития).
Именно в поиске своего пути между эти двумя крайностями и находятся сейчас страны. Как отмечают авторы, российский подход к развитию ИИ опирается на "мягкое право", которое осуществляется через механизмы саморегулирования самих участников экосистемы ИИ в стране на уровне технических стандартов, общих принципов и правил. Это позволяет "сохранять баланс между строгостью правил и обширностью возможностей для развития технологии".
Что еще интересно, составители доклада говорят о наиболее серьезных рисках, связанных с развитием такого типа ИИ:
- рост объема некачественного контента (ИИ может генерировать ерунду из-за неправильных данных, недостатка данных, несовершенства алгоритма)
-потенциальный вред от ложных ответов (люди слишком могут доверять ИИ, а он может галлюцинировать, т.е. просто придумывать факты)
- негативное влияние на рынок труда (люди могут начать терять работу, потому что их заменят или если они не будут иметь навыка работы с ИИ)
- цифровое мошенничество (дипфейки!)
- нарушение этических норм (ИИ не существует в понятиях морали, поэтому сами люди должны сделать правила работы ИИ так, чтобы алгоритм отвечал требованиям морали)
#aipaper
Это одно из первых исследование, где можно увидеть, насколько по-разному страны могут выстраивать правовую рамку для развития ИИ.
Можно сформулировать это так: как найти баланс между полной свободой ИИ и вписыванием его в жесткие рамки? Обе крайности несут риски: бесконтрольное развитие ИИ с непредсказуемыми последствиями, или же зарегулированность,
которая сильно ограничит раскрытие потенциала ИИ (а еще и приведет к замедлению технологического развития).
Именно в поиске своего пути между эти двумя крайностями и находятся сейчас страны. Как отмечают авторы, российский подход к развитию ИИ опирается на "мягкое право", которое осуществляется через механизмы саморегулирования самих участников экосистемы ИИ в стране на уровне технических стандартов, общих принципов и правил. Это позволяет "сохранять баланс между строгостью правил и обширностью возможностей для развития технологии".
Что еще интересно, составители доклада говорят о наиболее серьезных рисках, связанных с развитием такого типа ИИ:
- рост объема некачественного контента (ИИ может генерировать ерунду из-за неправильных данных, недостатка данных, несовершенства алгоритма)
-потенциальный вред от ложных ответов (люди слишком могут доверять ИИ, а он может галлюцинировать, т.е. просто придумывать факты)
- негативное влияние на рынок труда (люди могут начать терять работу, потому что их заменят или если они не будут иметь навыка работы с ИИ)
- цифровое мошенничество (дипфейки!)
- нарушение этических норм (ИИ не существует в понятиях морали, поэтому сами люди должны сделать правила работы ИИ так, чтобы алгоритм отвечал требованиям морали)
#aipaper
👍2🔥1
Ранее уже рассматривал промежуточный документ ООН по теме глобального управления ИИ. Похоже, скоро увидим, получилось ли найти консенсус для совместного развития ИИ
Forwarded from HCAI // Регулирование ИИ
🇺🇳Глобальный цифровой договор
Глобальный цифровой договор - инициатива ООН по созданию международного документа, который "обозначит общие принципы открытого, свободного и безопасного цифрового будущего для всех".
Цель этого договора - гарантировать, что цифровые технологии используются ответственно и на благо всех, одновременно устраняя цифровой разрыв и способствуя созданию безопасной и инклюзивной цифровой среды.
На данный момент уже представлена первая редакция документа, охватывающая целый ряд насущных вопросов, среди которых:
🌎 недопущение фрагментации Интернета
🚨 конфиденциальность персональных данных
💻 осуществление прав человека в Интернете
🎓 развитие цифровых компетенций у работающего населения по всему миру
🤖 закрепление критериев ответственности за дискриминацию и введение в заблуждение в Интернете
Что касается ИИ, то договор предлагает создать два новых института с целью развития всестороннего партнерства и международного сотрудничества в этой сфере.
1️⃣ Международная научная группа по ИИ и новым технологиям
Группа будет выпускать междисциплинарные научные отчеты о рисках и мерах по смягчению последствий использования ИИ, опираясь на национальные инициативы регулирования.
2️⃣ Международная контактная группа по управлению ИИ
Планируется, что группа в составе представителей правительств, ответственных за безопасность и управление ИИ, будет ежегодно собираться в рамках соответствующих конференций и совещаний ООН для выработки общего понимания вопросов безопасного, надежного и заслуживающего доверия ИИ.
Согласно докладу Генерального секретаря «Наша общая повестка дня» (2021) Глобальный цифровой договор должен быть согласован на Саммите будущего в сентябре 2024 года в рамках технологического направления с участием всех заинтересованных сторон: правительств, специализированных учреждений ООН, частного сектора, гражданского общества и научных кругов.
#AI #UN #GlobalDigitalCompact
Глобальный цифровой договор - инициатива ООН по созданию международного документа, который "обозначит общие принципы открытого, свободного и безопасного цифрового будущего для всех".
Цель этого договора - гарантировать, что цифровые технологии используются ответственно и на благо всех, одновременно устраняя цифровой разрыв и способствуя созданию безопасной и инклюзивной цифровой среды.
На данный момент уже представлена первая редакция документа, охватывающая целый ряд насущных вопросов, среди которых:
Что касается ИИ, то договор предлагает создать два новых института с целью развития всестороннего партнерства и международного сотрудничества в этой сфере.
Группа будет выпускать междисциплинарные научные отчеты о рисках и мерах по смягчению последствий использования ИИ, опираясь на национальные инициативы регулирования.
Планируется, что группа в составе представителей правительств, ответственных за безопасность и управление ИИ, будет ежегодно собираться в рамках соответствующих конференций и совещаний ООН для выработки общего понимания вопросов безопасного, надежного и заслуживающего доверия ИИ.
Согласно докладу Генерального секретаря «Наша общая повестка дня» (2021) Глобальный цифровой договор должен быть согласован на Саммите будущего в сентябре 2024 года в рамках технологического направления с участием всех заинтересованных сторон: правительств, специализированных учреждений ООН, частного сектора, гражданского общества и научных кругов.
#AI #UN #GlobalDigitalCompact
Please open Telegram to view this post
VIEW IN TELEGRAM
👍1
Forwarded from Кибервойна
«Преодолеть разрывы в области искусственного интеллекта»: принята китайская резолюция по ИИ
В понедельник в Генассамблее ООН была принята китайская резолюция по ИИ под заглавием «Укрепление международного сотрудничества в деле наращивания потенциала в области искусственного интеллекта».
Если американская резолюция, принятая в марте, фокусировалась на безопасности и надёжности ИИ, то китайская, как и прогнозировалось, направлена на преодоление неравенства между странами.
В дипломатическом плане резолюция интересна тем, что её, как и ранее американскую, приняли без голосования. У американской было 123 коспонсора (в т.ч. Китай), у китайской — более 140. США поддержали китайскую резолюцию, а постпред Китая в ООН поблагодарил американцев за то, что они сыграли позитивную роль в процессе. А представитель американской дипмиссии заявил, что новая резолюция является развитием того видения, которое было заложено в американской резолюции.
В мае «Коммерсантъ» со ссылкой на МИД сообщал, что Россия вошла в число основных разработчиков китайского проекта резолюции, но в связи с принятием резолюции пока комментариев с российской стороны не было.
Принятый текст пока не опубликован, но желающие могут ознакомиться с последней версией проекта резолюции от 25 июня (указаны только те коспонсоры, которые были на тот момент).
В понедельник в Генассамблее ООН была принята китайская резолюция по ИИ под заглавием «Укрепление международного сотрудничества в деле наращивания потенциала в области искусственного интеллекта».
Если американская резолюция, принятая в марте, фокусировалась на безопасности и надёжности ИИ, то китайская, как и прогнозировалось, направлена на преодоление неравенства между странами.
В дипломатическом плане резолюция интересна тем, что её, как и ранее американскую, приняли без голосования. У американской было 123 коспонсора (в т.ч. Китай), у китайской — более 140. США поддержали китайскую резолюцию, а постпред Китая в ООН поблагодарил американцев за то, что они сыграли позитивную роль в процессе. А представитель американской дипмиссии заявил, что новая резолюция является развитием того видения, которое было заложено в американской резолюции.
В мае «Коммерсантъ» со ссылкой на МИД сообщал, что Россия вошла в число основных разработчиков китайского проекта резолюции, но в связи с принятием резолюции пока комментариев с российской стороны не было.
Принятый текст пока не опубликован, но желающие могут ознакомиться с последней версией проекта резолюции от 25 июня (указаны только те коспонсоры, которые были на тот момент).
AP News
UN adopts Chinese resolution with US support on closing the gap in access to artificial intelligence
The U.N. General Assembly has adopted a Chinese-sponsored resolution urging wealthy and developed nations to close the widening gap with poorer developing countries and ensure they have equal opportunities to use and benefit from artificial intelligence.
👍1
Forwarded from Облачная дипломатия
МИД занимался прикладными разработками в области искусственного интеллекта ещё в 1994-1996 годах и даже получал за это призы.
(Из главы Анатолия Смирнова в книге 2001 года "Внешнеполитическая информация и современная дипломатия".)
(Из главы Анатолия Смирнова в книге 2001 года "Внешнеполитическая информация и современная дипломатия".)
👍2
Европейцы решили на себе показать, что будет, если принять закон раньше формирования среды, которую он будет регулировать.
За этим опытом с интересом будет следить весь мир
За этим опытом с интересом будет следить весь мир
Forwarded from ForkLog AI
1 августа в ЕС вступает в силу Закон об искусственном интеллекте. Полноценно его основные положения начнут действовать с 2026 года, но до этого времени их будут внедрять с постепенным интервалом.
Критики закона обратили внимание, что поспешные попытки регулировать базовые ИИ-модели ограничат использование технологии, а не риски, связанные с использованием нейросетей.
Подробнее в формате News+: https://forklog.com/?p=237132
#регулирование #ЕС
Критики закона обратили внимание, что поспешные попытки регулировать базовые ИИ-модели ограничат использование технологии, а не риски, связанные с использованием нейросетей.
Подробнее в формате News+: https://forklog.com/?p=237132
#регулирование #ЕС
👍2🤔1
#aihow
ИИ требует все больше данных, но способен ли человек удовлетворить запросы машины?
Один из ключевых принципов ИИ - это обучение на данных и их обработка. К примеру, для обучения языковой модели GPT3 на момент релиза в 2020 году исследователи собрали набор данных из более 570 ГБ текстов, английскую Википедию, два датасета с книгами и датасет WebText2 с текстами веб-страниц.
Человек своей жизнью постоянно создает данные и, кажется, что их дефицита быть не может. Но готовы ли мы делиться информацией о своей жизни?
Технологические компании пытаются решить эту задачу через обезличивание данных, обещание использовать наши данные по определенным инструкциям. Однако чем дальше, тем сложнее реализовать эти обещания, ведь алгоритмы для улучшения своей работы требуют все больше данных.
Развитие же алгоритмов позволяет узнать чувствительную персональную информацию даже из обезличенных данных (вспомните случаи, когда злоумышленники соединили несколько украденных баз данных из разных сервисов, что позволило им идентифицировать конкретных людей).
Для решений этой проблемы компании используют синтетические (искусственно сгенерированные, имитируюрующие реальные) данные. Помимо вопроса персонализации, эти данные позволяют решать ряд других задач:
- Увеличение объема обучающих данных для машинного обучения, когда реальных данных недостаточно
- Создание сбалансированных наборов данных, если в реальных данных есть перекос
- Снижение затрат на сбор и разметку реальных данных
По оценкам аналитиков, к 2030 такие данные будут составлять больше 60% всех данных в мире. Неудивительно, что вокруг них уже формируется целый рынок, растущий по 30% от года к году (аналитики ждут $1.15 млрд к 2027 году)
На фоне всего этого можно явно сказать, что данных для ИИ хватит, но, возможно, мы подойдем к ситуации, в которой выдуманные данные начнут менять уже реальную жизнь человека.
ИИ требует все больше данных, но способен ли человек удовлетворить запросы машины?
Один из ключевых принципов ИИ - это обучение на данных и их обработка. К примеру, для обучения языковой модели GPT3 на момент релиза в 2020 году исследователи собрали набор данных из более 570 ГБ текстов, английскую Википедию, два датасета с книгами и датасет WebText2 с текстами веб-страниц.
Человек своей жизнью постоянно создает данные и, кажется, что их дефицита быть не может. Но готовы ли мы делиться информацией о своей жизни?
Технологические компании пытаются решить эту задачу через обезличивание данных, обещание использовать наши данные по определенным инструкциям. Однако чем дальше, тем сложнее реализовать эти обещания, ведь алгоритмы для улучшения своей работы требуют все больше данных.
Развитие же алгоритмов позволяет узнать чувствительную персональную информацию даже из обезличенных данных (вспомните случаи, когда злоумышленники соединили несколько украденных баз данных из разных сервисов, что позволило им идентифицировать конкретных людей).
Для решений этой проблемы компании используют синтетические (искусственно сгенерированные, имитируюрующие реальные) данные. Помимо вопроса персонализации, эти данные позволяют решать ряд других задач:
- Увеличение объема обучающих данных для машинного обучения, когда реальных данных недостаточно
- Создание сбалансированных наборов данных, если в реальных данных есть перекос
- Снижение затрат на сбор и разметку реальных данных
По оценкам аналитиков, к 2030 такие данные будут составлять больше 60% всех данных в мире. Неудивительно, что вокруг них уже формируется целый рынок, растущий по 30% от года к году (аналитики ждут $1.15 млрд к 2027 году)
На фоне всего этого можно явно сказать, что данных для ИИ хватит, но, возможно, мы подойдем к ситуации, в которой выдуманные данные начнут менять уже реальную жизнь человека.
🔥2
Forwarded from Цифровая реальность
🫠 Языковые модели деградируют из-за синтетических текстов
Исследователи выяснили, что синтетические данные могут ухудшить работу моделей, поскольку они не обладают той же сложностью и разнообразием, что и реальные тексты. Этот недостаток приводит к снижению качества генерации и понимания текстов.
Исследователи обучили языковую модель на статьях из Википедии, а затем попросили модель сгенерировать тексты в стиле этих статей. Далее они включили эти сгенерированные тексты в выборку для следующего сеанса обучения модели. Этот круг они повторили несколько раз. С каждым разом модель делала свою работу всё хуже и хуже. Девятая версия модели, когда её попросили написать статью об английских колокольнях, начала рассуждать о зайцах с разноцветными хвостами.
Суть проблемы заключается в том, что заметки, которые генерируют уже обученные модели, не могут полностью имитировать многообразие реальных человеческих текстов. В реальных данных присутствуют различные стили, жаргоны, профессиональные термины и контексты, которые трудно воссоздать с помощью машинного обучения. Когда языковые модели обучаются на таких однородных синтетических данных, они теряют способность к точной и адекватной обработке информации.
📌 Для улучшения языковых моделей необходимо использовать реальные, а не синтетические данные. Однако проблема заключается в том, что уже сейчас данных для обучения моделей не хватает. Особенно в тех областях, где их и так немного (скажем, редкие языки). Кроме того, уже через несколько лет, по прогнозам, основная часть контента в интернете будет представлять собой сгенерированные данные, а не тексты и изображения, созданные человеком.
Исследователи выяснили, что синтетические данные могут ухудшить работу моделей, поскольку они не обладают той же сложностью и разнообразием, что и реальные тексты. Этот недостаток приводит к снижению качества генерации и понимания текстов.
Исследователи обучили языковую модель на статьях из Википедии, а затем попросили модель сгенерировать тексты в стиле этих статей. Далее они включили эти сгенерированные тексты в выборку для следующего сеанса обучения модели. Этот круг они повторили несколько раз. С каждым разом модель делала свою работу всё хуже и хуже. Девятая версия модели, когда её попросили написать статью об английских колокольнях, начала рассуждать о зайцах с разноцветными хвостами.
Суть проблемы заключается в том, что заметки, которые генерируют уже обученные модели, не могут полностью имитировать многообразие реальных человеческих текстов. В реальных данных присутствуют различные стили, жаргоны, профессиональные термины и контексты, которые трудно воссоздать с помощью машинного обучения. Когда языковые модели обучаются на таких однородных синтетических данных, они теряют способность к точной и адекватной обработке информации.
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥1
НАТО представила обновленную стратегию Союза по ИИ
Предыдущая версия Стратегии появилась в 2021 году и уже тогда прослеживалось явное стремление НАТО воспринимать ИИ как новое поле для соревнования, в-первую очередь, с Китаем.
Примерно в то время активно начали вводиться ограничения на инвестиции в технологические компании Поднебесной, а также на работу западных специалистов в ИИ-проектах с китайскими корнями, были введены запреты на поставку в Китай чипов для нужд ИИ-развития.
Помимо скоординированной внешней политики, Стратегия предполагала, что развитие ИИ должно идти совместно. К примеру, специальный фонд DIANA (Defence Innovation Accelerator for the North Atlantic) выступает связующим звеном между университетами, промышленностью, правительствами и технологическими компаниями всего Альянса.
Фактически, Альянс позиционирует ИИ как технологию, требующую ресурсов (материальных, интеллектуальных), которых в достаточном объеме нет ни у одной страны мира, что означает потребность в скоординированной политике развития ИИ.
В обновленной Стратегии эта мысль раскрывается дальше. Так как лидерство в ИИ становится элементом сохранения лидерства Запада в мире, то необходимо отринуть внутреннюю конкуренцию и снять ограничения, которые ранее замедляли интеграцию научно-исследовательских комплексов стран-участниц.
Из интересных пунктов Стратегии можно выделить следующие:
- Предлагается формировать внутреннюю систему обмена данными для ускорения развития ИИ, что ранее было неприемлемо для европейских стран.
- Обеспечить оперативную совместимость ИИ в военном секторе всех стран Альянса.
- Совместно использовать выч.мощности суперкомпьютеров, имеющихся в странах-участницах.
- НАТО ставит своей целью становление собственных стандартов ИИ, как единственно возможных и принятых в мире.
Смотря на это можно сделать вывод - политизация ИИ нарастает, а по-отдельности страны точно потеряют свою конкурентность в глобальной ИИ-гонке.
#aipolitics
Предыдущая версия Стратегии появилась в 2021 году и уже тогда прослеживалось явное стремление НАТО воспринимать ИИ как новое поле для соревнования, в-первую очередь, с Китаем.
Примерно в то время активно начали вводиться ограничения на инвестиции в технологические компании Поднебесной, а также на работу западных специалистов в ИИ-проектах с китайскими корнями, были введены запреты на поставку в Китай чипов для нужд ИИ-развития.
Помимо скоординированной внешней политики, Стратегия предполагала, что развитие ИИ должно идти совместно. К примеру, специальный фонд DIANA (Defence Innovation Accelerator for the North Atlantic) выступает связующим звеном между университетами, промышленностью, правительствами и технологическими компаниями всего Альянса.
Фактически, Альянс позиционирует ИИ как технологию, требующую ресурсов (материальных, интеллектуальных), которых в достаточном объеме нет ни у одной страны мира, что означает потребность в скоординированной политике развития ИИ.
В обновленной Стратегии эта мысль раскрывается дальше. Так как лидерство в ИИ становится элементом сохранения лидерства Запада в мире, то необходимо отринуть внутреннюю конкуренцию и снять ограничения, которые ранее замедляли интеграцию научно-исследовательских комплексов стран-участниц.
Из интересных пунктов Стратегии можно выделить следующие:
- Предлагается формировать внутреннюю систему обмена данными для ускорения развития ИИ, что ранее было неприемлемо для европейских стран.
- Обеспечить оперативную совместимость ИИ в военном секторе всех стран Альянса.
- Совместно использовать выч.мощности суперкомпьютеров, имеющихся в странах-участницах.
- НАТО ставит своей целью становление собственных стандартов ИИ, как единственно возможных и принятых в мире.
Смотря на это можно сделать вывод - политизация ИИ нарастает, а по-отдельности страны точно потеряют свою конкурентность в глобальной ИИ-гонке.
#aipolitics
👍3