Forwarded from Российская академия наук
Media is too big
VIEW IN TELEGRAM
Как обеспечить доверенный ИИ в критической информационной инфраструктуре — рассказал академик Арутюн Аветисян
Директор Института системного программирования им. В.П. Иванникова РАН, заместитель президента РАН академик Арутюн Аветисян выступил на пленарном заседании «ИИ: Применение, перспективы и вызовы» форума «Микроэлектроника 2025».
Говоря о вызовах безопасности, учёный привёл примеры уязвимостей: от взлома систем распознавания лиц до аварий с автономными автомобилями и психологического воздействия ИИ на людей.
Особую опасность, по его словам, представляют сложные мошеннические схемы с использованием дипфейков, которые подрывают доверие к цифровой информации.
При этом угрозы в ИИ носят принципиально новый, комплексный характер, сочетая кибербезопасность и социо-гуманитарный аспект. Исключить возможность подмены информации можно путём формирования инфраструктуры доверенных баз данных. Даже незначительное искажение данных (менее 1 %) может привести к «отравлению» информации и, как следствие, к обучению системы на некорректных данных, которые потенциально позволят взломать всю систему.
Безопасные, этичные и надёжные технологии искусственного интеллекта в России разрабатывают учёные ИСП РАН. О таких проектах рассказал академик в ролике.
Директор Института системного программирования им. В.П. Иванникова РАН, заместитель президента РАН академик Арутюн Аветисян выступил на пленарном заседании «ИИ: Применение, перспективы и вызовы» форума «Микроэлектроника 2025».
Говоря о вызовах безопасности, учёный привёл примеры уязвимостей: от взлома систем распознавания лиц до аварий с автономными автомобилями и психологического воздействия ИИ на людей.
🗣 В отличие от традиционного IT, искусственный интеллект имеет два измерения: кибербезопасность — традиционную, конечно же, и социо-гуманитарную. И вот это уже новый вызов, с которым мы должны иметь дело», — отметил академик🗣 .
Особую опасность, по его словам, представляют сложные мошеннические схемы с использованием дипфейков, которые подрывают доверие к цифровой информации.
При этом угрозы в ИИ носят принципиально новый, комплексный характер, сочетая кибербезопасность и социо-гуманитарный аспект. Исключить возможность подмены информации можно путём формирования инфраструктуры доверенных баз данных. Даже незначительное искажение данных (менее 1 %) может привести к «отравлению» информации и, как следствие, к обучению системы на некорректных данных, которые потенциально позволят взломать всю систему.
Безопасные, этичные и надёжные технологии искусственного интеллекта в России разрабатывают учёные ИСП РАН. О таких проектах рассказал академик в ролике.
Please open Telegram to view this post
VIEW IN TELEGRAM
👍4🔥1👌1
Делимся актуальной информацией о мероприятиях деловой и научной программы форума «Микроэлектроника 2025»
#программа
#микроэлектроника2025
Please open Telegram to view this post
VIEW IN TELEGRAM
24 сентября состоятся:
#микроэлектроника2025
#трек
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍2🔥2
#микроэлектроника2025
#секция1
#секция2
#секция3
#секция4
#секция6
#секция7
#секция8
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍1
#микроэлектроника2025
#секция9
#секция10
#секция11
#секция12_1
#секция12_2
#секция13
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍1
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
❤3👍2