ForkLog AI
11K subscribers
1.53K photos
267 videos
12 files
5.09K links
Культовый журнал об искусственном интеллекте, нейронках и машинном обучении.


Наши эксперименты с нейронными сетями: https://www.tiktok.com/@forklogai.

Реклама на ForkLog: https://forklog.com/advertisement/
Download Telegram
👾 Исследователи из Центра кибербезопасности Мэриленда обнаружили уязвимость систем искусственного интеллекта, которая может их замедлить и увеличить энергопотребление.

Она работает по типу DoS-атаки и стремится «засорить» нейронную сеть, вынуждая ее использовать больше вычислительных ресурсов.

📥 Уязвимость касается адаптивных к вводу архитектур с несколькими выходами, которые распределяют задачи в зависимости от сложности их решения и оптимизируют использование вычислительных ресурсов. Добавляя небольшое количество шума к входам, исследователи заставляли сеть воспринимать их как более сложные и увеличивать объем вычислений.

Группа отметила, что уязвимость носит теоретический характер, однако по мере распространения таких архитектур угроза может затронуть большое количество алгоритмов.

https://forklog.com/?p=134340

#исследование #кибербезопасность
👾 Искусственные нейронные сети могут переносить вредоносные программы, незаметные для антивирусных систем. К такому выводу пришли исследователи из Университета Китайской академии наук.

Эксперименты с реальными образцами вредоносных программ показали, что замена примерно половины нейронов в модели AlexNet на вредоносное ПО обеспечивает точность модели выше 93,1%. Алгоритм размером 178 МБ может содержать до 37 МБ вредоносных программ, посчитали авторы.

👀 Исследователи протестировали некоторые модели 58 распространенными антивирусными системами, которые не обнаружили вредоносное ПО.

https://forklog.com/issledovateli-nauchilis-nezametno-pomeshhat-vredonosnyj-kod-v-nejroseti/

#исследование #кибербезопасность
🎭 Израильские ученые создали универсальный лицевой шаблон для обмана систем биометрической идентификации.

Исследователи протестировали синтезированное с помощью StyleGAN изображение на наборе данных из 13 000 фото. Они выяснили, что фейковое лицо может имитировать 20% людей из датасета.

🔓 По мнению ученых, технология распознавания чрезвычайно уязвима, даже если у злоумышленников нет информации о цели взлома.

https://forklog.com/nejroset-nauchilas-obmanyvat-sistemy-identifikatsii-s-pomoshhyu-universalnogo-litsa/

#исследование #кибербезопасность
🔎 Microsoft разработала адаптивную ИИ-систему обнаружения вредоносных программ-вымогателей для антивируса Defender. Она дополняет облачную защиту, оценивая риски и блокируя угрозы.

По словам исследователей компании, управляемые человеком программы-вымогатели характеризуются особым набором методов и маркеров поведения, которые не всегда распознаются антивирусом как вредоносные.

ИИ обнаруживает необычные действия якобы стандартных файлов и автоматически повышает или понижает агрессивный характер доставляемых через облако решений о блокировке на основе прогнозов машинного обучения в режиме реального времени.

⚙️ Если алгоритм не сможет оценить реальную величину угрозы и пропустит вредонос, система заблокирует его полезную нагрузку и предотвратит шифрование важных данных.

#Microsoft #кибербезопасность
👀 Ученые из французского исследовательского института IRISA создали систему на базе Raspberry Pi для обнаружения вредоносных программ путем сканирования электромагнитных волн ПК.

Разработчики подключили одноплатный компьютер к осциллографу Picoscope 6407 и датчику H-поля. Затем они запустили на Raspberry Pi сверточные нейросети, которые обучили на безопасных и вредоносных данных определять параметры потенциальной угрозы.

В результате систему натренировали выявлять аномалии в определенных электромагнитных волнах, которые излучают подвергаемые кибератакам компьютеры, с точностью до 99,82%.

💬 По словам ученых, проект является исследовательским и не предназначен для коммерциализации.

#разработка #кибербезопасность
🔎 Исследование: алгоритмы машинного обучения можно принудить к утечке конфиденциальной информации, если скомпрометировать обучающие данные.

Международная команда ученых и инженеры из Google продемонстрировали, как можно извлечь личные сведения вроде номера соцстрахования из языковой модели, вставив скрытый образец в тренировочный датасет. По их словам, злоумышленнику достаточно знать некоторую информацию о структуре набора данных, чтобы получить желаемое.

☢️ Исследователи скомпрометировали 64 предложения в датасете WikiText, чтобы извлечь шестизначное число из обученной модели примерно после 230 угадываний — в 39 раз меньше количества запросов, требуемых в случае «чистого» набора данных. Дополнительно они натренировали «теневые модели» имитировать поведение атакуемых систем, чтобы дополнительно упростить поиск.

«Теневую модель» можно обучить на той же информации, что и основную. Следовательно, алгоритм будет генерировать аналогичные выходные данные для одинаковых запросов. Если оригинальная языковая нейросеть начнет выдавать отличающийся текст, злоумышленник поймет, что вместо этого он извлекает образцы из личных обучающих данных, заявили исследователи.

💬 По словам ученых, такие атаки работают на всех типах систем, включая компьютерное зрение. Особенно подвержено взлому коммерческое здравоохранение, где много работающих с конфиденциальными данными конкурирующих компаний, добавили они.

#исследование #кибербезопасность
📞 Американские исследователи разработали Android-приложение EarSpy, способное с помощью датчиков движения прослушивать разговоры пользователей.

В программе реализована модель атаки по сторонним каналам. Она распознает данные с датчиков движения, которые считывают возникающую при телефонном звонке вибрацию. Ранее этот метод не удавалось использовать из-за менее совершенной конструкции сенсоров.

🔎 EarSpy способна идентифицировать пол и личность собеседников, а также расшифровывать разговоры.

В рамках эксперимента исследователи протестировали систему на смартфонах OnePlus 7T и OnePlus 9. На первом гаджете точность распознавания пола звонящего составила от 77,7% до 98,7%, идентификации его личности — от 63% до 91,2%, а расшифровки беседы — от 51,8% до 56,4%.

📱 На OnePlus 9 модель правильно определила гендерную принадлежность в 88,7% случаев. Точность распознавания личности составила 73,6%, а расшифровки разговора — от 33,3% до 41,6%.

#исследование #кибербезопасность
👾 Исследование: чат-бот ChatGPT способен создавать «полиморфные» вредоносные программы.

Согласно отчету компании по информационной безопасности CyberArk, разработанный с помощью ИИ код демонстрировал «расширенные возможности», которые могут «легко» обойти традиционные механизмы киберзащиты.

Специалисты смогли создать «полиморфный» вирус несмотря на установленные в ChatGPT фильтры. Они «принудили» ИИ отобразить код конкретных вредоносных программ и использовали его для создания сложных эксплойтов, обходящих защиту антивирусов.

☝️ В CyberArk заявили, что ChatGPT способен значительно упростить взлом систем киберпреступниками и спровоцировать серьезные проблемы для специалистов по безопасности.

#OpenAI #чатботы #кибербезопасность
💬 Злоумышленники украли данные более 2000 пользователей через Chrome-расширение для ChatGPT. Также они получили доступ к бизнес-аккаунтам в Facebook.

Quick access to ChatGPT можно было установить из магазина Google Chrome с 3 по 9 марта. Расширение предоставляло быстрый доступ к чат-боту, подключаясь к API, однако также похищало пользовательские данные.

🗂 Специалисты компании в области кибербезопасности Guardio обнаружили, что Quick access to ChatGPT собирало все хранящиеся в браузере файлы cookie. Также расширение похищало токены аутентифицированных сессий в Google, YouTube, Facebook и Twitter.

Это позволило мошенникам получить доступ к Meta Graph API, предназначенному для создания совместимых с Facebook приложений. В результате они смогли использовать учетные записи пользователей и совершать действия от их имени.

🔎 При обнаружении бизнес-аккаунтов расширение собирало данные об активных акциях, остатках на балансах, минимальных порогах выставления счетов и кредитных возможностях.

#кибербезопасность
🔓 В OpenAI сообщили, что платежная информация части пользователей могла быть раскрыта в результате масштабного сбоя ChatGPT.

Согласно сообщению компании, ошибка в библиотеке с открытым исходным кодом под названием redis-py создала проблему с кэшированием. Это привело к тому, что некоторые пользователи могли увидеть платежные и личные данные других людей. Также чат-бот отображал фрагменты историй чужих чатов.

🔧 В компании заявили, что проблема уже исправлена. Также разработчики сообщили о внесении изменений в собственное программное обеспечение для предотвращения подобных инцидентов в будущем.

https://forklog.com/news/ai/sboj-v-chatgpt-raskryl-platezhnuyu-informatsiyu-podpischikov

#OpenAI #кибербезопасность
🌐 Части компьютерного кода Twitter просочились в сеть. Об этом стало известно из судебного иска компании к репозиторию GitHub.

Согласно документу, пользователь онлайн-хранилища под ником FreeSpeechEnthusiast поделился выдержками исходного кода «без разрешения». В Twitter требуют установить личность ответственного за распространение.

☝️ GitHub выполнил запрос соцсети. Представитель репозитория заявил, что компания публично сообщает обо всех удалениях DMCA, осуществляемых по требованию правообладателя.

#Twitter #кибербезопасность
👾 Microsoft представила ИИ-помощника Security Copilot для обнаружения текущих кибератак и прогнозирования будущих угроз.

Система основана на языковой модели GPT-4. Она тренируется на огромных массивах данных, включая триллионах ежедневно получаемых компанией различных сигналов безопасности, в режиме реального времени. ИИ также может обучаться у пользователей.

Ожидается, что технология поможет специалистам по безопасности выявлять связи между различными составляющими взлома. Например, подозрительным электронным письмом, файлом вредоносного ПО и скомпрометированными частями системы.

👥 Инструмент доступен только нескольким корпоративным клиентам. Пока неизвестно, откроют ли систему широкой аудитории.

#Microsoft #кибербезопасность
🔊 Американские ученые разработали кибератаку NUIT для удаленного доступа к смартфонам и IoT-устройствам с помощью умных динамиков и голосовых помощников.

ПО преобразует речевые команды в почти неслышные человеческому уху сигналы, которые могут активировать ИИ-ассистента. Затем ультразвуки встраиваются в носитель вроде приложения или YouTube-видео. Когда к нему подключается уязвимое устройство, оно подчиняется скрытым встроенным командам.

Ученые продемонстрировали две версии атаки: NUIT-1 и NUIT-2. Первая с помощью звуков со смарт-динамика атакует микрофон и ИИ-ассистента на этом же устройстве, а вторая — на другом гаджете.

👾 Исследователи выявили, что ассистенты Apple Siri, Google Assistant, Microsoft Cortana и Amazon Alexa в разной степени уязвимы для атаки. По словам ученых, злоумышленники с помощью NUIT могут совершать нежелательные телефонные звонки или денежные переводы, отключать системы сигнализации или отпирать двери.

#исследование #кибербезопасность
👾 В Meta предупредили о широком распространении вредоносных клонов ChatGPT и подобных ИИ-систем.

Согласно отчету, только с марта 2023 года команда по безопасности обнаружила десять семейств малварей, использующих поддельных чат-ботов для взлома учетных записей и бизнес-страниц пользователей. Также она заблокировала более 1000 вредоносных ссылок на платформах компании.

📈 Эксперты отметили, что мошенничество часто связано с мобильными приложениями и расширениями для браузера, выдающими себя за ChatGPT. Злоумышленники пользуются всплеском интереса к генеративному ИИ, добавили в Meta.

Для защиты пользователей техгигант представил ПО для обнаружения и удаления вредоносных программ.

Также в 2023 году Meta запустит Work — новый тип учетной записи для предприятий. Он позволит получать доступ к инструментам Facebook Business Manager без личного аккаунта.

#Meta #кибербезопасность
Искусственный интеллект меняет практически все отрасли, и кибербезопасность не стала исключением. Глобальный рынок защитных решений на базе ИИ в 2024 году превысил $30 млрд и, согласно прогнозам, к 2030 году достигнет $135 млрд.

В арсенале злоумышленников к традиционным методам вроде социальной инженерии добавились масштабные кампании дезинформации и синтетические медиа. Мюнхенский отчет безопасности и Всемирный экономический форум выделили это направление как один из критических рисков на ближайшие годы.

ForkLog проанализировал ключевые возможности и риски ИИ в сфере цифровой безопасности и подготовил рекомендации по защите от современных угроз.

Читать: https://forklog.com/?p=244625

#кибербезопасность