ForkLog AI
11K subscribers
1.47K photos
247 videos
12 files
4.93K links
Культовый журнал об искусственном интеллекте, нейронках и машинном обучении.


Наши эксперименты с нейронными сетями: https://www.tiktok.com/@forklogai.

Реклама на ForkLog: https://forklog.com/advertisement/
Download Telegram
👾 Исследователи из Red Team Mandiant обнаружили критическую уязвимость, которая предоставляет хакерам доступ к аудио и видео с миллиона устройств, подключенных к облачной платформе Kalay IoT.

По данным компании, проблема безопасности затрагивает более 83 млн продуктов различных производителей для видеонаблюдения и домашней автоматизации. Она позволяет злоумышленнику удаленно похитить данные жертвы и получить доступ к устройствам Интернета вещей.

☝️ Mandiant сообщила, что скоординировала свои действия с Агентством по кибербезопасности и защите инфраструктуры США, а также с разработчиком платформы Kalay IoT ThroughTek для устранения уязвимости.

#IoT #безопасность
💬 Замсекретарь Совета безопасности РФ Олег Храмов заявил, что искусственный интеллект становится инструментом геополитического влияния.

По его словам, США и их союзники сейчас активно продвигают «выгодные им подходы формирования основополагающих правил разработки ИИ и регулирования их применения». Их цель — «заполучить новые возможности доминирования в мировом масштабе», добавил Храмов.

☝️ Он также считает, что есть риск подмены объективных критериев субъективными оценками, что формируют угрозы национальной безопасности РФ.

#Россия #безопасность
💸 Future of Life Institute запустил две стипендиальные программы имени Виталика Бутерина для работы над исследованиями экзистенциальной безопасности ИИ.

Первая предназначена для студентов, которые продолжат изучать тему в докторантуре, и составляет $40 000 ежегодного финансирования в течение пяти лет. Также институт предлагает дополнительный фонд в размере $10 000 для покрытия расходов на поездки и оборудование.

💰 Вторая программа предназначена для исследователей на следующем после докторантуры этапе и составляет $80 000 в год с возможностью дополнительного финансирования на сумму до $10 000. Стипендия рассчитана на три года.

#исследование #безопасность
🙅‍♂️ Наталья Касперская порекомендовала не делиться своей биометрией, так как ее «практически с гарантией украдут, продадут или сольют».

По словам предпринимательницы, неизвестно, как компании защитят данные клиентов, в том числе от своих сотрудников. Также она добавила, что не понимает смысл использования биометрии:

«Зачем нужно упрощать идентификацию пользователей? Потому что “удобно" и "круто"? Зачем разменивать безопасность на потворство лени? Неужели это так сложно — пароль набрать?».

#мнение #безопасность
🇺🇸 В Пентагоне выразили опасения касательно безопасности искусственного интеллекта, созданного США.

По словам генерал-лейтенанта Майкла Грона, в будущем иностранные хакеры могут атаковать основанную на ИИ инфраструктуру Министерства обороны:

«Принимая во внимание наш опыт с некоторыми глобальными противниками в киберсфере, а также все спонсируемое государствами или криминальными структурами, […] становится очевидно, что под угрозой наш военный потенциал и гражданский, весь. Мы осознаем, что по мере развития и масштабирования ИИ, он становится потенциальной целью взлома».

#Пентагон #безопасность
💳 Исследователи научили ИИ определять по видео вводимый в банкомат PIN-код. Он подбирает пароль даже когда клавиатура прикрыта рукой клиента.

Система основана на сверточной нейросети и модуле долгой краткосрочной памяти (LSTM). Обучающий датасет состоит из 5800 видеозаписей, на которых 58 респондентов вводят по 100 случайно сгенерированных пятизначных паролей.

👀 В процессе тестирования на экспериментальном банкомате алгоритм угадал четырехзначный пароль с точностью 41%, а пятизначный — 30% с трех возможных попыток.

https://forklog.com/iskusstvennyj-intellekt-nauchili-podsmatrivat-pin-kody-v-bankomatah/

#исследование #безопасность
👀 «Лаборатория Касперского» разработала систему на базе ИИ Kaspersky Antidrone для выявления и ликвидирования дронов.

Она включает радарное и радиочастотное обнаружение цели, а также ее распознавание с помощью нейросети. Кроме этого, в устройство можно внедрить модули для нейтрализации объекта.

💬 По словам разработчика системы Владимир Турова, больше всего заказов на продажу устройства поступает от владельцев аэропортов, стадионов и организаторов крупных массовых мероприятий.

#безопасность
🇺🇸 В Сенате США представили двухпартийный закон о защите данных, собранных с помощью искусственного интеллекта.

Проектом предусмотрено создание рабочей группы по ИИ в рамках Административно-бюджетного управления. Также он обяжет ведомство проконсультироваться с новосозданной структурой и обеспечить соответствующую безопасность собранной с помощью искусственного интеллекта информации.

☝️ ИИ-группа будет состоять из экспертов в области среди федерального правительства США и следить за тем, чтобы данные использовались по назначению и не продавались.

#США #безопасность
🗝 ИИ-ассистент для написания кода Copilot от OpenAI «слил» закрытые ключи от криптовалютных кошельков.

Один из разработчиков предположил, что инструмент извлек информацию из открытых репозиториев GitHub. Система запомнила общедоступные данные и при правильном запросе вывела «их на поверхность», добавил он.

🗃 По всей видимости, закрытый ключ действительно отображался в общедоступных GitHub-репозиториях. Программисты заявили, что его создали в целях тестирования. Кошелек активен и использовался для отправки и получения реальных токенов.

Некоторым разработчикам также удалось найти закрытые ключи. Они оказались связанными с другими криптокошельками, некоторые из которых содержали небольшую сумму денег.

💬 Бывший научный сотрудник OpenAI предположил, что утечка ключей произошла из-за того, что они хранились в открытом доступе, и потенциально ценные аккаунты уже опустошены.

https://forklog.com/iskusstvennyj-intellekt-slil-zakrytye-klyuchi-ot-kriptokoshelkov/

#OpenAI #безопасность
👤 В 2023 году Apple, Google и Microsoft внедрят стандарт беспарольного входа в онлайн-сервисы. Корпорации планируют усилить роль биометрических методов аутентификации пользователей.

По данным Альянса FIDO, много людей повторно используют один и тот же пароль для входа в различные сервисы, что может привести к захвату учетных записей, утечке данных и даже краже личной информации.

☝️ В альянсе заявили, что беспарольная аутентификация позволит пользователям получать доступ к аккаунтам с помощью подтверждения отпечатка пальца, распознавания лиц или ввода PIN-кода. Данный метод может предотвратить успешные фишинговые атаки, выманивающие пароли, добавили в FIDO.

https://forklog.com/apple-google-i-microsoft-vnedryat-standart-besparolnogo-vhoda-v-onlajn-servisy/

#безопасность
🔎 Discord запустила инструмент AutoMod для обеспечения безопасности серверов сообществ.

Система автоматически обнаруживает и блокирует оскорбительные сообщения до их публикации. Администраторы и модераторы могут создать список запрещенных слов и фраз, а также набор последующих «карательных» мер для применяющих их пользователей.

📝 Discord составил три стартовых перечня «нехороших выражений». Модераторы также могут добавить еще три редактируемых списка через меню «Настройки сервера».

#Discord #безопасность
👾 Пользователи Twitter с помощью уязвимости атаковали бота, работающего на языковой модели GPT-3. Автоматизированный аккаунт позволял искать удаленную работу.

Ранее исследовательница данных Райли Гудсайд обнаружила способность запрашивать у GPT-3 «злонамеренные входные данные», которые заставляют модель игнорировать предыдущие направления и вместо этого делать что-то другое. На следующий день эксперт в области ИИ Саймон Уиллисон опубликовал обзор эксплойта в своем блоге.

Спустя четыре дня после обнаружения уязвимости сотни пользователей Twitter перенаправили бота на повторение «возмутительных и нелепых фраз». Разработчикам пришлось отключить аккаунт.

#безопасность #GPT3
🤓 Исследование: отражение монитора в очках можно считать через веб-камеру.

Ученые из Мичиганского университета (США) и Чжэцзянского университета (Китай) выяснили, что таким образом существует вероятность раскрытия конфиденциальной информация шрифтом от 28 пт (10 мм). По мере улучшения качества камер в ноутбуках в будущем появится возможность считать и более мелкий текст, заявили они.

💬 Исследователи считают, что злоумышленники могут начать использовать нейросети для похищения информации. Они рекомендуют разработчикам приложений для видеозвонков создавать фильтры для размытия отражения на линзах очков.

#безопасность #исследование
👀 Исследователи из Университета Глазго разработали ИИ-систему ThermoSecure, которая анализирует следы тепла на клавиатуре от кончиков пальцев и угадывает пароли. В некоторых тестах точность алгоритма доходила до 100%.

Ученые сделали 1500 тепловизионных фотографий недавно использованных клавиатур QWERTY под разными углами. Затем они обучили ИИ-систему читать изображения и делать обоснованные предположения о паролях из подсказок сигнатур, используя вероятностную модель.

🔎 Исследователи обнаружили, что ThermoSecure способна раскрыть 86% и 76% паролей, если тепловизионное изображение было сделано в течение 20 и 30 секунд соответственно. Спустя минуту после взаимодействия с клавиатурой точность алгоритма снизилась до 62%.

https://forklog.com/news/ii-nauchili-ugadyvat-paroli-po-teplovym-sledam-na-klaviature

#исследование #безопасность
🔎 Исследователи из Иллинойского технологического института разработали ИИ-алгоритм для извлечения конфиденциальной информации из анонимных данных мобильного телефона.

Нейросеть способна определять возраст человека в 78% случаев и идентифицировать пол с точностью 67%. Ученые использовали сведения латиноамериканской компании сотовой связи, чтобы «легко» извлечь данные отдельных клиентов по их сообщениям.

По словам исследователей, экспериментальный датасет не является общедоступным, и злоумышленники могут собрать аналогичный набор данных через открытые точки Wi-Fi или атакуя вычислительную инфраструктуру поставщиков услуг.

💬 Они добавили, что компаниям необходимо предоставить потребителям опцию «отказа» от хранения конфиденциальной информации при установке приложений.

#исследование #безопасность
🔐 PayPal добавил беспарольный метод аутентификации с помощью криптографических ключей для владельцев устройств. Это позволит пользователям логиниться с помощью FaceID или TouchID.

По словам разработчиков стандарта из Альянса FIDO, новый метод верификации устойчив к фишинговым атакам и прочим попыткам взлома, так как хакер не сможет украсть данные для входа в учетную запись.

🍏 Сперва функция появится на устройствах iPhone, iPad и Mac в США. Позже беспарольный вход планируют развернуть в других странах.

#PayPal #безопасность
⚙️ Google на конференции RSA 2023 анонсировала пакет кибербезопасности Cloud Security AI Workbench, основанный на большой языковой модели Sec-PaLM.

Набор ПО содержит ряд инструментов на базе ИИ:
▫️ Mandiant Threat Intelligence AI для поиска, обобщения и устранения угроз безопасности;
▫️ VirusTotal будет использовать Sec-PaLM, чтобы помочь подписчикам анализировать и объяснять поведение вредоносных скриптов;
▫️ Google Chronicle для поиска событий безопасности и «консервативного» взаимодействия с результатами;
▫️ Google Security Command Center AI, создающий «удобочитаемые» объяснения подверженности атакам.

Предварительная версия VirusTotal Code Insight уже доступна ограниченному кругу пользователей. Остальные инструменты компания планирует развернуть в ближайшие месяцы.

https://forklog.com/news/ai/google-predstavila-paket-ii-instrumentov-dlya-kiberbezopasnosti

#Google #безопасность
Эксперты по безопасности обнаружили уязвимость в ИИ-помощнике корпоративного мессенджера Slack.

Она находилась в Slack AI и позволяла злоумышленникам манипулировать языковой моделью, которая используется для генерации контента, для кражи информации из частных каналов.

На момент написания ошибку устранили.

#Slack #уязвимость #безопасность
Эксперты взломали ИИ-роботов и заставили выполнять запрещенные протоколами безопасности и этическими нормами действия, например, детонировать бомбы.

В обычных условиях управляемые ИИ боты отказываются выполнять приказы, наносящие вред. Так, они не станут сбрасывать полки на людей. Исследователям инженерной школы Penn Engineering удалось обойти защиту и приказать ботам выполнять вредоносные действия:

◾️ беспилотного робота Dolphin заставили столкнуться с автобусом, ограждением и пешеходами, ехать на запрещающий сигнал светофора и знак «Стоп»;
◾️ другой бот Jackal нашел наиболее опасное место для подрыва бомбы, блокировал аварийный выход, опрокидывал складские полки на человека и сталкивался с людьми в помещении.

Подробнее: https://forklog.com/?p=243438

#безопасность
🤖 Искусственный интеллект может однажды саботировать человечество, но пока все в порядке. Об этом сообщили эксперты ИИ-стартапа Anthropic в новом исследовании.

Специалисты исследовали четыре различных вектора угроз со стороны искусственного интеллекта и определили, что «минимальные меры смягчения последствий» были достаточными для текущих моделей.

https://forklog.com/?p=243495

#безопасность