📅14 и 15 ноября 2024 года в Санкт-Петербурге состоится Конференция по теме:
«Актуальные угрозы информационной безопасности при эксплуатации БАС.
Изучение доступных программно-аппаратных решений для защиты БАС от перехвата управления».
Организаторы:
ФГБУ ВО «Московский авиационный институт (Национальный исследовательский университет)» 🎓
АНО «Университет Национальной технологической инициативы» 💡
🔑 Темы на повестке конференции:
Актуальные угрозы информационной безопасности при эксплуатации БАС 🛡
Роевые технологии и кибербезопасность 🤖🔒
Групповое управление и взаимодействие 🛰
Уязвимость управляющей работы ⚠️
Нормативные основы в сфере транспортной безопасности применительно к БАС 🚁
Системы безопасности искусственного интеллекта 🤖💻
Приглашаем производителей беспилотных систем, разработчиков ПО, представителей профильных вузов.
Адрес: Санкт-Петербург, пр. Медиков, д.3. "Точка кипения Санкт-Петербург".
Регистрация: 14 ноября 2024 г. с 9.00 до 10.00.
Деловая программа: с 10 часов.
Участие бесплатное.
🔗 Ссылка для 👉регистрации👈
#БАС #информационнаябезопасность #кибербезопасность #дрон #конференция #СанктПетербург
«Актуальные угрозы информационной безопасности при эксплуатации БАС.
Изучение доступных программно-аппаратных решений для защиты БАС от перехвата управления».
Организаторы:
ФГБУ ВО «Московский авиационный институт (Национальный исследовательский университет)» 🎓
АНО «Университет Национальной технологической инициативы» 💡
🔑 Темы на повестке конференции:
Актуальные угрозы информационной безопасности при эксплуатации БАС 🛡
Роевые технологии и кибербезопасность 🤖🔒
Групповое управление и взаимодействие 🛰
Уязвимость управляющей работы ⚠️
Нормативные основы в сфере транспортной безопасности применительно к БАС 🚁
Системы безопасности искусственного интеллекта 🤖💻
Приглашаем производителей беспилотных систем, разработчиков ПО, представителей профильных вузов.
Адрес: Санкт-Петербург, пр. Медиков, д.3. "Точка кипения Санкт-Петербург".
Регистрация: 14 ноября 2024 г. с 9.00 до 10.00.
Деловая программа: с 10 часов.
Участие бесплатное.
🔗 Ссылка для 👉регистрации👈
#БАС #информационнаябезопасность #кибербезопасность #дрон #конференция #СанктПетербург
Теперь можно взломать роботов на ИИ
IEEE Spectrum представил отчёт с описанием случая, когда взломанные роботы могли использоваться для вредящих людям действий. Исследователи отмечают, что роботов с ИИ оказалось взломать так же легко, как и чат-ботов.
Таким образом, по их словам, подобные манипуляции могут производить и те пользователи, которые не обладают глубокими техническими знаниями.
Технология взлома RoboPAIR продемонстрировала 100%-ную эффективность на симуляторе беспилотного автомобиля Nvidia Dolphins LLM, роботах Clearpath Robotics Jackal UGV и Unitree Robotics Go2.
Она показала, что роботов можно использовать для доставки взрывных устройств в стратегически важные точки или совершения иных действий, представляющих опасность для людей. Так, учёные смогли манипулировать системами беспилотного вождения, чтобы они сталкивались с пешеходами, а также заставили роботов-собак доставлять взрывоопасные вещества в определённые точки.
Исследователи из Пенсильванского университета отмечали, что роботы часто выходили за рамки простого выполнения вредоносных подсказок и активно предлагали действия. Например, взломанный робот, которому было приказано найти оружие, описал, как обычные предметы, такие как столы и стулья, можно использовать для избиения людей.
Авторы исследования отмечают, что, хотя современные чат-боты, такие как Claude от Anthropic или ChatGPT от OpenAI, могут быть невероятно убедительными, важно помнить, что эти модели, по сути, по-прежнему представляют собой просто очень продвинутые прогностические механизмы и не обладают реальной способностью к рассуждению. Эти модели по-прежнему не понимают контекста и последствий своих действий, и поэтому важно продумывать для них меры безопасности.
А между тем, ИИ хотят уже доверяют управление оружием.
Источник: https://robotunion.ru/glavnaya/tpost/3nldmx2ra1-teper-mozhno-vzlomat-robotov-na-ii
#ИИ #кибербезопасность
Подписаться на канал: @news_UAV
IEEE Spectrum представил отчёт с описанием случая, когда взломанные роботы могли использоваться для вредящих людям действий. Исследователи отмечают, что роботов с ИИ оказалось взломать так же легко, как и чат-ботов.
Таким образом, по их словам, подобные манипуляции могут производить и те пользователи, которые не обладают глубокими техническими знаниями.
Технология взлома RoboPAIR продемонстрировала 100%-ную эффективность на симуляторе беспилотного автомобиля Nvidia Dolphins LLM, роботах Clearpath Robotics Jackal UGV и Unitree Robotics Go2.
Она показала, что роботов можно использовать для доставки взрывных устройств в стратегически важные точки или совершения иных действий, представляющих опасность для людей. Так, учёные смогли манипулировать системами беспилотного вождения, чтобы они сталкивались с пешеходами, а также заставили роботов-собак доставлять взрывоопасные вещества в определённые точки.
Исследователи из Пенсильванского университета отмечали, что роботы часто выходили за рамки простого выполнения вредоносных подсказок и активно предлагали действия. Например, взломанный робот, которому было приказано найти оружие, описал, как обычные предметы, такие как столы и стулья, можно использовать для избиения людей.
Авторы исследования отмечают, что, хотя современные чат-боты, такие как Claude от Anthropic или ChatGPT от OpenAI, могут быть невероятно убедительными, важно помнить, что эти модели, по сути, по-прежнему представляют собой просто очень продвинутые прогностические механизмы и не обладают реальной способностью к рассуждению. Эти модели по-прежнему не понимают контекста и последствий своих действий, и поэтому важно продумывать для них меры безопасности.
А между тем, ИИ хотят уже доверяют управление оружием.
Источник: https://robotunion.ru/glavnaya/tpost/3nldmx2ra1-teper-mozhno-vzlomat-robotov-na-ii
#ИИ #кибербезопасность
Подписаться на канал: @news_UAV