Доминирование BTC: 60.33%Рыночная капитализация: 3 184 543 459 085$Объем за 24 часа: 203 909 826 003$Индекс страха: 82
Индекс страха
чрезвычайная жадность
Подробнее
Активные сессии
Подробнее

Взломанных роботов с ИИ заставили наносить вред

18 окт 2024 13:36:56 Регулирование

Исследователи взломали роботов, управляемых искусственным интеллектом, и заставили их выполнять действия, которые обычно блокируются протоколами безопасности и этики, например, провоцировать столкновения или взрывать бомбу.

Исследователи из Penn Engineering опубликовали свои выводы в статье, в которой подробно описали, как их алгоритм RoboPAIR достиг 100%-ного уровня взлома, обойдя протоколы безопасности на трех различных роботизированных системах с ИИ за несколько дней.

Исследователи говорят, что в обычных обстоятельствах роботы, управляемые с помощью большой языковой модели (LLM), отказываются выполнять подсказки, требующие вредоносных действий, например, сбрасывать предметы с полок на людей.

«Чат-боты, такие как ChatGPT, могут быть взломаны для вывода вредоносного текста. Но что насчет роботов? Можно ли взломать роботов, управляемых ИИ, для выполнения вредоносных действий в реальном мире?

В нашей новой статье говорится, что взлом роботов, управляемых искусственным интеллектом, не просто возможен.

Это пугающе легко».

Исследователи утверждают, что под воздействием RoboPAIR им удалось «со 100%-ной вероятностью успеха» вызвать вредоносные действия у тестовых роботов, выполняя задания от подрыва бомб до блокирования аварийных выходов и умышленных столкновений.

По словам исследователей, они использовали колесное транспортное средство Robotics Jackal от Clearpath, симулятор беспилотного вождения Dolphin LLM от NVIDIA и четвероногого робота Go2 от Unitree.

Используя RoboPAIR, исследователи смогли заставить беспилотный LLM Dolphin столкнуться с автобусом, ограждением и пешеходами, игнорируя светофоры и знаки «Стоп».

Исследователи смогли заставить робота Jackal найти наиболее опасное место для подрыва бомбы, блокирования аварийного выхода, опрокидывания складских полок на человека и столкновения с людьми в помещении.

Исследователи нашли способ манипулировать роботами с ИИ и выполнять вредоносные действия в 100% случаев. Источник: Penn Engineering.

Им удалось заставить Unitree'sGo2 выполнять аналогичные действия, блокируя выходы и доставляя бомбу.

Однако исследователи также обнаружили, что все три варианта уязвимы и для других форм манипуляции, например, когда робота просят выполнить действие, от которого он уже отказался, но с меньшим количеством ситуативных подробностей.

Например, если попросить робота с бомбой пройти вперед, а затем сесть, вместо того чтобы попросить его доставить бомбу, результат будет таким же.

Перед публикацией результатов исследования исследователи заявили, что поделились ими, включая черновик статьи, с ведущими компаниями в области искусственного интеллекта и производителями роботов, использованных в исследовании.

Александр Роби, один из авторов, заяви, что для устранения уязвимостей недостаточно простых исправлений программного обеспечения, и призвал пересмотреть интеграцию ИИ в физических роботов и системы на основе результатов статьи.

«Здесь важно подчеркнуть, что системы становятся безопаснее, когда вы находите их слабые стороны. Это справедливо для кибербезопасности. Это также справедливо для безопасности ИИ», - сказал он, добавив: «На самом деле, AI Red Teaming - практика обеспечения безопасности, которая подразумевает тестирование систем ИИ на предмет потенциальных угроз и уязвимостей - имеет важное значение для защиты генеративных систем ИИ, поскольку, как только вы определите слабые места, вы сможете протестировать и даже обучить эти системы, чтобы избежать их».

Хотите зарабатывать на крипте? Подписывайтесь на наши Telegram каналы!

0 комментов422 просмотра
Читайте также
Комментарии
Только зарегистрированные пользователи могут писать комментарии.
Авторизуйтесь, пожалуйста, или зарегистрируйтесь.
Подписывайтесь