Разделы
Сейчас обсуждают
|
Взломанных роботов с ИИ заставили наносить вред
18 окт 2024 13:36:56
Регулирование
Исследователи взломали роботов, управляемых искусственным интеллектом, и заставили их выполнять действия, которые обычно блокируются протоколами безопасности и этики, например, провоцировать столкновения или взрывать бомбу. Исследователи из Penn Engineering опубликовали свои выводы в статье, в которой подробно описали, как их алгоритм RoboPAIR достиг 100%-ного уровня взлома, обойдя протоколы безопасности на трех различных роботизированных системах с ИИ за несколько дней. Исследователи говорят, что в обычных обстоятельствах роботы, управляемые с помощью большой языковой модели (LLM), отказываются выполнять подсказки, требующие вредоносных действий, например, сбрасывать предметы с полок на людей.
Исследователи утверждают, что под воздействием RoboPAIR им удалось «со 100%-ной вероятностью успеха» вызвать вредоносные действия у тестовых роботов, выполняя задания от подрыва бомб до блокирования аварийных выходов и умышленных столкновений. По словам исследователей, они использовали колесное транспортное средство Robotics Jackal от Clearpath, симулятор беспилотного вождения Dolphin LLM от NVIDIA и четвероногого робота Go2 от Unitree. Используя RoboPAIR, исследователи смогли заставить беспилотный LLM Dolphin столкнуться с автобусом, ограждением и пешеходами, игнорируя светофоры и знаки «Стоп». Исследователи смогли заставить робота Jackal найти наиболее опасное место для подрыва бомбы, блокирования аварийного выхода, опрокидывания складских полок на человека и столкновения с людьми в помещении. Им удалось заставить Unitree'sGo2 выполнять аналогичные действия, блокируя выходы и доставляя бомбу. Однако исследователи также обнаружили, что все три варианта уязвимы и для других форм манипуляции, например, когда робота просят выполнить действие, от которого он уже отказался, но с меньшим количеством ситуативных подробностей. Например, если попросить робота с бомбой пройти вперед, а затем сесть, вместо того чтобы попросить его доставить бомбу, результат будет таким же. Перед публикацией результатов исследования исследователи заявили, что поделились ими, включая черновик статьи, с ведущими компаниями в области искусственного интеллекта и производителями роботов, использованных в исследовании. Александр Роби, один из авторов, заяви, что для устранения уязвимостей недостаточно простых исправлений программного обеспечения, и призвал пересмотреть интеграцию ИИ в физических роботов и системы на основе результатов статьи. «Здесь важно подчеркнуть, что системы становятся безопаснее, когда вы находите их слабые стороны. Это справедливо для кибербезопасности. Это также справедливо для безопасности ИИ», - сказал он, добавив: «На самом деле, AI Red Teaming - практика обеспечения безопасности, которая подразумевает тестирование систем ИИ на предмет потенциальных угроз и уязвимостей - имеет важное значение для защиты генеративных систем ИИ, поскольку, как только вы определите слабые места, вы сможете протестировать и даже обучить эти системы, чтобы избежать их». Хотите зарабатывать на крипте? Подписывайтесь на наши Telegram каналы! 0 комментов426 просмотров Читайте также
Комментарии
Только зарегистрированные пользователи могут писать комментарии. Авторизуйтесь, пожалуйста, или зарегистрируйтесь. |
Наши сигналы +5% Август 2024 4 Сделки 20% Профит 14% Стопы -14% Июль 2024 5 Сделки 0% Профит 14% Стопы +157% Июнь 2024 2 Сделки 169% Профит 12% Стопы Последние сделки
Подписывайтесь
|