Исследование: AI-автопилоты на базе LVLM можно обмануть с помощью промпт-инъекций
Исследователи из Калифорнийского университета в Санта-Крузе показали, что большие визуально языковые модели (LVLM) в системах автопилота уязвимы перед промпт-инъекциями.
Для «взлома» системы достаточно показать табличку с текстом нужной команды.Авторы работы отмечают, что автомобили, роботы и дроны всё чаще начинают использовать LVLM для ориентации в пространстве.
habr.com