Как искусственный интеллект автопилотов Tesla и Mobileye обманывают «фантомами»? Рассказали из «Лаборатории Касперского»
Исследователи из университетов Джорджии и Бен-Гуриона в ходе RSA Conference 2021 рассказали о возможности «фантомных атак» на автопилоты автомобилей, когда им показывают некое изображение, на которое основанный на искусственном интеллекте (ИИ) автопилот запрограммирован реагировать. Об этом сообщает «Лаборатория Касперского».
Новизна продемонстрированного на RSA Conference 2021 подхода заключается в том, что автопилоту показывались не модифицированные изображения — то есть атакующим не нужно знать, как работает алгоритм и какие признаки он использует.
Изображения ненадолго проецировались на дорогу, а также на расположенные рядом с ней стационарные объекты, и вот к чему это приводило:
Таким образом, полагают авторы исследования, злоумышленники могут совершить свою пакость, находясь на комфортном расстоянии от жертвы и не подвергаясь опасности оставить лишние следы на месте преступления. Все, что им нужно знать о машине жертвы — это как долго показывать изображение.
Все дело в том, что в целях снижения вероятности ложного срабатывания, например из-за попадания грязи или мусора в объектив камеры или лидаров, разработчики намеренно внедрили порог срабатывания. Если это система искусственного зрения Mobileye и скорость 60 км/ч — время ее реакции составляет около 125 миллисекунд. Порог реагирования автопилота Tesla почти в три раза больше — 400 мс. Следовательно, полагают авторы исследования, такая атака может произойти внезапно — и прежде чем водитель поймет, что произошло, дрона с проектором уже и след простынет.
Но есть один нюанс, который вселяет надежду на то, что рано или поздно автопилоты удастся обезопасить от данного вида атак. Все-таки внешний вид изображений, спроецированных на неподходящие для просмотра картинок поверхности, сильно отличается от реальности. Таким образом, уязвимость системы автопилота к фантомным атакам — это следствие «разрыва восприятия» (perception gap) между ИИ и человеческим мозгом.
Как можно преодолеть этот разрыв? Авторы исследования предлагают внедрять в системах автомобильных автопилотов проверку дополнительных признаков — перспективы, гладкости краев, цвета, контрастности, яркости и так далее — и принимать решение только в том случае, если результаты проверок согласуются друг с другом.
Есть определенная надежда, что в будущем с распространением нейроморфных процессоров станет реальностью реализация на борту автомобиля сразу нескольких нейронных сетей, работающих параллельно и не убивающих при этом энергетику автомобиля.