Среда, 10 декабря, 2025
ДомойТехнологииКак системы автономного вождения Tesla и Mobileye ошибаются из-за "фантомных" объектов

Как системы автономного вождения Tesla и Mobileye ошибаются из-за «фантомных» объектов

Вспомните сцену из кинокартины «О чем говорят мужчины», где персонаж съезжает в кювет, приняв тень за старушку. Теперь представьте аналогичную ситуацию с автопилотом, которому злоумышленники демонстрируют специальные изображения, провоцирующие ложную реакцию. Именно о таких «фантомных атаках» на системы автономного вождения рассказали учёные из университетов Джорджии и Бен-Гуриона на конференции RSA 2021.

Идея манипулирования ИИ с помощью визуальных стимулов не нова. Традиционно для этого используются адаптированные изображения, которые заставляют алгоритм ошибаться. Все системы машинного обучения имеют уязвимое место: зная параметры, по которым они распознают объекты, можно создать картинку, искажающую результат анализа.

Уникальность представленного исследования — в отсутствии необходимости модифицировать изображения или знать принципы работы алгоритма. Короткие проекции на дорожное полотно или статичные объекты вызывали нештатную реакцию автопилота:

Альтернативный метод — демонстрация изображения в видеорекламе на билборде. Эффект оказался схожим:

По мнению исследователей, злоумышленники могут действовать дистанционно без риска быть пойманными. Ключевой параметр для атаки — точная длительность показа картинки.

Системы проектируют с порогом срабатывания, чтобы избежать ложных реакций на помехи (грязь, мусор). Производители осознанно идут на компромисс: небольшая задержка в анализе добавляет пару метров к тормозному пути, что считается приемлемым.

Время реакции на

Необходимая длительность показа «фантомов» для систем Tesla и Mobileye. Источник данных

При скорости 60 км/ч система Mobileye реагирует за 125 мс (добавляя 2 метра к тормозному пути), а Tesla — за 400 мс (+7 метров). Это создаёт риск внезапной атаки с дрона-проектора, который исчезнет до момента обнаружения.

Однако есть важный аспект, дающий надежду на защиту. Человек легко отличает проекции от реальности по признакам:

  • Искажение перспективы
  • Неровные границы объектов
  • Неестественная цветопередача
  • Аномальная контрастность

Уязвимость автопилотов проявляется из-за «разрыва восприятия» между ИИ и человеком. Для решения предлагается внедрить многокритериальную проверку:

  • Анализ геометрии объектов
  • Оценка плавности контуров
  • Контроль цветовых параметров
  • Проверка уровней яркости

Такой подход предполагает создание «виртуального жюри» из нейросетей, где каждая оценивает разные параметры изображения. Это повысит надёжность, но потребует:

  • Значительных вычислительных ресурсов
  • Длительного обучения алгоритмов
  • Модернизации бортовых систем

Перспективным направлением считаются нейроморфные процессоры, способные обрабатывать параллельные задачи без чрезмерного энергопотребления. Это может позволить автомобилям превратиться в эффективные вычислительные кластеры будущего.

Также по теме

ОСТАВЬТЕ ОТВЕТ

Пожалуйста, введите ваш комментарий!
пожалуйста, введите ваше имя здесь

Популярное

Последние комментарии