Выявлен способ обмана автопилота Tesla для выезда на полосу встречного движения

Материал из Викиновостей, свободного источника новостей

3 апреля 2019 года

Исследователи безопасности из Tencent Keen Security Lab нашли способ ввести в заблуждение автопилот автомобилей Tesla и спровоцировать его на выезд на встречную полосу движения. Суть предложенной техники в размещении на дороге трёх меток, незаметных для водителя, но определяемых автопилотом. Метки размещаются рядом с местом разрыва сплошной разметки со встречной полосой, поэтому автопилот воспринимает их как часть разметки, предписывающей перестроится в другой ряд, и не учитывает, что этот другой ряд находится на полосе встречного движения.

Проблема выявлена при изучении особенностей поведения автопилота в автомобиле Tesla Model S 75. Для разбора применяемых алгоритмов удалось получить доступ к информационной системе управления движением через эксплуатацию root-уязвимости в прошивке 2018.6.1, которая была устранена в обновлении 2018.24. Для эксплуатации уязвимости была проведена многоступенчатая атака: Вначале был получен контроль за информационно-развлекательной системой через эксплуатацию уязвимости в web-браузере на основе движка WebKit, а затем уязвимости в ядре Linux. Получив root-доступ к CID (Сentral Information Display), через манипуляции с запросами, передаваемыми по шине CAN, была атакована система доставки обновлений для более низкоуровневых подсистем и получен контроль за блоком APE (Tesla Autopilot ECU).

Разработанный в ходе исследования метод атаки на информационную систему автомобиля также может применяться для удалённого захвата управления во время активности автопилота. Например, показано как после успешной атаки и получения контроля за ECU (Engine Сontrol Unit) можно удалённо управлять автомобилем при помощи игрового пульта (команды игрового пульта передаются через WiFi или 3G и транслируются в команды управления автопилотом). При наличии контроля за автомобильной информационной системой так же упоминается возможность изменения траектории движения или перенаправления в другой ряд без размещения меток на дороге — можно на лету вносить изменения в картинку, передаваемую с используемой для оценки разметки камеры, например, примешивая фиктивные линии разметки.

Также показано как через манипуляцию с данными от камеры, оценивающей размытость изображения из-за появления воды на ветровом стекле, можно стимулировать включение стеклоочистителей в максимальном режиме работы. Более того для включения стеклоочистителя оказалось достаточно разместить перед камерой изображение с размытыми точками, напоминающими капли, и нейронная сеть автомобиля принимала их за начавшийся дождь.

По словам представителей Tesla упомянутые в исследовании уязвимости были устранены в 2017 и 2018 годах, а успешность атак на основе изменения физического окружения вокруг автомобиля зависят от действий водителя, который в любой момент может взять на себя управление, откорректировать движение рулём или остановить автомобиль при помощи тормозов — водитель всегда должен быть готов к внештатным ситуациям при работе автомобиля в режиме автопилота.

Источники[править]


Creative Commons
Creative Commons
Эта статья содержит материалы из статьи «Выявлен способ обмана автопилота Tesla для выезда на полосу встречного движения», опубликованной OpenNET и распространяющейся на условиях лицензии Creative Commons Attribution (CC BY) — указание автора, источник и лицензию.
Эта статья загружена автоматически ботом NewsBots в архив и ещё не проверялась редакторами Викиновостей.
Любой участник может оформить статью: добавить иллюстрации, викифицировать, заполнить шаблоны и добавить категории.
Любой редактор может снять этот шаблон после оформления и проверки.

Комментарии[править]

Викиновости и Wikimedia Foundation не несут ответственности за любые материалы и точки зрения, находящиеся на странице и в разделе комментариев.