...

суббота, 13 апреля 2019 г.

[Перевод] Хакеры могут удалённо управлять Tesla Model S используя систему автопилота

Исследователям безопасности удалось получить удалённый контроль над системой автопилота автомобиля Tesla Model S и управлять им при помощи игрового джойстика. Таким образом, они обратили внимание на потенциальные проблемы безопасности современных систем содействия водителю (англ. Advanced Driver Assistance Systems, ADAS), задача которых как раз и заключается в повышении безопасности того, кто за рулём.

Исследователи из Tencent Keen Security Lab успешно активировали систему автопилота Tesla Autopilot автомобиля Tesla, получив над ней контроль, о чём было сообщено в новой публикации, которая подробно описывает детали исследования.
Группа, ранее уже демонстрировавшая свои изыскания на конференции по безопасности Black Hat USA 2018, опубликовала видео, демонстрирующее взлом. Новый доклад описывает три способа заполучить контроль над системой автопилота автомобиля путём использования нескольких уязвимостей в электронном блоке управления (англ. — electronic control unit, ECU).

Исследователи выделяют три основных достижения при взломе системы автопилота ECU версии 18.6.1. Во-первых, используя ошибку в системе распознавания образов автоматических стеклоочистителей, они активировали дворники лобового стекла. Во-вторых, разместив интерферирующие наклейки на дороге, которые обманули систему распознавания трассы, они заставили Tesla сманеврировать на полосу встречного движения. В-третьих, смогли удалённо контролировать управление автомобилем даже в том случае, если автопилот не был активирован водителем.

«Таким образом, было доказано, что чуть-чуть изменив физическую среду, мы можем в определенной степени контролировать автомобиль без удалённого к нему подключения" — заключают исследователи в докладе». Мы надеемся, что потенциальные дефекты, раскрытые серией тестов обратят на себя внимание со стороны производителей, что позволит повысить стабильность и надёжность их самодвижущихся машин».

Риски прогресса


Безусловно, исследователи заявляют, что они уведомили компанию Tesla после успешной компрометации системы автопилота и, согласно Tencent, Tesla «незамедлительно исправила» рад ошибок.


Исследователям из Tencent Keen Security Lab удалось скомпрометировать систему автопилота совершенной системы содействия водителю автомобиля Tesla Model S. (Источник: Tesla)

Независимо от этого, исследование демонстрирует неотступную опасность, которая заключается в потенциальном использовании хакерами открытости и интеллектуальности современных автомобилей как почвы для совершения атак; впервые эта возможность была ярко продемонстрирована в 2015 hack of a Jeep Cherokee, опубликованном в Wired.

«Среднестатистический современный автомобиль содержит сотни сенсоров и множество бортовых компьютеров, каждый из которых потенциально уязвим к физической, программной и/или логической атаке» — заявил Джерри Гамблин (Jerry Gamblin), ведущий инженер компании по разведке угроз безопасности Kenna Security, в интервью Security Ledger. «Этот факт создаёт удивительную почву для осуществления атак, предотвращать которые должны производители автомобилей, а также создаёт обширное целевое поле для потенциальных злоумышленников».

С момента взлома Jeep автомобили стали ещё более сложными. Так, в автомобильной индустрии стремительно развиваются технологии ADAS наподобие Tesla Autopilot

Эти системы должны приумножать возможности водителя и обеспечивать автомобиль умными системами безопасности, такими, как системы предупреждения столкновений, в целях увеличения безопасности. В то же время, увеличенная сложность делает такие системы потенциально деструктивными при их компрометации, что подвергает сомнению безопасность использования технологий ADAS.

Привилегии равны контролю


Исследователи из Keen Security Labs заявили, что они использовали ROOT-привилегии при осуществлении самой устрашающей части своего взлома — перехвата контроля над системой управления Tesla «бесконтактным способом», как они сами пишут. Исследователи использовали привилегии для отправки команд управления автопилоту во время движения автомобиля.

Способность исследователей воздействовать на стеклоочистители была достигнута за счёт улучшенного алгоритма оптимизации, использованного для генерации того, что было названо «противоборствующие образцы» соответствующих характерных особенностей.

И стеклоочистители, и система распознавания дороги принимают свои решения, опираясь на данные камер, как выяснили исследователи. Таким образом, их было не очень сложно обмануть, заставив «увидеть» условия, которые на самом деле не существуют.

Исследователи добились этого путём отправки изображений в нейронную сеть стеклоочистителей и модификации дорожной разметки в случае с системой распознавания дороги. В обоих экспериментах система отреагировала на то, что она «видела» вместо настоящих дорожных условий.

Модели конкурентов также находятся под пристальным наблюдением. В то время, как всё больше и больше систем полагаются на машинное обучение, так и большее количество исследователей ищут способы воздействия на их работу, подавая на вход ложные данные.

Ответ Tesla


В своём блоге Tencent Keen опубликовали ответ Tesla на взлом, который, к удивлению, носил ярко выраженный оборонительный характер. Компания отвергла компрометацию стеклоочистителей и системы распознавания дороги в связи с тем, что они «не случатся в реальной жизни» и, таким образом, не должны быть поводом для беспокойства водителей.

В своём ответе Tesla также подчеркнули, что водители, при желании, могут отключить систему автоматических стеклоочистителей. Помимо этого, они имеют возможность «перехода на ручное управления с использованием рулевого колеса или педали тормоза и должны быть постоянно готовы сделать это», особенно если есть подозрение, что система работает некорректно.

Говоря об использовании ROOT-привилегий при перехвате управления автомобилем, Tesla напомнила исследователям, что компания исправила основную уязвимость, описанную в докладе, при обновлении системы безопасности в 2017 и последовавшем обширном обновлении системы в прошлом году (уязвимость была исправлена в версии ПО 2018.24 — прим. перев.). Более того, в соответствии с ответом Tesla, оба этих обновления были доступны ещё до того, как Tencent Keen Security Lab рассказала компании о своих исследованиях, заявили в Tesla.

«За те многие года, что мы выпускаем машины на дороги, мы никогда не видели ни единого потребителя, ставшего жертвой какой-либо уязвимости, представленной в докладе» — добавляют в компании.

Оставляя в стороне протесты компании, эксперты безопасности всё ещё не уверены в том, что системы ADAS, наподобие Tesla Autopilot, не устроят хаос и не причинят разрушений в случае, если попадут под контроль злоумышленников. «Производителям стоит принять это во внимание при разработке новых систем» — заявил Джерри Гамблин.

«Необходимо сконцентрировать большую часть внимания на обеспечение безопасности систем, которые могут принести серьёзный ущерб потребителям и другим пассажирам в случае компрометации» — посоветовал эксперт. «Производители должны оптимально распределять финансы и корректно реагировать на любые затруднения, которые произрастают из атак на второстепенные системы и могут повлиять на конечного пользователя, который ни в коем случае не должен быть подвержен опасности».

Let's block ads! (Why?)

Комментариев нет:

Отправить комментарий