Обсудить на форуме - Помощь проекту

Поделиться в соц сетях

Автопилот #Tesla обманом заставили выехать на встречную


В автомобилях Tesla обнаружили уязвимость. Исследователи из Tencent Keen Security Lab опубликовали отчет, в котором подробно рассказали о своих атаках на программное обеспечение, включая дистанционное вмешательство на управление рулем и выезд на встречную полосу из-за небольшого стикера на дорожной разметке.

Специалисты смогли показать, как небольшие, в основном незаметные для человека детали, приводят к тому, что системы машинного обучения допускают грубые ошибки. Например, добавив небольшой шум к дорожной разметке, они смогли обмануть автопилот, который полностью потерял полосу из вида. При этом для человека не составило труда заметить и определить правильную дорожную разметку и не сбиться с пути.

Но самый ужасающий результат получился в результате использования маленьких наклеек на дороге, которые обманули автопилот и направили его на встречную полосу.


Главные новости дня читайте в нашем паблике Вконтакте


Отправить ответ

avatar
  Подписаться  
Уведомление о