Работу автопилота и сенсоров можно намеренно нарушить при помощи специального оборудования
В США еще идет разбирательство по делу аварии Tesla Model S со смертельным исходом в мае этого года. Тогда идущий с превышением скорости электромобиль врезался в прицеп грузовика. Ни водитель, ни автопилот не увидели препятствие на фоне яркого неба. У экспертов по информационной безопасности возник вопрос — а что, если попробовать воспроизвести схожие условия искусственно? Получится ли обмануть сенсоры машины и саму компьютерную систему?
Объединенная команда исследователей Университета Южной Каролины (США), Чжэцзянского университета (Китай) и китайской компании Qihoo 360, работающей в сфере компьютерной безопасности, смогла научиться манипулировать автопилотом Tesla Model S. Для этого исследователи работали с оборудованием разного типа: излучающего радиоволны, звуковые сигналы и свет. В некоторых случаях автопилот Tesla начинал «верить», что впереди препятствий нет, хотя они были, и наоборот — что впереди есть объект, с которым можно столкнуться, хотя перед автомобилем ничего не было.
Читать полностью »