Anfällige SensorenHacker bremst selbstfahrende Autos aus
Ein IT-Experte hat mit gefälschten Lasersignalen das teure Sensorsystem selbstfahrender Autos gehackt. Seine Vorrichtung kostet lediglich 60 Dollar.
- von
- pst

So «sieht» ein selbstfahrendes Auto mittels Lidar-Technologie seine Umwelt.
Der leitende Sicherheitsforscher der US-Softwarefirma Security Innovation hat es geschafft, das Tausende Dollar teure Sensorsystem eines selbstfahrenden Autos in die Irre zu führen. Anhand von gefälschten Lasersignalen ist es ihm gelungen, dem Wagen vorzugaukeln, direkt vor ihm stünde ein anderes Auto. Somit könnten selbstfahrende Autos zum Ziel von Angreifern werden, zumal das System des Forschers lediglich 60 US-Dollar kostet.
«Ich bin in der Lage, Signale eines vermeintlichen Autos an jedem beliebigen Ort entstehen zu lassen», wird Jonathan Petit auf der Website des Institute of Electrical and Electronics Engineers (IEEE) zitiert. Auf dieselbe Art könne er auch Fussgänger und Wände simulieren.
Selbstfahrende Autos ausgebremst
Mithilfe eines solchen Systems könnten Angreifer selbstfahrende Autos in die Irre führen und sie so zwingen, abzubremsen und im Extremfall sogar komplett stehenzubleiben. Das wäre etwa dann der Fall, wenn das Auto von so vielen vermeintlichen Hindernissen umgeben wird, dass eine Kollision unausweichlich scheint.
Das System soll diesen November an der Sicherheitskonferenz Black Hat Europe vorgestellt werden. Es besteht aus einer Art Laserpointer und einem Impulsgenerator. Für die Attacke selbst bräuchte es den Impulsgenerator nicht einmal, so Petit: «Das geht auch ganz einfach mit einem Raspberry Pi oder einem Arduino.»
Unverschlüsselte Lasersysteme
Um auf ihre Umwelt und allfällige Hindernisse reagieren zu können, kommen in selbstfahrenden Autos sogenannte Lidar-Systeme («Light detection and ranging») zum Einsatz. Sie erstellen anhand von ausgesendeten Lasersignalen ein 3-D-Bild der Umgebung. Sicherheitsexperte Petit ist es gelungen, diese Lidar-Lasersignale aufzuzeichnen. Da die Impulse nicht verschlüsselt werden, kann er sie jederzeit reproduzieren.
«Die einzige Schwierigkeit besteht in der Synchronisation, sodass das Signal zum richtigen Zeitpunkt wieder ans Lidar zurückgeschickt wird», so der Wissenschaftler. Schaffe man das, gehe das Lidar-System davon aus, dass sich tatsächlich ein Objekt am fraglichen Ort befinde.
Bewegliche Fake-Hindernisse
Bisher ist es Petit gelungen, Fake-Objekte wie Autos, Wände oder Fussgänger in Entfernungen von 20 bis 350 Metern zu einem Lidar-System zu generieren. Ausserdem ist er in der Lage, einzelne Objekte zu vervielfältigen und sie sogar dazu zu bringen, sich zu bewegen. «Ich kann Tausende Objekte simulieren und das Tracking System des Autos sogar dazu bringen, dass es richtige Hindernisse nicht erkennt.»
Petits Auto-Hacking-Methode funktioniert auf eine Entfernung von bis zu 100 Metern, egal, ob sich der Angreifer vor, hinter oder neben dem anvisierten Auto befindet. Zudem müsse man nicht einmal genau auf das Lidar zielen, um eine erfolgreiche Attacke zu durchzuführen.