Anfällige Sensoren

08. September 2015 08:40; Akt: 08.09.2015 12:45 Print

Hacker bremst selbstfahrende Autos aus

Ein IT-Experte hat mit gefälschten Lasersignalen das teure Sensorsystem selbstfahrender Autos gehackt. Seine Vorrichtung kostet lediglich 60 Dollar.

storybild

So «sieht» ein selbstfahrendes Auto mittels Lidar-Technologie seine Umwelt. (Bild: Google)

Zum Thema
Fehler gesehen?

Der leitende Sicherheitsforscher der US-Softwarefirma Security Innovation hat es geschafft, das Tausende Dollar teure Sensorsystem eines selbstfahrenden Autos in die Irre zu führen. Anhand von gefälschten Lasersignalen ist es ihm gelungen, dem Wagen vorzugaukeln, direkt vor ihm stünde ein anderes Auto. Somit könnten selbstfahrende Autos zum Ziel von Angreifern werden, zumal das System des Forschers lediglich 60 US-Dollar kostet.

«Ich bin in der Lage, Signale eines vermeintlichen Autos an jedem beliebigen Ort entstehen zu lassen», wird Jonathan Petit auf der Website des Institute of Electrical and Electronics Engineers (IEEE) zitiert. Auf dieselbe Art könne er auch Fussgänger und Wände simulieren.

Selbstfahrende Autos ausgebremst

Mithilfe eines solchen Systems könnten Angreifer selbstfahrende Autos in die Irre führen und sie so zwingen, abzubremsen und im Extremfall sogar komplett stehenzubleiben. Das wäre etwa dann der Fall, wenn das Auto von so vielen vermeintlichen Hindernissen umgeben wird, dass eine Kollision unausweichlich scheint.

Das System soll diesen November an der Sicherheitskonferenz Black Hat Europe vorgestellt werden. Es besteht aus einer Art Laserpointer und einem Impulsgenerator. Für die Attacke selbst bräuchte es den Impulsgenerator nicht einmal, so Petit: «Das geht auch ganz einfach mit einem Raspberry Pi oder einem Arduino.»

Unverschlüsselte Lasersysteme

Um auf ihre Umwelt und allfällige Hindernisse reagieren zu können, kommen in selbstfahrenden Autos sogenannte Lidar-Systeme («Light detection and ranging») zum Einsatz. Sie erstellen anhand von ausgesendeten Lasersignalen ein 3-D-Bild der Umgebung. Sicherheitsexperte Petit ist es gelungen, diese Lidar-Lasersignale aufzuzeichnen. Da die Impulse nicht verschlüsselt werden, kann er sie jederzeit reproduzieren.

«Die einzige Schwierigkeit besteht in der Synchronisation, sodass das Signal zum richtigen Zeitpunkt wieder ans Lidar zurückgeschickt wird», so der Wissenschaftler. Schaffe man das, gehe das Lidar-System davon aus, dass sich tatsächlich ein Objekt am fraglichen Ort befinde.

Bewegliche Fake-Hindernisse

Bisher ist es Petit gelungen, Fake-Objekte wie Autos, Wände oder Fussgänger in Entfernungen von 20 bis 350 Metern zu einem Lidar-System zu generieren. Ausserdem ist er in der Lage, einzelne Objekte zu vervielfältigen und sie sogar dazu zu bringen, sich zu bewegen. «Ich kann Tausende Objekte simulieren und das Tracking System des Autos sogar dazu bringen, dass es richtige Hindernisse nicht erkennt.»

Petits Auto-Hacking-Methode funktioniert auf eine Entfernung von bis zu 100 Metern, egal, ob sich der Angreifer vor, hinter oder neben dem anvisierten Auto befindet. Zudem müsse man nicht einmal genau auf das Lidar zielen, um eine erfolgreiche Attacke zu durchzuführen.

(pst)

Kommentarfunktion geschlossen
Die Kommentarfunktion für diese Story wurde automatisch deaktiviert. Der Grund ist die hohe Zahl eingehender Meinungsbeiträge zu aktuellen Themen. Uns ist wichtig, diese möglichst schnell zu sichten und freizuschalten. Wir bitten um Verständnis.

Die beliebtesten Leser-Kommentare

  • Dani am 08.09.2015 09:02 Report Diesen Beitrag melden

    Mutig

    Diese Hacker haben meinen Respekt. Solche Sicherheitslüken müssen aufgedeckt werden, auch wenn es den mächtigen Autokonzernen nicht passt. Wie lange geht es wohl, bis ein Autohersteller diesen Forscher wegen Rufschädigung anzeigt?

    einklappen einklappen
  • Alois Meier am 08.09.2015 09:07 Report Diesen Beitrag melden

    Signal unverschlüsselt

    Aus dem Text interpretiere ich, dass die Lösung demzufolge in einer adäquaten Verschlüsselung der Signale des Lidar-Systems liegt, um solche Hackerangriffe zu verhindern.

    einklappen einklappen
  • Clown am 08.09.2015 08:54 via via Mobile Report Diesen Beitrag melden

    Wie lange noch?

    Ich frage mich wie lange es geht,bis Hacker herausgefunden haben Flugzeuge über GPS zum Absturz zu bringen ohne das Sie jemals auf dem Flugplatz waren.

    einklappen einklappen

Die neusten Leser-Kommentare

  • Iro Niker am 08.09.2015 21:36 Report Diesen Beitrag melden

    Unnötig

    Solange man mit dem Rollator schneller durch den Gubrist kommt, als alle Anderen mit ihren Fahrzeugen, braucht man kein selbst fahrendes Auto.

  • noname am 08.09.2015 13:56 Report Diesen Beitrag melden

    kein Problem

    Spätestens bei Serienreife müssen die Signale sowieso codiert (verschlüsselt) sein damit das Auto nur die eigenen Signale auswertet und nicht von anderen autonomen Autos mit dem selben System "verwirrt" wird.

  • Ticinello am 08.09.2015 13:51 via via Mobile Report Diesen Beitrag melden

    Meine Route

    Du meine Güte...Ich programmieren das Auto für die Fahrt in die Bretagne um entspannt un unbekümmert ans Ziel zu kommen, stattdessen werde ich aber von den Hackern in die Türkei gelotst...

  • Chris Schneider am 08.09.2015 13:13 Report Diesen Beitrag melden

    ..wenn ich mal alt bin...

    Ich versteh echt das Gemeckere nicht. Ja, man kann die Systeme lahmlegen. Kann man auch mit vielen anderen modernen Autos. Da muss eben noch nachgearbeitet werden, genau deshalb werden solche Tests gemacht, liebe Verschwörungstheoretiker. Ich fahre selber Auto, viel und gerne auch mit schnellen Wagen und Oldtimern. Aber wenn ich selber mal zum Oldtimer werde, rechne ich fest damit, mit so einem selbstfahrenden Wägelchen herumzuschaukeln. Schon mal überlegt, welche Chancen diese Technologie für nicht mehr fahrtüchtige Leute bedeutet?

  • grzela_bd am 08.09.2015 12:57 via via Mobile Report Diesen Beitrag melden

    zu gefährlich

    Es ist viel zu gefährlich...man sollte die selbstfahrende Autos lassen.