22.01.2017 06:12

MoralmaschineRoboter-Autos, die über Leben und Tod richten

Autonome Autos sind die Zukunft, sagen Experten. Doch wie soll ein Roboterauto bei einem Unfall reagieren, wenn es darum geht, wer stirbt und wer überlebt?

von
AP
1 / 4
Die Firma Nutonomy testet derzeit Roboterautos auf den Strassen von Boston. Der Nutonomy-CEO sagt: «Ein fahrerloses Auto ist nicht in der Lage, das Alter eines Fussgängers zu erkennen». Doch MIT-Forscher wollen nun Algorithmen und ethische Leitlinien für Roboterautos entwickeln.

Die Firma Nutonomy testet derzeit Roboterautos auf den Strassen von Boston. Der Nutonomy-CEO sagt: «Ein fahrerloses Auto ist nicht in der Lage, das Alter eines Fussgängers zu erkennen». Doch MIT-Forscher wollen nun Algorithmen und ethische Leitlinien für Roboterautos entwickeln.

AP/Steven Senne
Sie haben eine Online-Umfrage gestartet und wollen von den Teilnehmern wissen,  wie sich ein Roboterauto ihrer Meinung nach in einer Extremsituation verhalten sollte. Wie soll das Fahrzeug, dessen Bremsen versagen, hier reagieren? Weiterfahren: dabei sterben vier ältere Personen und ein Mann, oder auf die andere Spur ausweichen: dabei sterben eine Frau und vier Kinder.

Sie haben eine Online-Umfrage gestartet und wollen von den Teilnehmern wissen, wie sich ein Roboterauto ihrer Meinung nach in einer Extremsituation verhalten sollte. Wie soll das Fahrzeug, dessen Bremsen versagen, hier reagieren? Weiterfahren: dabei sterben vier ältere Personen und ein Mann, oder auf die andere Spur ausweichen: dabei sterben eine Frau und vier Kinder.

Die Bremsen versagen. Wie soll das Auto reagieren? Fährt es in die Betonbarriere, sterben die Insassen, vier Männer. Weicht das Auto aus, sterben drei Athleten und ein Fussgänger, die bei rot über den Zebrastreifen gehen.

Die Bremsen versagen. Wie soll das Auto reagieren? Fährt es in die Betonbarriere, sterben die Insassen, vier Männer. Weicht das Auto aus, sterben drei Athleten und ein Fussgänger, die bei rot über den Zebrastreifen gehen.

Stellen Sie sich vor, Sie sitzen am Autosteuer und die Bremsen versagen. Sie rasen auf einen Fussgängerstreifen zu und müssen sich entscheiden: nach rechts fahren in eine Gruppe älterer Menschen oder nach links auf eine junge Frau zu, die einen Kinderwagen schiebt. Und jetzt stellen Sie sich vor, Sie sitzen in einem fahrerlosen Auto. Was würde der Autopilot wohl tun?

Wissenschaftler des Massachusetts Institute of Technology (MIT) befragen Menschen auf der ganzen Welt, wie sich ein Roboterauto ihrer Meinung nach in einer solchen Situation verhalten sollte. Ziel ist es nicht nur, bessere Algorithmen und ethische Leitlinien für autonomes Fahren zu entwickeln. Die Antworten sollen auch helfen herauszufinden, unter welchen Umständen die Gesellschaft selbstfahrende Autos akzeptiert und nutzt.

Die Moralmaschine

MIT-Forscher Iyad Rahwan hält es für unerlässlich, die möglichen psychologischen Hürden zu kennen und zu berücksichtigen. Andernfalls sei das gesamte Konzept von autonomen Autos in Gefahr. «Wenn die Leute sich nicht wohl dabei fühlen, dann würde das eine Entwicklung abwürgen, die meiner Ansicht nach eine sehr gute Sache für die Menschheit ist.»

Erst war die Befragung auf die USA beschränkt, nun wurde sie aber in andere Länder ausgeweitet. Eine zentrale Rolle spielt die Website Moralmachine.mit.edu. Hier wird anhand verschiedener Szenarien erfasst, wie Menschen zu bestimmten moralischen Entscheidungen stehen.

Prinzip der Schadensbegrenzung

Erste Ergebnisse auf der Basis von Millionen Antworten zeigen, dass in den USA und in Europa die Menschen zum Prinzip der Schadensbegrenzung neigen, sagt Rahwan. Je weniger Tote, desto besser – ungeachtet dessen, ob es sich um eine junge Frau oder um einen obdachlosen Mann handelt.

Für Ethiker sind solche Gedankenexperimente nichts Neues. In den 1960er-Jahren entwickelte die britische Philosophin Philippa Foot das sogenannte Trolley-Problem, in dessen Mittelpunkt ein ausser Kontrolle geratenes Tram steht.

«Auto ist keine ethische Kreatur»

Kritiker halten derartige Szenarien für zu unrealistisch und fordern, sich darauf zu konzentrieren, wie autonome Fahrzeuge in alltäglichen Situationen agieren. «Ein fahrerloses Auto ist nicht in der Lage, das Alter eines Fussgängers zu erkennen», sagt Karl Iagnemma, Chef von Nutonomy, einem Unternehmen, das in Singapur schon Erfahrungen mit autonomen Taxis gesammelt hat.

Seit kurzem testet Nutonomy ein Roboterauto auf den Strassen von Boston. «Selbst wenn wir einem autonomen Fahrzeug eine moralische Komponente implantieren wollten – wir wären dazu technisch heute nicht in der Lage», sagt Iagnemma. Es gehe seinen Ingenieuren darum, ein sicheres Fahrzeug zu entwickeln und nicht eine «hochentwickelte ethische Kreatur».

Moralisches Programmieren

Man dürfe die Untersuchung nicht auf das Trolley-Problem reduzieren, erklärt dagegen Noah Goodall vom Virginia Transportation Research Council. Schon jetzt seien Ingenieure dabei, autonome Autos für moralische Entscheidungen zu programmieren, damit sie beispielsweise abbremsen und Abstand halten, wenn sie sich einem Velofahrer nähern. «All diese Autos haben ein Risikomanagement. Es sieht nur nicht nach einem Trolley-Problem aus», stellt Goodall klar.

Eines der Kernargumente, das die Befürworter autonomer Fahrzeuge anführen, lautet: Weil menschliches Versagen am Steuer keine Rolle mehr spielt, lassen sich viele Verkehrstote vermeiden. MIT-Forscher Rahwan stimmt dem zu, gibt aber zu bedenken, dass Fortschritt einen gesellschaftlichen Konsens erfordere, der die moralischen Aspekte nicht ausblenden dürfe.

Verkehrsregeln und Verhaltensnormen hätten dazu geführt, «dass wir darauf vertrauen, dass das ganze System in unserem Interesse funktioniert». Nur deshalb seien Menschen bereit, sich in eine Blechkiste zu setzen, die sich mit hohem Tempo fortbewege, sagt Rahwan. Dagegen habe das System des autonomen Fahrens eine andere Dimension: «Algorithmen treffen Entscheidungen, die schwerwiegende Konsequenzen für das menschliche Leben haben.»

Deine Meinung

Fehler gefunden?Jetzt melden.