27.06.2020 16:35

Rassistische Tendenzen

Das Problem mit der Gesichtserkennungs-Technologie

In den USA wurde ein Dunkelhäutiger fälschlicherweise verhaftet, weil eine künstliche Intelligenz sein Gesicht zu erkennen glaubte. Der Fall zeigt, wie problematisch solche Software sein kann.

von
Dominique Zeier
1 / 8
Viele Gesichtserkennungs-Technologien weisen rassistische Tendenzen auf.

Viele Gesichtserkennungs-Technologien weisen rassistische Tendenzen auf.

KEYSTONE
Das musste Robert Williams am eigenen Leib erfahren, als er fälschlicherweise Verhaftet wurde. Eine künstliche Intelligenz hatte ihn falsch identifiziert.

Das musste Robert Williams am eigenen Leib erfahren, als er fälschlicherweise Verhaftet wurde. Eine künstliche Intelligenz hatte ihn falsch identifiziert.

KEYSTONE
Er ist kein Einzelfall.

Er ist kein Einzelfall.

KEYSTONE

Darum gehts

  • Gesichtserkennungs-Tools sind häufig fehlerhaft und weisen rassistische Tendenzen auf.
  • So werden dunkelhäutige Gesichter viel öfters falsch oder gar nicht erkannt.
  • Dies hat in den USA zu einer fälschlichen Verhaftung geführt.
  • Nun will die demokratische Partei den Einsatz von Gesichtserkennungs-Tools viel stärker regulieren lassen.

Anfang der Woche wurde in den USA ein Mann fälschlicherweise verhaftet, weil ein Gesichtserkennungs-Tool ihn erkannt zu haben glaubte, berichtet CNN. Der Mann mit Namen Robert Williams war gerade dabei, sein Auto vor seinem Haus zu parkieren, als er plötzlich von Polizisten umzingelt wurde. Vor den Augen seiner Frau und Kinder wurde er verhaftet und musste daraufhin 30 Stunden in Untersuchungshaft verbringen.

Laut der Polizei war der Dunkelhäutige von einer Software identifiziert worden, die nach einem Mann suchte, der zuvor mehrere Uhren aus einem lokalen Geschäft gestohlen hatte. Die künstliche Intelligenz hatte die Behörden zu Williams geführt. Nach mehreren Stunden der Befragung stellte sich aber heraus, dass es sich bei seiner Verhaftung nur um einen Irrtum handeln konnte, und Williams wurde aus der Untersuchungshaft entlassen. «Ich hätte niemals geglaubt, dass ich meinen Töchtern einmal erklären muss, wieso Daddy verhaftet worden ist», schrieb Williams später in der «Washington Post». «Wie erklärt man zwei kleinen Mädchen, dass ein Computer einen Fehler gemacht hat und die Polizei auf ihn gehört hat?»

Rassistische Tendenzen

Williams hat sich innerhalb nur weniger Tage zu einer Ikone gegen Gesichtserkennungs-Tools entwickelt. Sein Fall hat der sowieso anhaltenden Diskussion um die umstrittene Technologie nochmals Aufschwung gegeben. Bereits Anfang Monat hatte Amazon angekündigt, ein Jahr lang den Verkauf ihrer Gesichtserkennungs-Software «Rekognition» einzustellen. Auch Microsoft hatte angekündigt, ihre Technologie nicht mehr an die Polizei weiterzuverkaufen, und IBM hat einen grundsätzlichen Stopp angeordnet, was Gesichtserkennungs-Tools angeht.

All dies ist im Zuge der Demonstrationen und Aufstände im Namen der «Black Lives Matter»-Bewegung geschehen. Denn Studien zeigen, dass Technologien wie jene, die zur falschen Identifizierung von Williams geführt hat, oft fehlerhaft sind und rassistische Tendenzen zeigen. So kommt es laut dem MIT bei dunkelhäutigen und asiatischen Gesichtern häufiger zu Fehl-Identifikationen oder gar Nicht-Erkennung der Gesichter. Laut der Studie fällt es solchen Softwares am schwersten, dunkelhäutige Frauen korrekt zu identifizieren, dicht gefolgt von afroamerikanischen Männern.

Gesicht nicht erkannt

Der Grund dafür ist in den Wissenschaftlern, die die Tools programmiert haben, zu finden, erklärt MIT-Wissenschafterin Joy Buolamwini gegenüber «The Guardian». Solche Gesichtserkennungs-Software werde häufig von weissen Entwicklern geschrieben, sagt sie. Ausserdem lerne die künstliche Intelligenz, Gesichter zu erkennen, indem sie Tausende und Millionen von Gesichtern vorgespielt bekommt, die sie mit der Zeit zu erkennen lernt. Häufig handelt es sich dabei aber um einen Datensatz, der aus vorwiegend weissen Gesichtern besteht. Daher falle es der Software anschliessend schwerer, dunkelhäutige Gesichter zu erkennen.

Die Software werde von weissen Wissenschaftlern unbewusst darauf trainiert, Gesichtszüge und -Merkmale zu erkennen, die vor allem in weissen Gesichtern dominant sind. Die Merkmale dunkelhäutiger Gesichter verwirren die künstlichen Intelligenzen daher häufiger.

Buolamwini musste dies am eigenen Leib erfahren. Als sie während eines Experiments versuchte, mit einem Roboter zu interagieren, der ihr Gesicht hätte erkennen sollen, gelang dies nicht. Die Software konnte nicht einmal ausmachen, dass überhaupt ein Gesicht vor ihr stand. Erst, als die Wissenschaftlerin eine Maske anzog, die ein weisses Gesicht zeigte, erkannte sie die Software.

Gesichtserkennung in der Schweiz

Biometrische Daten – dazu gehören unter anderem das Gesicht oder Fingerabdrücke – gelten in der Schweiz als Personendaten, wie die NZZ erklärt. Diese werden hierzulande durch das Datenschutzgesetz stark geschützt, was für Gesichtserkennungs-Tools eine grosse Einschränkung bedeutet. Der Staat darf die genannten Daten also nur bearbeiten, wenn dies ein Gesetz erlaubt oder eine Verordnung dazu besteht. Eine Person muss ausserdem stets selbst entscheiden können, ob ihre Daten weitergegeben werden dürfen oder gespeichert werden sollen. Darüber hinaus verwendet die Polizei in der Schweiz keine Gesichtserkennungs-Software, wie ein Sprecher der Kantonspolizei Zürich gegenüber 20 Minuten bestätigt.

«Wie biologische Waffen»

Der Fall von Robert Williams illustriert die Problematik der Gesichtserkennungs-Technologie gut. Denn nur ein Blick der Polizisten auf das Fahndungsfoto verglichen mit Williams zeigte ihnen, dass es sich um zwei verschiedene Menschen handelte. «Ich hielt das Foto des Räubers neben mein Gesicht und sagte den Polizisten: Ich hoffe sehr, dass ihr nicht glaubt, dass alle Schwarzen gleich aussehen. Daraufhin schauten sie sich gegenseitig an und sagten: Dem Computer muss ein Fehler unterlaufen sein.» Zu diesem Zeitpunkt befand sich Williams bereits 18 Stunden lang in Haft.

Um solche Fälle künftig zu verhindern, hat die demokratische Partei in den USA am Donnerstag einen Gesetzesentwurf eingereicht, der es Gesetzeshütern verbieten soll, Gesichtserkennungs-Tools zur Verurteilung von mutmasslichen Tätern zu benutzen. Ausserdem soll es für die Behörden viel schwieriger werden, solche Software für Fahndungszwecke einzusetzen.

«Gesichtserkennungs-Tools sind nicht nur eine Gefahr für unsere Privatsphäre, sondern stellen auch eine physische Bedrohung für dunkelhäutige Amerikaner dar», sagte Senator Ed Markey zu «The Verge». Dem stimmt auch Evan Greer, stellvertretender Direktor der der NGO «Fight for the Future», zu: «Gesichtserkennungs-Tools sind wie nukleare oder biologische Waffen. Sie stellen eine Gefahr für die Zukunft der menschlichen Gesellschaft dar, deren Potenzial vom Schaden, den sie anrichten können, aufgehoben wird.»

Deine Meinung

Fehler gefunden?Jetzt melden.
10 Kommentare
Kommentarfunktion geschlossen

Claude

28.06.2020, 15:40

Jedes System so gut, wie der Mensch, der es beschaffen hat. Wnschliches Fehlverhalten ist in allen Ebenen zu verzeichnen. Nur werden nie alle gleich behandelt. Wie soll ein Programm verantwortlich gemacht werden, wenn die Verantwortlichen sich hinter Paragraphen verstecken. Es lebe die 100-seitigen Vertagsklausen, von jedem Programm, Dienstleistung und so weiter, der nie glesen wird, da das Leben doch noch viel schöneres zu bieten hat. Sollen wir nur weiter die A.I. trainieren und menschliche Entscheidungen abdelegieren... Überregulierung bringt nichts, der Überwachungsstaat hat auch seine Grenzen. Feiert die Freiheit so lange es noch geht und macht jemanden froh.

Neumann

28.06.2020, 15:30

Die Software weiss schon warum sie so reagiert. Alles ok.

m.h.

28.06.2020, 13:30

Das ist wohl der grösste Schwachsinn den ich je gelesen habe, dass hat null mit weisse Leute Programmieren die Softwares zutun...Prozentual in Amerika auf die grösse der sntsprechende Rasse machen dunkelhäutige gewisse verbrechen mehr als hellhäutige also würden die Leute es ja besser effektiv für dunkelhäuitge machen. Das Problem ist die Erkennung welche egal wer es programmiert schwierig ist bei dunkelhäutigen Menschen