29.10.2019 06:12

PrivatsphäreForscher tricksen Gesichtserkennung aus

Gesichtserkennung birgt Gefahren. Bei Missbrauch kann sie zum Verlust der Privatsphäre führen. Jetzt gibt es einen Weg, die Technologie in Echtzeit zu täuschen.

von
vhu
1 / 14
Facebook AI Research hat ein Tool entwickelt, um Gesichter in Videos zu deidentifizieren. Mit anderen Worten: Das Tool soll verhindern, dass Gesichtserkennungsprogramme Personen identifizieren.

Facebook AI Research hat ein Tool entwickelt, um Gesichter in Videos zu deidentifizieren. Mit anderen Worten: Das Tool soll verhindern, dass Gesichtserkennungsprogramme Personen identifizieren.

Facebook AI Research
Das erreicht sie, indem sie eine leicht verzerrte Version (Generated) auf dem Gesicht der gefilmten Person abbildet.

Das erreicht sie, indem sie eine leicht verzerrte Version (Generated) auf dem Gesicht der gefilmten Person abbildet.

Facebook AI Research
Im Video ist dieser Unterschied kaum zu erkennen. Ähnlich wie bei Deepfake-Videos wird dazu eine künstliche Intelligenz (KI) benötigt.

Im Video ist dieser Unterschied kaum zu erkennen. Ähnlich wie bei Deepfake-Videos wird dazu eine künstliche Intelligenz (KI) benötigt.

Facebook AI Research

Von der Entsperrung des Smartphones über animierte Emojis, Überwachungskameras im öffentlichen Raum bis hin zur Sicherheitskontrolle an Flughäfen: Software und Technologien zur Gesichtserkennung werden immer allgegenwärtiger.

Jetzt hat Facebook Artificial Intelligence Research (Fair) – eine Organisation mehrerer Forschungslabors für künstliche Intelligenz – ein maschinelles Lernsystem zur sogenannten Deidentifikation von Personen entwickelt. Also eine Technologie, die es Gesichtserkennungssoftwares schwermacht, eine Person zu identifizieren.

In Echtzeit und Live

Für Standbilder wurden in der Vergangenheit bereits Deidentifizierungs-Technologien entwickelt, diejenige von Fair ist jedoch die erste, die auch auf Videos angewendet werden kann, berichtet Venturebeat.com. Eine künstliche Intelligenz bildet dabei eine leicht verzerrte Version auf dem Gesicht der gefilmten Person ab, um so eine Identifikation zu verhindern.

Das Ganze sei laut Fair in Echtzeit möglich und könne sowohl bei vorab gefilmtem Videomaterial als auch bei Live-Videos angewendet werden. Dieses Video auf Youtube zeigt eindrücklich, wie klein der Unterschied vom realen Bild zum deidentifizierten Bild ist. Im Unterschied dazu wurden Standbilder in der Regel meist nachträglich bearbeitet.

Von Missbrauch und Verlust der Privatsphäre

Für die Branche stellt diese Technologie eine wichtige Premiere dar. Denn laut einer offiziellen Mitteilung seien auch Gesichtserkennungssoftwares nicht vor Missbrauch geschützt. Unter gewissen Umständen könne die Technologie zum Verlust der Privatsphäre führen oder missbraucht werden, um irreführende Videos zu erstellen.

Letzteres meint sogenannte Deepfakes – täuschend echte Bilder oder Videos, die mit Hilfe von künstlicher Intelligenz (Algorithmen) hergestellt werden, aber nicht echt sind. Deshalb sei es notwendig, solche Formen zur Deidentifikation zu untersuchen.

Ob Facebook die Technologie auf einem Teil der seiner Appfamilie (Whatsapp, Instagram) anwenden wird, ist unklar. Facebook selbst ist derzeit wegen seiner eigenen Gesichtserkennungspraktiken in eine 35 Millionen Dollar schwere Klage verwickelt. Das scheint Fair aber nicht davon abgehalten zu haben, eine Technologie zur Bekämpfung jener Missbräuche zu entwickeln, deren Facebook beschuldigt wird.

Deine Meinung

Fehler gefunden?Jetzt melden.