Aktualisiert 13.05.2020 11:12

Erschreckendes Material

Facebook bezahlt Moderatoren 52 Millionen Dollar Schadenersatz

Ein kalifornisches Gericht hat entschieden, dass Facebook seinen Moderatoren eine hohe Schadenersatzsumme zahlen muss. Viele seien psychisch stark belastet.

von
Dominique Zeier
1 / 8
Facebook-Moderatoren  arbeiten oft unter psychisch stark belastenden Bedingungen.

Facebook-Moderatoren arbeiten oft unter psychisch stark belastenden Bedingungen.

Foto: Keystone
Nun muss der Konzern ihnen 52 Millionen Dollar Schadenersatz bezahlen.

Nun muss der Konzern ihnen 52 Millionen Dollar Schadenersatz bezahlen.

KEYSTONE
Davon profitieren können rund 11’250 Personen.

Davon profitieren können rund 11’250 Personen.

KEYSTONE

Darum gehts

  • Viele Moderatoren bei Facebook sind psychisch stark belastet.
  • Das Bildmaterial, das sie anschauen und beurteilen müssen, ist oft äusserst brutal oder problematisch.
  • Nun bezahlt Facebook 11’250 Moderatoren 53 Millionen Dollar Schadenersatz.
  • Der Konzern will auch mehr Ressourcen in die automatische Erkennung von problematischen Inhalten investieren.

Der Social-Media-Gigant Facebook hat zugestimmt, Moderatoren von problematischen Inhalten 52 Millionen Dollar Schadenersatz zu zahlen. Das Geld soll laut BBC an Personen gehen, die durch ihre Arbeit psychisch stark in Mitleidenschaft gezogen wurden und auch heute noch an posttraumatischen Belastungsstörungen leiden. Dies hatten die Betroffenen zuvor in einer Sammelklage verlangt.

Bei Facebook arbeiten Menschen und künstliche Intelligenzen zusammen, um problematische Inhalte aus dem sozialen Netzwerk zu entfernen. Im Jahr 2018 verklagte eine Gruppe von Moderatoren den Konzern, da sie laut der Klage unter nicht tragbaren Arbeitsbedingungen arbeiten mussten. So gehörte es beispielsweise zu ihrem Job, brutales Bild- oder Videomaterial anzuschauen, unter anderem von Vergewaltigungen oder Suiziden. Dadurch entwickelten einige Moderatoren eine posttraumatische Belastungsstörung.

Mehr Ressourcen für Algorithmen

Die Übereinkunft über die Schadenersatzzahlung wurde am Freitag von einem Gericht in Kalifornien gefällt. Davon profitieren können Moderatoren, die zwischen 2015 und heute in Kalifornien, Arizona, Texas und Florida gearbeitet haben. Jedem Einzelnen stehen mindestens 1000 Dollar zur Verfügung – solchen Personen, die mit einer psychischen Störung diagnostiziert wurden, wird noch mehr Geld ausbezahlt. Insgesamt erhalten 11’250 Personen Schadenersatz.

Ausserdem hat Facebook zugestimmt, mehr Ressourcen in die Algorithmus-basierte Moderation problematischer Inhalte zu investieren. Ein Sprecher des Konzerns versicherte, dass man sich dazu verpflichtet fühle, Moderatoren auch in Zukunft zusätzliche Unterstützung bereitzustellen.

Menschen arbeiten nach wie vor besser

Wie Facebook mitteilte, habe die Moderation von künstlicher Intelligenz während der Corona-Zeit rund 90 Prozent aller Moderationsarbeit ausgemacht. Die menschliche Arbeit sei darüber hinaus zurückgegangen, da nicht alle Moderationen problemlos von zu Hause aus durchgeführt werden können. Nach wie vor gilt aber, dass Algorithmen vor allem Probleme damit haben, problematische Inhalte in Videos aufzuspüren. Es gelingt Menschen noch immer besser, Nuancen wie Sarkasmus, Memes oder Wortspiele in bewegtem Bildmaterial zu erkennen.

Facebook steckt momentan in der Entwicklung eines neuen neuralen Netzwerks, das den Namen SimSearchNet trägt. Dieses soll Bilder erkennen können, die Kopien eines anderen Bildmaterials sind, welches falsche oder irreführende Informationen enthält. Dies soll es menschlichen Moderatoren erlauben, sich ausschliesslich auf neues Material zu konzentrieren, anstatt immer wieder dasselbe problematische Material durchgehen zu müssen.

Was tun, wenn man auf Facebook auf problematische Inhalte stösst?

Die wirksamste Methode gegen problematische Inhalte ist das Melden dieser Posts. Dafür klickt man bei einem Post auf die drei Punkte in der rechten oberen Ecke. So öffnet sich ein Menü. Dort kann man «Post melden» auswählen und der Post wird an die entsprechende Instanz weitergeleitet. Wer sichergehen will, dass man ähnliche Inhalte künftig nicht mehr sieht, kann einen Account auch ganz blockieren. Dann erscheint er nicht mehr auf der eigenen Timeline.

Fehler gefunden?Jetzt melden.
20 Kommentare

FB

20.05.2020, 08:37

Meinetwegen könnte man Facebook auch einfach dicht machen...

Hansel

14.05.2020, 18:06

Wie viel Kohle die scheffeln, $ 70 Mrd. Umsatz allein letztes Jahr... wenn man schon über 11k Menschen allein für die Moderation bezahlen kann und einfach mal $ 50 Mio. Schadensersatz aus dem Ärmel schüttelt, ist wahrscheinlich auch schon von Anfang an als Rücklage mit eingerechnet gewesen. Einfach Pervers

Critical

14.05.2020, 10:27

Na hoffentlich bekommen Polizisten und Rettungssanitäter die die Leichen aus den Autos schneiden oder auf der Strasse auflesen auch Entschädigung. Traumatisirender als dieser Job kann Bilder anschauen ja nicht sein.