Voreingenommen

04. April 2019 07:21; Akt: 04.04.2019 07:21 Print

«Künstliche Intelligenzen dürfen uns nicht schaden»

Ob im Gefängnis, bei der Stellenvergabe oder als Nanny – künstliche Intelligenzen erleichtern uns den Alltag. Ihr Einsatz aber bringt auch Probleme.

Zum Thema
Fehler gesehen?

Wenn Netflix einen falschen Film vorschlägt, ist das noch lange kein Weltuntergang. Auch nicht, wenn die Lieblingsschuhe nicht bei den empfohlenen Produkten auf Amazon auftauchen. Wenn es sich aber um einen Algorithmus handelt, der über die Dauer eines Gefängnisaufenthaltes bestimmen soll, kann ein Fehler fatale Folgen haben.

Umfrage
Welchen KI-Assistenten benutzen Sie im Alltag?

Ein solcher passiert dann, wenn die verantwortliche künstliche Intelligenz (KI) falsche Rückschlüsse aus den Daten zieht und jemanden ins Gefängnis schickt, nur weil die Statistik gegen ihn spricht. Die Risiken fehlerhafter Algorithmen zeigt auch der Fall Amazon: Die damalige KI-gestützte Rekrutierungsmaschine hat Kandidaten für die Stellen als Softwarentwickler nicht genderneutral bewertet – der Bot hat kategorisch Männer bevorzugt und Frauen abgelehnt.

Auch KIs haben Vorurteile

Ein weiteres Beispiel stammt aus der Familienumgebung: Mit Alexa, Siri und Cortana wird in Befehlssprache gesprochen. Kinder, die solche Sprachassistenten noch nicht von Menschen unterscheiden können, adoptieren dieses herrische und teilweise sexistische Verhalten.

Diese Fälle haben einen gemeinsamen Nenner: künstliche Intelligenzen, mit denen etwas nicht stimmt. Denn wie Forscher herausgefunden haben, können auch künstliche Intelligenzen voreingenommen und mit Vorurteilen behaftet sein. Die Folge: Sie machen Fehler, verhalten sich diskriminierend oder unangebracht und können gar falsches Verhalten hervorrufen.

Vorurteile aufspüren und eliminieren

Dem möchte die Initiative Equal AI entgegenwirken. Ins Leben gerufen wurde sie von Robert LoCascio, dem Gründer des KI-Entwicklers LivePerson. Die Initiative hat zum Ziel, Vorurteile und Voreingenommenheiten in KIs ausfindig zu machen und zu eliminieren. «Dazu stellen wir ein Regelwerk zusammen, um herauszufinden, ob und wo eine Beeinflussung stattfindet», sagt Miriam Vogel, Leiterin von Equal AI. Sie war stellvertretende Direktorin für Justiz und Regulierung im Weissen Haus unter dem ehemaligen US-Präsidenten Barack Obama. Dort hat sie sich unter anderem für die Förderung des gleichen Entgelts für Frauen eingesetzt.

Mit dem Regelwerk , das in den nächsten Monaten publiziert wird, sollen KIs und Algorithmen auf etwaige Vorurteile geprüft werden. «Dabei ist es wichtig, das menschliche Element nicht zu vergessen», erklärt Vogel. Denn Vorurteile von Programmierern können unbewusst in die KIs und Algorithmen einfliessen. LoCascio ergänzt: «Deshalb entwickeln wir auch ein Regelwerk, dass Vorurteile bei Personen testet.»

Vielseitigkeit statt Ungleichheit

Ein weiterer wichtiger Punkt der Equal AI Initiative ist Diversität. «Wenn wir nicht genug Diversität in den Teams haben, die solche KIs und Algorithmen programmieren, dann vergessen die Programmierer, auch die Ansichten dieser Minderheiten mit einzubeziehen», sagt Vogel. Darum sollen sowohl Männer als auch Frauen mit unterschiedlichen ethnischen Hintergründen zusammenarbeiten. Hierin unterstützt Equal AI Organisationen wie etwa AI4All, die auch Mädchen für Computerwissenschaften sensibilisieren und begeistern wollen.

Was aber, wenn man nichts dagegen unternehmen würde? Würden die KIs von morgen rassistisches, ideologisches oder sexistisches Verhalten an den Tag legen? «Wir müssen sicherstellen, dass KIs uns nicht schaden, sondern helfen. Das ist das Ziel der Equal AI», sagt LoCascio. Es ist wichtig, dass möglichst viele Menschen für dieses Thema sensibilisiert werden. Das weiss auch Vogel: «Nur zusammen können wir dieses Problem lösen.»

(vhu)

Kommentarfunktion geschlossen
Die Kommentarfunktion für diese Story wurde automatisch deaktiviert. Der Grund ist die hohe Zahl eingehender Meinungsbeiträge zu aktuellen Themen. Uns ist wichtig, diese möglichst schnell zu sichten und freizuschalten. Wir bitten um Verständnis.

Die beliebtesten Leser-Kommentare

  • Altmodisches Mädchen am 04.04.2019 08:26 Report Diesen Beitrag melden

    Eigenartige Zeiten...

    KI's können niemals einen Menschen ersetzen. Sie haben kein Mitgefühl und keine Empathie, kennen keine Gnade oder das, was wir als "Menschlichkeit" kennen. Vor allem bei Entscheidungen wie der Länge der Haftstrafe finde ich das prekär. Ich bevorzuge nach wie vor Menschen, die Fehler machen und dafür Mitgefühl und Empathie besitzen...

    einklappen einklappen
  • popi am 04.04.2019 08:19 Report Diesen Beitrag melden

    Also dann ist der Anspruch...

    eine dem Menschen "überlegene, emotionslose, neutrale" Intelligenz zu schaffen die Emotionen und Instinkte ignoriert und so das Optimum ohne Rücksicht auf Verluste anstrebt. Also wir Menschen sagen neuerdings der Natur, was und wie sie etwas zu tun hat und dir KI sagt uns was und wie wir etwas zu tun haben. Tolle Vorstellung.

    einklappen einklappen
  • Informatiker am 04.04.2019 09:11 Report Diesen Beitrag melden

    Es fehlt ein Bewusstsein

    Künstliche Intelligenzen haben kein Bewusstsein. Ausserdem wurde der Begriff vom Marketing missbraucht. Einfache Lichtschaltungen werden bereits als KI bezeichnet. Ich wünschte mir, Programmieren wäre ein Pflichtfach und würde in der Primarschule bis zum Schulaustritt unterrichtet. Die Leute würden begreifen, was für ein Blödsinn ihnen täglich über KI aufgetischt wird.

Die neusten Leser-Kommentare

  • Apop85 am 04.04.2019 16:38 via via Mobile Report Diesen Beitrag melden

    Überrissene Bezeichnung

    Diese Algorithmen sind etwa so schlau wie ein Stück geschnittenes Brot. Sie erledigen genau die einprogrammierten Aufgaben nicht mehr nicht weniger... Und das soll wirklich intelligent sein? Wohl kaum...

  • Jörg Frei am 04.04.2019 15:12 via via Mobile Report Diesen Beitrag melden

    ...

    kennt ihr den film terminator der kommt nicht von ungefähr dass künstliche intelligenz gefährlich sein kann

  • Heidi Heidnisch am 04.04.2019 12:01 via via Mobile Report Diesen Beitrag melden

    Empathie

    KIs haben keine Empathie. Das begrüssen vor allem Diktatoren, Möchtegernweltherrscher/innen und CEOs von Grosskonzernen, denn dann stört das leidige Gewissen nicht, wenn es darum geht, ein paar Tausend oder gar Millionen von Menschen zu verseuchen oder zu eliminieren.

  • elotor am 04.04.2019 11:00 Report Diesen Beitrag melden

    nicht lernfähig

    KI kann sehr interessant sein und uns das Leben erleichtern. Dazu muss man aber wissen, dass die Abhandlungen des KI-Apparates von Menschenhand in unzähligen Zeilen Codes programmiert wurden. So, wurde da wirklich alles berücksichtigt? Ich behaupte Nein! Vor allem wenn dann auch noch behauptet wird, der KI-Apparat sei lernfähig. Ich bin nicht in der KI Forschung tätig, kenne aber die Programmierung von Kuka Roboter. Daher erlaube ich mir die Aussage: lernfähige KI gibt es nicht.

    • IT Mensch am 04.04.2019 11:15 Report Diesen Beitrag melden

      Genau umgekehrt...

      KI ist IMMER lernfähig. Das ist eigentlich die Definition. Gleich wie die neuronalen Netze. Und Roboter haben mit KI sehr, sehr wenig zu tun.

    einklappen einklappen
  • Flørigni am 04.04.2019 10:51 via via Mobile Report Diesen Beitrag melden

    Falsche Vorstellung von KI

    Im Artikel wird davon ausgegangen, dass KIs das tun was ihre Programmierer wollen. Das ist so nicht ganz richtig. Eine KI optimirt selbstständig einen Zielparameter, und zwar völlig Vorurteilsfrei. Für eine KI ist zb. das Geschlecht ein valides Argument für die Einstellung einer Person, da diese Entscheidung statistisch zu einer Optimierung des Gewinns beiträgt. (zb Weil Frauen öfter für mehrere Monate fehlen als Männer). Eine KI fragt sich nicht ob eine Entscheidung fair ist, ob sie auf lange Frist sinnvoll ist oder anderen Zielsetzungen schadet, sondern nur ob sie den Zielparameter optimiert. Und diese spezifische Aufgabe können KIs himmelweit besser als Menschen (was in meinen Augen die hälfte aller Bürojobs ersetzen kann), aber nicht mehr.