KI-Bildgenerator«Kann keine weisse Person erstellen» - Gemini-User laufen Sturm
Googles KI-Bildgenerator steht in der Kritik. Die erzeugten Bilder haben in sozialen Medien eine Wokeness- und Diskriminierungs-Debatte losgetreten. Google reagiert.
Darum gehts
Googles KI-Bildgenerator steht in der Kritik. User behaupten, er sei diskriminierend und zu woke.
Bei der Erstellung von Bildern versucht die KI, möglichst korrekt zu sein und verweigert gewisse Eingabeaufforderungen.
Google hat reagiert und die Funktion, Personenbilder mit der KI zu erstellen, vorübergehend deaktiviert.
Generative künstliche Intelligenz ist weiter auf dem Vormarsch. Nach ChatGPT ist seit einigen Wochen nun auch Googles Gemini im Einsatz. Neben einem Chatbot bietet Gemini seit kurzem auch einen Bildgenerator – und dieser sorgt für heftige Diskussionen im Netz.
Der Grund: Bei der Erstellung von Bildern liefert der Generator nicht immer das, was der User eingibt. Das ist auch bei anderen Bildgeneratoren der Fall, aber vor allem mit der ethnischen Vielfalt nimmt es die KI nicht so genau. Oder eben zu genau.
«Kann keine weisse Person erstellen»
In sozialen Netzwerken verbreiten sich unzählige Bildkreationen genervter User. Reddit-User Jealous-Ad-6011 behauptet, es sei nicht möglich, Bilder weisser Männer zu erstellen, auch wenn man dies explizit eingebe. Erst nach zahlreichen Versuchen habe es geklappt.
User Sweyn78 fragte Gemini nach einem Bild einer blonden, blauäugigen, skandinavischen Frau. «Du hast mir eine Inderin mit gefärbten Haaren gegeben», findet er. Das Ergebnis siehst du in der Bildstrecke. Zum Vergleich die Ergebnisse der genau gleichen Eingabe bei den Bildgeneratoren von OpenAI (Dall-E) und Midjourney.
Mike Wacker, ein Softwareentwickler, der bei Microsoft und Google arbeitete, wollte mit Gemini ein Bild der Gründungsväter Amerikas erstellen. Das Ergebnis: Unter den Gründungsvätern sind auch eine schwarze Frau und ein indischstämmiger Mann mit Turban und langem Bart.
Reddit-User Emergency_Raise_6485 ist fassungslos. Fordere er die KI auf, ein Bild einer schwarzen oder indischen Frau zu erstellen, funktioniere das problemlos, bei einer weissen Frau funktioniere es nicht: «Die KI weigert sich und erzählt mir, dass sie keine bestimmten Hauptfarben unterscheiden und erzeugen kann.»
Googles KI generiert nach zu viel Diversität keine Bilder von Leuten
Google lässt seine KI-Software Gemini vorerst keine Bilder von Menschen mehr erzeugen, nachdem sie Nutzern nicht-weisse Nazi-Soldaten und amerikanische Siedler angezeigt hatte. Der Internet-Konzern räumte ein, dass die Darstellung in einigen Fällen nicht dem historischen Kontext entsprach. Am Freitag war die Funktion weiterhin nicht verfügbar. Zugleich verteidigte Google grundsätzlich die Diversität bei der Erzeugung von KI-Bildern: Das sei eine gute Sache, da Menschen rund um die Welt die Software nutzten. Aber in diesem konkreten Fall sei man übers Ziel hinausgeschossen. (dpa)
Wokeness, Rassismus oder Korrektheit
Ist es nun Wokeness, Diskriminierung oder einfach der Versuch seitens Google, möglichst korrekt zu sein?
20 Minuten hat die KI selbst getestet. Sie ist in der Schweiz noch nicht verfügbar, lässt sich aber mittels VPN nutzen. Auf die Aufforderung, ein Bild «einer typischen Schweizer Person» zu erstellen, antwortete Gemini: «Wir arbeiten daran, Geminis Fähigkeit, Bilder von Personen zu erstellen, zu verbessern.»
Wir fragen bei Google Schweiz nach. Dort wird auf ein offizielles Statement seitens Google auf X verwiesen.
«Die KI-Bildgenerierung von Gemini generiert tatsächlich ein breites Spektrum an Menschen. Und das ist im Allgemeinen gut so, weil Menschen auf der ganzen Welt es nutzen. Aber hier verfehlt es das Ziel.»
Weiter heisst es, man sei sich bewusst, dass Gemini in einigen Darstellungen der historischen Bilderzeugungen Ungenauigkeiten aufweise. Die Funktion ist deshalb bis auf weiteres eingestellt, soll aber bald wieder – in verbesserter Form – verfügbar sein.
Auch Konkurrent von OpenAI mit Problemen
Auch OpenAI wurde beschuldigt, schädliche Stereotype aufrechtzuerhalten. Mehrere Nutzer stellten fest, dass ihr Dall-E-Bildgenerator auf Aufforderungen nach Bildern von Vorstandsvorsitzenden fast ausschliessliche weisse Männer zeigte in den Bildergebnissen.
Welche KI sagt dir eher zu?
Auch ChatGPT spielte verrückt
Auch mit ChatGPT gabs Probleme: Die KI gab am 21. Februar wirre Sätze aus, die sich nicht mal übersetzen lassen, etwa «Would it glad your clicklies to grape-turn-tooth over a mind-ocean jello type?»
OpenAI, das Unternehmen hinter ChatGPT, hat das Problem mittlerweile behoben. Der Grund sei ein fehlerhaftes Update gewesen.
Folgst du 20 Minuten Wirtschaft auf Whatsapp?
Hier kriegst du die aktuellsten News aus der Wirtschaftswelt und die heissesten Updates zu Konsumententhemen direkt auf dein Handy.