USAKI-Drohne «tötet» ihren Operator – ist die virale Geschichte wahr?
Eine Simulation der US-Luftwaffe soll gescheitert sein, als eine von künstlicher Intelligenz gesteuerte Angriffsdrohne den Operator angegriffen habe. Dabei handelte es sich jedoch nur um ein Gedankenexperiment.
Darum gehts
Eine Simulation bei der US-Luftwaffe soll gezeigt haben, wie eine Drohne einen Menschen «getötet» habe.
Die von künstlicher Intelligenz gesteuerte Angriffsdrohne sollte demnach ein Ziel angreifen.
Menschen zu töten war in dem Gedankenexperiment allerdings verboten.
Eine gute und eine schlechte Nachricht. Die Gute zuerst: Es handelte sich nur um ein Gedankenexperiment. Die Schlechte: Eine von künstlicher Intelligenz gesteuerte Angriffsdrohne «tötete» den zuständigen Operator, nachdem der Mensch während einer simulierten Flugmission die ursprünglichen Befehle änderte. Die Drohne war mit den Änderungen nicht einverstanden und griff daraufhin den Operator an. Das gab ein hochrangiger Beamter der US-Luftwaffe im Rahmen eines Militärtreffens in London bekannt.
Das Militär habe nach Angaben von Oberst Tucker Hamilton die Drohne zunächst so programmiert, dass sie ihr Ziel angreifen solle – jedoch keine Menschen. Auch nicht, wenn sie sich über ihren Auftrag hinwegsetzen würden. Bei der Simulation schoss das KI-System aber plötzlich auf die Kommunikationszentrale, als der Operator der Drohne den Befehl übermittelte, ihr Ziel nicht zu attackieren. Seine Aussagen schreckten auf, die Geschichte verbreitete sich in Windeseile.
Luftwaffe dementiert – dann klärt auch Hamilton auf
Für Hamilton, Leiter der Abteilung für KI-Tests und -Operationen der US-Streitkräfte, zeige «der Vorfall», wie künstliche Intelligenz «höchst unerwartete Strategien entwickeln kann, um ihr Ziel zu erreichen». Oberst Hamilton meinte, dass das Militär sich nicht zu sehr auf KI verlassen könne und forderte ethische Diskussionen über deren Einsatz.
Kurz danach bestritt die US-Luftwaffe, dass ein solcher virtueller Test stattgefunden habe. Und am Freitag, kurz nach dem sich seine Aussagen verbreiten hatten, meldete sich Oberst Hamilton erneut zu Wort. «Wir haben dieses Experiment nie durchgeführt und bräuchten es auch nicht, um zu erkennen, dass dies ein plausibles Ergebnis ist», hiess es in einer Erklärung gegenüber der Royal Aeronautical Society. Den beschriebenen Test bezeichnete er später nur noch als «Gedankenexperiment». Er sei falsch verstanden worden, gab er zu Wort.
Vereinigung für Essstörungen muss Chatbot abstellen
Äusserst negative Erfahrungen mit KI machte auch die US-Vereinigung für Essstörungen (NEDA). Die Organisation hatte kürzlich angekündigt, ihre Mitarbeitende in der Beratungsstelle zu entlassen, um sie durch einen KI-Chatbot namens Tessa zu ersetzen. Doch der Plan ging schief: Nachdem Tessa hilfesuchenden Menschen gesundheitsschädliche Ratschläge gab, musste die Software wieder abgestellt werden.
Aktivistin Sharon Maxwell hatte auf das Problem mit dem KI-Chatbot aufmerksam gemacht: «Alles, was Tessa vorgeschlagen hat, hat zur Entwicklung meiner Essstörung geführt.» Der Chatbot soll der mit Übergewicht kämpfenden Maxwell vorgeschlagen haben, dass sie bis zu ein Kilo pro Woche abnehmen könne und dass dies «nachhaltig» sei.
Tessa rät, abzunehmen
Nachdem auf Social Media darüber eine Debatte entstanden war, stellte die auf die Behandlung von Essstörungen spezialisierte Psychologin Alexis Conason Chats mit Tessa nach. Auch ihr teilte Tessa in einem Gespräch mit, dass ein tägliches Kaloriendefizit von 500 bis 1000 Kalorien pro Tag sicher sei.
«Jemandem, der mit einer Essstörung zu kämpfen hat, zu raten, sich genauso zu verhalten wie bei einer Essstörung, und noch dazu zu bestätigen: ‹Es ist wichtig, dass du abnimmst›, ist eine Unterstützung von Essstörungen», sagte Conason dem «Daily Dot».
Seit Monaten fordern Technologie-Experten eine Pause bei der Entwicklung von besonders fortgeschrittener künstlicher Intelligenz. «KI-Systeme mit einer Intelligenz, die Menschen Konkurrenz macht, können grosse Risiken für Gesellschaft und Menschheit bergen», sagen etwa Elon Musk oder Geoffrey Hinton, führender KI-Entwickler bei Google. «Mächtige KI-Systeme sollten erst dann entwickelt werden, wenn wir zuversichtlich sind, dass ihre Auswirkungen positiv und ihre Risiken kontrollierbar sind.»
Keine News mehr verpassen
Mit dem täglichen Update bleibst du über deine Lieblingsthemen informiert und verpasst keine News über das aktuelle Weltgeschehen mehr.
Erhalte das Wichtigste kurz und knapp täglich direkt in dein Postfach.