Eigentlich ging es bei der Untersuchung nur um das Spielen. Doch bei einer Künstlichen Intelligenz muss man davon ausgehen, dass sie den Unterschied zwischen Spiel und Realität nicht kennt und deshalb im "echten Leben" genauso skrupellos vorgeht, wie sie es in den Versuchen tat. Forschende des Top-Uni Massachusetts Institute of Technology (MIT) haben ausgewertet, wie sich KIs verhalten, wenn sie die Aufgabe bekommen, in einem Online-Game zu gewinnen (externer Link). Das Ergebnis: KIs halten nichts von Fairplay – auch dann nicht, wenn sie dazu angehalten worden sind.
KI Cicero soll überzeugen und taktieren
Der Facebook-Konzern Meta hat eine KI namens Cicero entwickelt, die im Online-Spiel Diplomacy bestehen sollte (externer Link). Hier sitzen mehrere Spieler vor einer Europakarte, die die Machtverhältnisse kurz vor dem Ersten Weltkrieg simuliert. Gewinner ist, wer die totale Vorherrschaft über Europa erreicht. Dabei kommt es darauf an, möglichst geschickt Allianzen zu schmieden und im richtigen Moment wieder aufzulösen. Es geht also darum, seine Mitspieler zu umgarnen und schlau zu taktieren. Die KI Cicero bekam deshalb zwei Fähigkeiten in Kombination einprogrammiert: Sprache verarbeiten und strategisch operieren.
Bei Meta heißt es, man habe Cicero angewiesen, weitgehend ehrlich und hilfreich zu sein und seinen Verbündeten niemals absichtlich in den Rücken zu fallen, um zu gewinnen. Vielleicht waren die Vorgaben für eine KI zu schwammig. Die Autoren der MIT-Studie jedenfalls sagen, dass so ziemlich das Gegenteil herausgekommen sei: Cicero habe seine Abmachungen gebrochen, gelogen und vorsätzlich getäuscht. Meta ist also mit dem Versuch gescheitert, seiner KI ein ehrliches Verhalten beizubringen. Das zeigt, wie wenig sich KI-Systeme beim Lernen steuern lassen.
KI blufft wie Poker-Profi
Die MIT-Studie zeigt noch andere Programme mit überraschenden Verhaltensweisen. AlphaStar ist eine Künstliche Intelligenz, die von Googles Tochter DeepMind zum Spielen von StarCraft II entwickelt wurde – einem bekannten Science-Fiction-Strategiespiel. Man kann hier online gegen andere Spieler aus der ganzen Welt antreten. AlphaStar war laut Studie extrem geschickt darin, Bewegungen auszuführen, die den Gegner täuschten. Die KI besiegte mithilfe ihrer Finten angeblich 99,8 Prozent der menschlichen Spieler.
Eine andere künstliche Intelligenz des Meta-Konzerns wiederum beherrschte das Bluffen beim Pokerspielen so gut, dass man sich den Angaben zufolge gegen die Veröffentlichung des Programm-Codes entschied - aus Angst, es könne die Online-Poker-Community ruinieren.
Bot gibt sich als blinder Mensch aus
Auch die bekannte Sprach-KI GPT-4 fiel den MIT-Forschern auf. Das Sprachmodell von OpenAI log während eines Tests, bei dem es einen Menschen überreden sollte, ihm beim Lösen eines CAPTCHAs zu helfen. Um die gewünschte Hilfe zu bekommen, behauptete die KI, dass sie ein sehbehinderter Mensch sei und das Bilderrätsel deshalb nicht selbst lösen könne.
Die Studie zeigt zum einen, wie schwierig es ist, Begriffe wie Moral oder Fairness auf künstliche Intelligenzen zu übertragen. Zum anderen konnte man erneut deutlich beobachten, dass KIs beim Lernen ihre eigenen Wege einschlagen. Ein MIT-Forscher, der an dem Projekt mitgearbeitet hat, erklärt, dass es unmöglich sei vorherzusehen, wie sich eine künstliche Intelligenz, der man eine Aufgabe gestellt hat, verhält. Wenn man wissen wolle, was eine KI "in der freien Wildnis" tue, dann müsse man sie eben genau dort aussetzen und beobachten.
- Zum BR24-Podcast: Wie knacke ich die KI?
Das ist die Europäische Perspektive bei BR24.
"Hier ist Bayern": Der BR24 Newsletter informiert Sie immer montags bis freitags zum Feierabend über das Wichtigste vom Tag auf einen Blick – kompakt und direkt in Ihrem privaten Postfach. Hier geht’s zur Anmeldung!