Der Mann und die Frau, die gerade telefonieren und darüber sprechen, wie der Mann sich am besten auf ein Job-Interview vorbereitet, kennen sich offenbar gut. Es ist eine unbestreitbare Vertrautheit zwischen ihnen – Scherze, Leichtigkeit, sogar ein bisschen Flirterei. Doch der Schein trügt. Die beiden sprechen gerade zum allerersten Mal miteinander. Und, viel wichtiger: die Frau, die ist gar kein Mensch, sondern eine künstliche Intelligenz.
Es handelt sich um "Sky", eine Stimmausgabe des Chatbots GPT-4.0, welche die KI-Firma OpenAI vor knapp drei Wochen der Welt vorgestellt hat. Die lebensechte Frauenstimme der KI mit ihren Denkpausen, ihrem Lachen, ihrer täuschend echt wirkenden Lebendigkeit fasziniert seitdem das Internet und die KI-Community.
Die Faszination mit künstlich erschaffenem Leben ist nicht neu
In gewisser Hinsicht ist das lebensechte Sprachmodell aber nur die neueste Variante von einem Trick, den OpenAI seit Beginn der aktuellen KI-Revolution perfektioniert hat: KI-Modelle möglichst nicht wie dröge Computerprogramme wirken lassen – sondern mehr und mehr wie echte Menschen.
Warum geben sich KI-Firmen wie OpenAI so viel Mühe, ihre KI-Chatbots möglichst menschlich wirken zu lassen? Ganz einfach: die Unternehmen haben verstanden, dass menschengleiche KI bei den Menschen eine große Faszination auslöst. Und mit großer Faszination lässt sich großartig Geld verdienen.
Neu ist das nicht: Seit jeher fasziniert uns Geschichten von künstlich erschaffenem Leben – von der Figur des Golem aus der jüdischen Mythologie bis hin zum Science Fiction-Streifen "Her", in dem sich Hauptfigur Theodor Twombly in die virtuelle KI-Assistentin Samantha verliebt.
Für OpenAI ist Menschlichkeit bei KIs gutes Marketing
Dass OpenAI diese Assoziationen ganz bewusst für die eigene PR nutzt, konnte man gut im Vorfeld der GPT-4o-Veröffentlichung sehen. OpenAI-Chef Sam Altman nahm auf Twitter mehrfach explizit Bezug auf "Her" – und "Sky" klingt so verdächtig nach Scarlett Johansson, die im Film die Samantha vertonte, dass dies wohl einen Rechtstreit mit der Schauspielerin nach sich ziehen könnte.
Doch für viele Beobachter stehen ganz andere Probleme im Vordergrund. Denn: je menschlicher KI wirkt, umso größer ist die Versuchung, sie auch wie ein menschliches Wesen zu behandeln. Und auf diese Art ein falsches Vertrauen zu kommerziellen Produkten zu entwickeln, bei denen manchmal vielleicht besser Vorsicht geboten ist.
Steigende Nachfrage nach KI-Freundinnen
Ein Beispiel, auf das oft verwiesen wird, ist die steigende Nachfrage nach "KI-Girlfriends" – Chatbots, mit denen Nutzer eine romantische Beziehung simulieren können. Zahlreiche solcher Modelle sind mittlerweile am Markt, oft verbunden mit kostenpflichtigen Abo-Modellen. Und die Nachfrage ist da: zwischen 2022 und 2023 ist das Suchinteresse bei Google nach "AI Girlfriend" um 2400 Prozent gestiegen. Zahlen, die sicher auch im Kontext der sogenannten "Einsamkeits-Epidemie" zu sehen sind: Ein steigender Anteil von Männern in den USA und Europa geben an, keine engen Freundschaften zu haben.
Menschlich wirkende KI-Begleiter müssen indessen nicht automatisch negativ sein. So sprach sich die Ethikratsvorsitzende Alena Buyx vergangene Woche auf der Digitalmesse re:publica dafür aus, sich ergebnisoffen mit Einsatzmöglichkeiten von KI in der Kranken- und Altenpflege zu befassen. Der Personalnotstand und die demografische Entwicklung erlaube es nicht, sich prinzipiell gegenüber KI in der Pflege zu verschließen. Menschlich wirkende Roboter hätten hier wohl eine besondere Relevanz.
Gefahr durch simulierte Menschlichkeit?
Doch abseits derartiger Zukunftsszenarien stellt sich die Frage, wie mit menschlich wirkenden KIs im Hier und Jetzt umzugehen ist. Manche Kritiker sprechen sich dafür aus, täuschend menschliche KI zu regulieren oder gar ganz zu verbieten.
Abgesehen von den offensichtlichen Missbrauchsgefahren für etwa Enkeltrickbetrüger geht es auch um die Frage, ob und inwieweit vulnerable Menschen durch derartige KI-Produkte in emotionale Abhängigkeiten geraten könnten. Dies könnte insbesondere dann problematisch sein, wenn das KI-Modell nur gegen monatliche Abogebühren verfügbar ist. Könnte die Simulation von Zwischenmenschlichkeit die Kaufentscheidung verliebter Nutzer beeinflussen?
Sollten menschlich wirkende KIs verboten werden – oder zumindest reguliert?
Auch ist bislang unklar, ob und wie OpenAI oder andere KI-Firmen Informationen weiterverarbeiten, die Nutzer im Gespräch mit Chatbots teilen – etwa, um die Gespräche in Zukunft als Trainingsdaten für neue KI-Modelle zu verwenden. Wie hoch ist das Risiko, dass Nutzer sich durch die simulierte Zwischenmenschlichkeit im Gespräch mit dem KI-Chatbot in falscher Sicherheit wiegen und vertrauliche Informationen teilen, die sie unter anderen Umständen für sich behalten hätten?
Bis auf Weiteres bleibt jede vermeintliche Intimität zwischen Mensch und Maschine eine Illusion, egal wie gut sie simuliert ist. Auf diese Weise hat Sky, die Stimme von OpenAIs neuem KI-Modell, am Ende eine weitere Parallele zum Science-Fiction-Film "Her", die Sam Altman vielleicht gar nicht im Sinn hatte: Nachdem sich Hauptfigur Theodor Twombly im Film mit der KI Samantha eine Liebesbeziehung eingegangen ist, entdeckt er am schließlich, dass sie nie nur mit ihm allein geredet hat, sondern parallel mit zahlreichen anderen Nutzern – und die vermeintlich einzigartige Liebesgeschichte nur eine unter tausenden ist.
- Zum Artikel: AI Act: Wie geht es mit dem KI-Gesetz weiter?
Das ist die Europäische Perspektive bei BR24.
"Hier ist Bayern": Der BR24 Newsletter informiert Sie immer montags bis freitags zum Feierabend über das Wichtigste vom Tag auf einen Blick – kompakt und direkt in Ihrem privaten Postfach. Hier geht’s zur Anmeldung!