KI-Sprachmodelle wie ChatGPT können nicht nur Aufgaben für ihre menschlichen Nutzer erledigen. Eine wachsende Zahl von Untersuchungen legt nahe, dass sie auch Dinge über ebendiese Nutzer herausfinden können.
Persönlichkeitsprofil aus Chats
Eine Studie der Cornell University untersuchte beispielsweise, wie gut das Sprachmodell GPT-4 – die Technologie hinter ChatGPT – verschiedene Charaktereigenschaften seiner Gesprächspartner einschätzen kann. Dabei durften die Probanden zunächst den Chatbot normal nutzen. Anschließend wurde ChatGPT aufgefordert, ein Persönlichkeitsprofil der Nutzer zu erstellen. Hierbei werden Personen auf verschiedenen Skalen nach Kriterien wie Offenheit, Extraversion und Gewissenhaftigkeit eingeordnet.
Die Ergebnisse waren verblüffend genau – und beispielsweise genauer als vorherige Analysen wie etwa durch die statistische Analyse von Social Media-Texten. Besonders genau war ChatGPT, wenn es bewusst damit beauftragt war, persönliche Fragen zu stellen. Aber auch ein ChatGPT, das als reiner Assistent agierte, war in der Lage, einige Informationen über seinen Nutzer herauszufinden.
Die Studie zeigt: KI-Systeme könnten sowohl für personalisierte KI-Unterstützung als auch für psychologische Untersuchungen in Zukunft sehr hilfreich sein. Die Kehrseite: Auch zielgenaue Werbung oder politische Kampagnen könnten auf das Persönlichkeitsprofil ihrer Nutzer zugeschnitten werden.
KI kann Persönlichkeiten nachbilden
Eine andere Untersuchung kam zuletzt zu einem ähnlich spannenden Ergebnis: Auch hier wurde KI-Modellen wie ChatGPT die Aufgabe gegeben, menschliche Persönlichkeiten und Verhalten zu analysieren. Als Basis dafür galten Transkripte von komplexen Interviews, die mit den Probanden geführt wurden.
Anschließend wurden sowohl die Probanden als auch die KI vor eine Reihe von Fragen und Aufgaben gestellt. Den KI-Systemen gelang es hierbei, die Entscheidungen der Menschen zu 85 Prozent korrekt vorherzusagen. Es handelt sich also um Simulationen realer Personen – auf KI-Basis.
Mini-Ichs als Zukunftsmodell?
Für Joon Sung Park, einen der Forscher hinter dem Projekt, sind solche simulierten Personen eine große Chance: "Wenn man einen Haufen kleiner 'Dus' hätte, die herumlaufen und tatsächlich die Entscheidungen treffen, die man selbst auch treffen würde, dann ist das meiner Meinung nach die Zukunft", sagte Joon dem "MIT Technology Review".
Die Vorstellung erinnert an das Konzept hinter "KI-Agenten". Das sind KI-Modelle, die anders als ChatGPT & Co. nicht auf eine Chatbox beschränkt sind, sondern teil-selbstständig innerhalb von Computern und Servern Aufgaben übernehmen und Arbeitsabläufe vereinfachen sollen. Wenn Konzepte dieser Art weiterverfolgt werden, könnten diese Agenten nicht nur allgemeine Aufgaben erledigen, sondern damit auch eine simulierte Version ihrer Nutzer repräsentieren.
Passiert das heute schon?
All das muss keine Zukunftsmusik sein. ChatGPT von OpenAI und Gemini von Google haben beide sogenannte "Memory"-Funktionen, das heißt, sie merken sich bestimmte Informationen über ihre Nutzer – darunter Vornamen, Beruf und andere demographische Daten. Technisch gesehen wäre es auch möglich, Persönlichkeitsanalysen automatisiert durchzuführen – allerdings gibt es keinen Hinweis darauf, dass das tatsächlich getan wird. Auch ist unklar, ob ein solches Vorgehen mit den strengen europäischen Datenschutzgesetzen vereinbar wäre.
Wer testen möchte, was sich der KI-Bot schon alles über einen gemerkt hat, kann das in den Einstellungen auch selbst nachsehen – und bei Bedarf die "Memory"-Funktion auch einfach ausstellen.
🎧 Was bedeutet die Fähigkeit der KI-Modelle für uns? Und wie gut kennen uns Algorithmen mittlerweile wirklich? Diese Fragen diskutieren Gregor Schmalzried, Marie Kilg und Fritz Espenlaub in der aktuellen Folge von "Der KI-Podcast" – dem Podcast von BR24 und SWR.
"Hier ist Bayern": Der BR24 Newsletter informiert Sie immer montags bis freitags zum Feierabend über das Wichtigste vom Tag auf einen Blick – kompakt und direkt in Ihrem privaten Postfach. Hier geht’s zur Anmeldung!