Aluhut auf Tastatur
Bildrechte: Picture Alliance
Audiobeitrag

Führt KI zu weniger Alu-Hüten?

Audiobeitrag
> Netzwelt >

Unendlich geduldig: Wie KI gegen Verschwörungstheorien hilft

Unendlich geduldig: Wie KI gegen Verschwörungstheorien hilft

Sie sind immer freundlich und haben eine Engelsgeduld: ChatGPT & Co können erstaunlich überzeugend sein, wenn es darum geht, Verschwörungstheorien zu entlarven. Das liegt an einem unschlagbaren Vorteil: Sie sind keine Menschen.

Über dieses Thema berichtet: Bayern 2 Nah dran am .

Wenn etwas Dramatisches passiert, dann sind Verschwörungstheorien nicht weit: Der 11. September war ein Inside Job, Corona wurde von geheimen Welt-Eliten geplant oder, ganz neu, der Anschlag auf Donald Trump war inszeniert, um seine Wahlchancen zu erhöhen. Jeder, der sich schon mal mit einem Verschwörungsgläubigen unterhalten hat, weiß, wie hartnäckig sich auch die abwegigsten Theorien in den Köpfen der Betroffenen festsetzen können.

Doch was passiert, wenn nicht ein Mensch, sondern eine KI das Argumentieren übernimmt? Genau das wollten Forscher an der MIT Sloan School of Management in Massachusetts herausfinden. Etwa 2.000 Probanden wurden gebeten, ihre bevorzugten Verschwörungstheorien zu beschreiben. Eine Gruppe durfte anschließend mit ChatGPT über diese Theorien sprechen. Danach bewerteten die Probanden, wie stark sie auf einer Skala von 0 bis 100 weiter an die Theorie glaubten.

Auch der Ton macht die Musik

Das Ergebnis: Ein Gespräch von nur acht Minuten senkte den Glauben an die Verschwörungstheorie im Schnitt um 20 Prozent. Ein Viertel der Teilnehmer zweifelte nach dem KI-Plausch sogar gänzlich an dem Mythos. Der Effekt war dabei nachhaltig – auch zwei Monate nach dem Gespräch hielt die Skepsis an.

Eine Folgestudie testete, ob der Ton der KI eine Rolle spielt. Die KI wurde einmal freundlich eingestellt und einmal unfreundlich. In einer dritten Variante verzichtete die KI bei ihren Argumentationen auf Fakten. Das Ergebnis: Die unfreundliche KI schnitt nicht besonders gut ab. Am wenigsten überzeugend aber war sie, wenn sie nicht mithilfe von Fakten argumentierte. Das widerspricht der bisherigen Annahme, dass Fakten allein nicht ausreichen, um Verschwörungstheorien zu entkräften.

Verschwörungstheorien ausräumen: Helfen Fakten doch?

Denn bisher ging man davon aus, dass der sogenannte "Backfire-Effekt" eine bedeutende Rolle spielt. Dieser beschreibt, dass Menschen bei Widerspruch noch stärker an ihren Überzeugungen festhalten, weil sie kognitive Dissonanz – das unangenehme Gefühl sich widersprechender Informationen – vermeiden wollen.

Doch neuere Studien zeigen, dass Menschen durchaus ihre Meinung ändern, wenn sie mit neuen Fakten konfrontiert werden. Vorausgesetzt, die Fakten werden respektvoll vermittelt.

Eine KI hat unendlich Geduld – und wird ernst genommen

Genau das könnte das Erfolgsgeheimnis der KI ausmachen. Im Gegensatz zu Menschen reagiert eine KI nie emotional und hat unendliche Geduld. Sie kann präzise auf jedes Argument eingehen, ohne sich in allgemeinem Blabla zu verlieren. Zudem wird Künstlicher Intelligenz eine gewisse Autorität zugeschrieben. Sie gilt als neutral und sachlich, was besonders bei Menschen, die sich sozial stigmatisiert fühlen, wie es oft bei Verschwörungstheoretikern der Fall ist, gut ankommt.

Kurz gesagt: Verschwörungstheoretiker fühlen sich von einer Maschine eher ernst genommen – und nehmen dann auch die Maschine ernst, wenn diese ihren Thesen widerspricht.

Gleichzeitig zeigte die Studie auch, dass die KI den Glauben an reale, historisch belegte Verschwörungen nicht verringern konnte. Teilnehmer, die beispielsweise an das MK-Ultra-Programm der CIA glaubten – ein tatsächlich stattgefundenes Programm zur Gedankenkontrolle – änderten ihre Meinung nicht. Das zeigt, dass die KI in der Lage war, zwischen realen und fiktiven Verschwörungen zu unterscheiden.

KIs können Menschen also überzeugen – doch ist das gut?

Doch diese Ergebnisse werfen auch ethische Fragen auf: Wenn KI so erfolgreich Menschen überzeugen kann, könnte sie auch manipulativ eingesetzt werden. KIs könnten zum Beispiel für "Social Engineering" genutzt werden, um Menschen zu beeinflussen und sensible Informationen zu erlangen.

Auch in der Werbung und in der politischen Kommunikation könnten solche Systeme eine fragwürdige Rolle spielen. Deswegen ist klar: Allein wird Künstliche Intelligenz die Welt nicht aus dem postfaktischen Zeitalter führen können.

🎧Wie verändert KI unser Leben? Und welche KI-Programme sind in meinem Alltag wirklich wichtig? Antworten auf diese und weitere Fragen diskutieren Gregor Schmalzried, Marie Kilg und Fritz Espenlaub jede Woche in Der KI-Podcast – dem Podcast von BR24 und SWR.

Das ist die Europäische Perspektive bei BR24.

"Hier ist Bayern": Der BR24 Newsletter informiert Sie immer montags bis freitags zum Feierabend über das Wichtigste vom Tag auf einen Blick – kompakt und direkt in Ihrem privaten Postfach. Hier geht’s zur Anmeldung!