Darum geht's:
- Satire ist eine Kunstform, die mit Überspitzung arbeitet. Hierfür kommen auch künstlich generierte Bilder zum Einsatz.
- Die Kunst- und Meinungsfreiheit lässt viel zu, hat aber auch Grenzen - etwa die der Volksverhetzung.
- Bisweilen aber tarnen Accounts ihre Inhalte als "Satire", um einen größeren Spielraum für juristisch Zulässiges zu haben.
Satire hat ein neues Mittel: Künstliche Intelligenz (KI). Die Technologie ist perfekt für Satire geeignet: Sie kann Bilder, Videos und Audiospuren von bekannten Persönlichkeiten liefern, die komplett oder teilweise künstlich erstellt werden. So zeigen KI-Fakes Menschen dabei, Dinge zu tun oder zu sagen, die sie in echt nicht getan oder gesagt haben. Also ein perfektes neues Tool für Satiriker, die Politiker traditionell eher durch Verkleidung oder Nachahmung darstellten. KI-generierte Bilder von Politikern tauchen nun auch im Bundestagswahlkampf auf - und werden häufig unter den Begriffen Parodie oder Satire verbreitet. Doch solche KI-Fakes setzen sich nicht immer nur überspitzt mit der Wirklichkeit auseinander, wie es Satire tut. Sondern sie können auch tatsächlich täuschen - und dann eine Gefahr für Nutzer sein, wenn die Fake-Bilder bestehende Vorurteile bestätigen.
- Alle aktuellen #Faktenfuchs-Artikel finden Sie hier.
Welche Fallstricke also gibt es für Nutzer? Zum einen kann es vorkommen, dass sie die Satire und die KI-Fakes nicht als solche erkennen. Zum anderen kann es sein, dass das Label "Satire" nur als Feigenblatt dient, um über die Accounts den Nutzern auch politische Falschinformationen zu liefern. Wie das genau aussehen kann, zeigt dieser #Faktenfuchs.
Einige Beispiele zeigen, dass KI-Satire von Nutzern leicht missverstanden werden kann.
Diese Screenshots zeigen die KI-generierten Bilder von Karl Lauterbach und Frank-Walter Steinmeier, von "Satire"-Accounts veröffentlicht.
Manche KI-Fakes mit Satire erreichen große Reichweite
Ein Account zum Beispiel, der den Begriff "Satire" im Namen trägt, verbreitet auf X regelmäßig KI-Bilder oder Videos, die den SPD-Gesundheitsminister Karl Lauterbach imitieren - aber auch Posts mit Falschinformationen, die sich gegen Menschen mit Migrationshintergrund richten. Eines der KI-generierten Bilder von Lauterbach zeigt ihn vor einer gefüllten Halle mit AfD-Logos im Hintergrund, begleitet von der erfundenen Ich-Botschaft des SPD-Politikers, er habe sich für die vielen Opfer der Corona-Impfungen entschuldigt und werde künftig die AfD unterstützen. Der Post wurde laut X 1,3 Millionen Mal angezeigt. Beschleunigt wurde die Verbreitung des Posts auch davon, dass die AfD-Kanzlerkandidatin Alice Weidel ihn retweetete und Lauterbachs echten X-Account erwähnte.
Satire-Accounts verwirren mit KI-Fakes
Das KI-Bild von Lauterbach ist für ungeübte Nutzer nicht einfach als künstlich erstellt zu erkennen. Rechts unten ist das Symbol von "Grok AI" zu sehen, einem in X integrierten KI-Tool, das auch Bilder generieren kann. Dadurch ist das Bild zwar einerseits als KI-generiert gekennzeichnet. Andererseits fällt das Logo von Grok nicht direkt auf - und man muss erstmal wissen, was das Programm überhaupt ist.
KI-Fakes können bekannte Persönlichkeiten "mit einer Genauigkeit und einem Realismus, der vorher kaum machbar war", imitieren, sagt Maria Pawelec. Die Politikwissenschaftlerin und Expertin für Deepfakes und Desinformation forscht am Internationalen Zentrum für Ethik in den Wissenschaften (IZEW) an der Eberhard Karls Universität Tübingen. Denn KI-Tools sind inzwischen auch für Laien zugänglich und die Qualität der Ergebnisse hat zugenommen. "Und die Technologie ist eine Möglichkeit, neuartige Inhalte zu generieren, die vielleicht - noch - ein Überraschungsmoment haben."
Missverständliche Satire: ähnliche Wirkung wie Desinformation
Wenn Nutzer tatsächlich der Täuschung unterliegen, sieht Pawelec einige Faktoren im Zusammenspiel: Eine Rolle spielten die Flüchtigkeit beim Konsum der Medien, ein mangelnder kritischer Umgang mit Medien - aber auch der "Confirmation Bias", wie die Expertin in einer Mail an den #Faktenfuchs schreibt: Der "Confirmation Bias" beschreibt die Neigung von Menschen, tendenziell eher das zu glauben, was ihre eigenen Überzeugungen bestätigt. Konkret auf KI-Satire bezogen bedeutet das: Bestimmte Voreinstellungen oder Vorurteile werden durch die KI-Bilder bestätigt - und in wessen Weltbild sie passen, der hält sie leichter für wahr.
Die Kommentare unter dem KI-Lauterbach-Beitrag zeigen, dass einige User tatsächlich nicht erkannten, dass das Bild ein Fake ist. "Man weiß oft genug nicht mehr was wahr ist und was nicht ....wenn er das gesagt hat soll er auch zumindest zurück treten", schrieb eine Userin. "Sieh mal einer an Karlchen Lauterbach, sie haben Menschenleben auf dem Gewissen und gehören eingesperrt", schrieb ein User, und ein weiterer: "Will er jetzt seinen Kopf aus der Schlinge ziehen".
Ein weiterer X-Account verbreitet - unter dem Hinweis "Parodie" in der Beschreibung - häufig KI-Fakes von Bundespräsident Frank-Walter Steinmeier. Etwa wie der vermeintliche Steinmeier auf einer Straße sitzt und damit gegen die AfD in Riesa demonstriert habe. Und auch unter diesem KI-Fake zeigen die Kommentare, dass einige User das Bild für echt halten.
Eine erste Orientierung für Nutzer, um zwischen Satire und Falschinformation zu unterscheiden, kann Experten zufolge also sein: "Satire wirkt immer dann wie eine Falschinformation, wenn sie falsch verstanden wird, also wenn sie fälschlicherweise als echt wahrgenommen wird", sagt Pawelec. Ähnlich halten es auch Faktencheck-Redaktionen wie LeadStories aus den USA. Die Journalisten dort prüfen Fälle von Satire im Rahmen eines Faktenchecks, wenn die Redaktion den Eindruck gewinnt, dass eine gewisse Zahl an Menschen die Satire für wahr hält - etwa anhand der Kommentare.
KI-Fakes und die oft zugehörige Text-Botschaft können also von einigen als authentische Nachricht aufgefasst werden. Das zeige eine zentrale Gefahr von satirischen KI-Bildern auf - nämlich "dass sie manipulierend oder desinformierend wirken können", sagt Pawelec. "Wenn die Menschen empört reagieren, weil sie die Inhalte für wahr halten, dann reagieren sie nicht auf das Satirische", sagt Pawelec.
"Satire" dient bisweilen als Feigenblatt
Wenn unter einem satirischen Beitrag sehr viel Wut in den Kommentaren zu lesen ist, könne auch ein Hinweis sein darauf, dass der Hinweis "Satire" als Feigenblatt verwendet wird: "Wenn die Empörung einkalkuliert ist, die Wut, die dann dank der Algorithmen für eine stärkere Verbreitung sorgt, dann kann das ein Hinweis sein, dass die eigentliche Intention ist, aus ökonomischen oder politischen Motiven Desinformation zu verbreiten." Das geht nicht nur zum Beispiel mit Deepfakes (also vor allem KI-Videos), sondern auch mit sogenannten Shallow-Fakes oder Cheap Fakes. Sie sind in der Regel mit einfachen Mitteln hergestellt: etwa wird die Tonspur eines Videos verlangsamt, um jemanden wie betrunken klingen zu lassen.
Pawelec hält die wirtschaftlichen Interessen der Plattformen für einen wichtigen Aspekt, denn "negative, sensationelle, emotionalisierende Inhalte erhalten mehr Interaktionen und werden daher tendenziell von den Algorithmen der Plattformen gepusht", schreibt Pawelec.
KI-Memes: Lustig - und manchmal auch im Dienst der Desinformation
Manche KI-Fakes verbreiten sich auch als Memes weiter - ebenso mit Hilfe der Algorithmen. Memes sind ein popkulturelles Internetphänomen, bei dem Bilder, Videoausschnitte oder Texte witzig oder sarkastisch aufgegriffen werden, häufig auf andere Themen übertragen werden und sich schnell verbreiten. Sie können aber auch für Hass und Desinformation eingesetzt werden. Auch im US-Wahlkampf verschaffte das "Satire"-Label den Verbreitern täuschender Posts eine gewisse Immunität vor rechtlichen Konsequenzen, schreiben die Autorinnen eines Artikels der Brookings Denkfabrik aus den USA.
Ein Beispiel für KI-Memes im Wahlkampf, das die Brookings-Autorinnen nennen: In einem ursprünglich als "Parodie" gelabelten Video von Kamala Harris, das durch KI manipuliert worden war, nennt sie sich selbst eine "Deep State Marionette" und bestätigt so vermeintlich eine Verschwörungstheorie. Trump-Unterstützer wie Musk verbreiteten das Video weiter.
Manche Memes sollen aber den Autorinnen zufolge nicht unbedingt davon überzeugen, dass der Inhalt wahr ist. Sondern provozieren. Diese Methode nennt man "rage-baiting".
Wie erkenne ich, ob jemand Satire macht - oder andere Ziele hat?
Für die Nutzer bedeutet die Analyse von möglichen Satire-Accounts eine Last, betont Pawelec. Doch wer Hinweise darauf sucht, ob ein Account Satire vielleicht nur als Deckmantel für Desinformation oder "rage baiting" benutzt, kann zum Beispiel darauf achten, wie sich die Posts eines Accounts über die Zeit entwickeln.
"Hier muss man zwischen Absicht und Folgen unterscheiden", sagt Judith Simon im Gespräch mit dem #Faktenfuchs. Sie ist Professorin für Ethik in der Informationstechnologie an der Universität Hamburg. Simon ist außerdem stellvertretende Vorsitzende des Deutschen Ethikrates und war dort Sprecherin der Arbeitsgruppe "Mensch und Maschine - Herausforderungen durch Künstliche Intelligenz". "Dass es jemand falsch verstehen kann, kann nicht dazu führen, dass wir Satire verbieten", sagt Simon. Aber wenn man als Nutzer bemerke, dass die ‘Satire’ häufig nicht als solche erkannt wird oder die KI-Fakes als echt missverstanden werden, der Urheber seine Praxis aber nicht verändere, könne man die Frage stellen: "Was nimmt der Account-Betreiber billigend in Kauf?"
Ob der Einzelfall von Satire, der geprüft wird, dann aber auch Desinformation ist - also falsche Information, die wissentlich und in der Absicht gestreut wird, zu schaden - das hänge von der Intention der Herstellenden und Verbreitenden ab, sagte Pawelec. "Und diese Intention eindeutig zu erkennen, ist fast unmöglich. Außer wir würden die befragen und die würden uns ehrlich antworten."
Was verrät der Kontext auf Satire-Accounts?
Dennoch können die verschiedenen Posts eines Accounts weitere Hinweise geben auf die Absichten hinter KI-Fakes. Bei dem Account, der viele Lauterbach-Fakes postet, sind zwischen die KI-Satire-Posts auch solche gestreut, die nicht synthetisch erstellt sind - und die Falschinformationen verbreiten. Zum Beispiel ein Screenshot von einer irreführenden Statistik zum Bürgergeld: Die Grafik, die über diverse Kanäle verbreitet wurde, arbeitet zwar mit korrekten Zahlen - lässt aber einen maßgeblichen Balken aus, wie dieser Faktencheck von Correctiv zeigt.
Die richtigen Verhältnisse auf einen Blick - neben der irreführenden Grafik zu Bürgergeld-Beziehern.
So bestätigt die irreführende Grafik das Vorurteil, vor allem Ausländer bezögen Bürgergeld. In Wahrheit beziehen vor allem Deutsche Bürgergeld. Im Post des Satire-Accounts heißt es - in der Rolle des vermeintlichen Lauterbach geschrieben: "Soll man das verbreiten?" Der Account tut es - und verschafft der täuschenden Schein-Statistik damit zu erheblicher Reichweite. Damit bewegten sich solche Accounts dann in Richtung Desinformation, sagt Pawelec.
Das Label "Satire" ermöglicht größeren rechtlichen Spielraum
"Der Begriff 'Satire' wird mitunter von böswilligen Akteuren als Feigenblatt genutzt, damit man zum Beispiel Maßnahmen vonseiten der Plattformen entgeht oder damit man nicht gerichtlichem Vorgehen gegen solche Inhalte ausgesetzt ist", sagt Pawelec, die darüber auch für die Bundeszentrale für politische Bildung geschrieben hat.
Satire ist eine Kunstform, und unsere Gesetze lassen viel zu: Kunst- und Meinungsfreiheit sind im deutschen Grundgesetz verankert. Doch es gibt Grenzen dafür: "Bei uns sind unwahre Tatsachenbehauptungen nicht von der Meinungsfreiheit gedeckt. Ich darf nicht wissentlich falsche Tatsachen verbreiten", sagte Andreas Daum, Rechtsanwalt bei der Kanzlei Noerr und Experte für Künstliche Intelligenz. Deswegen müsse man im rechtlichen Kontext eher unterscheiden zwischen rechtlich zulässiger und nicht zulässiger Kommunikation. Gemeinsam mit seinem Kollegen Lennart Laude, ebenfalls Rechtsanwalt und KI-Experte, schrieb Daum beim Verfassungsblog über KI als neues Wahlkampf-Instrument. Der #Faktenfuchs sprach mit beiden. "Bestimmte Meinungen im Bereich der Volksverhetzung oder der falschen Tatsachenbehauptungen sind nicht geschützt. Da bewegt man sich aus dem Korridor des Zulässigen hinaus", sagte Laude.
Für Satire wiederum werde dieser Korridor breiter, sagte Laude. Sie darf unwahre Tatsachen kommunizieren - unter zwei Bedingungen.
Satire muss für den durchschnittlichen Nutzer erkennbar sein
Erstens: Was an der Grenze des Zulässigen ist, müsse inhaltlich einen satirischen Kern haben, um noch zulässig zu sein, so Daum. Das habe nicht nur einen formalen Charakter. "Das muss mehr sein als nur 'Satire' drüberzuschreiben und dann aber rechtsextreme Inhalte zu posten." Daum nennt solche Inhalte als Beispiel für problematisches Material, das unter dem Deckmantel des Humors verbreitet wird. In einem Bericht des Nationalen Koordinators für Sicherheit und Terrorismusbekämpfung (NCTV) der Niederlande heißt es, dass gerade Rechtsextreme (KI-) Memes als "Online-Waffe" einsetzten. Je mehr Content Moderation es auf einer Plattform gebe, desto subtiler müssten die Botschaften in ein Meme verpackt sein, heißt es So können die - in Humor verpackten - Botschaften auch auf moderierten Plattformen ein breites Publikum erreichen.
Und zweitens, ergänzt Laude: "Das muss dann aber eben auch für den durchschnittlichen Nutzer als Satire erkennbar sein." Als Beispiel nennt Laude das Deepfake von Bundeskanzler Olaf Scholz, das der Künstler-Zusammenschluss "Zentrum für politische Schönheit" 2023 veröffentlicht hatte. Das Landgericht Berlin erachtete dieses Video als nicht zulässig. "Der Hintergrund war, dass das Gericht sagte, hier werden die Persönlichkeitsrechte, hier konkret das Namensrecht oder auch die Institution Bundeskanzler, beschädigt, weil ich einer Person eine Aussage zuordne, die sie niemals getätigt hat, und mir anmaße, dessen Name, dessen Gesicht und Stimme zu verwenden, und den Nutzer darüber verwirre, was der wirklich gesagt hat. Und das darf auch - so das Gericht - Satire nicht", erklärte Laude. Der durchschnittliche Nutzer erkenne nicht, so argumentierte das Gericht, dass Satire vorliegt.
Auch bei dem KI-generierten Foto von Lauterbach vor dem AfD-Hintergrund hält Laude nicht ausreichend offengelegt, dass es sich um einen Fake handelt. Es sei darauf angelegt, eine signifikante Personengruppe zu täuschen. Der Hinweis auf "Satire" stehe im Account - aber nicht auf dem Bild oder im Post.
Verbreiter auf Social Media haben Weiterverbreitung nicht unter Kontrolle
"Nach der ab 2026 vollständig geltenden KI-Verordnung der EU müsste dann zukünftig offengelegt sein, dass es KI-generiert ist", sagte Laude. "Denn der Verbreiter hat nicht unter Kontrolle, wie es weiterverbreitet wird." Gerade auf Social-Media-Plattformen oder in Messengerdiensten geht schnell der Zusammenhang verloren, der hilft einzuordnen, ob etwas Satire ist. Nutzer machen häufig einen Screenshot, oder laden ein Video herunter, speichern den Inhalt. Dieser wird ohne Ursprungsquelle oder Satirehinweis verschickt oder gepostet über Messenger-Dienste und soziale Medien. "Dann fehlt schnell der Kontext", sagte Desinformations-Expertin Pawelec. Das bedeutet, dass Menschen auch unabsichtlich zur weiteren Verbreitung und Normalisierung von extremen Inhalten beitragen können - während sie eigentlich nur etwas Lustiges teilen wollen.
Die KI-Verordnung der EU versuche, die Grenzen nachzuziehen, die auch die Meinungsfreiheit setze, sagt Laude - über die Anforderung, dass KI-generierte Deepfakes als solche erkennbar sein müsse. Für Deepfakes im politischen Raum gebe es aber rechtlich gesehen noch keine speziellen Regeln, sagte der Rechtsexperte dem #Faktenfuchs bereits, als es um einen Deepfake von Friedrich Merz (CDU) ging. Denn die KI-Verordnung der EU richtet sich nicht speziell auf den politischen Bereich.
Gerade hier aber steht einiges auf dem Spiel. "Eine Verwirrung der öffentlichen Meinungsbildung kann ein Ziel an sich sein", sagt Ethik-Professorin Judith Simon. "Mit dem Mittel Deepfake werden unterschiedliche Vertrauensprobleme geschaffen: Erstens vertrauen Menschen möglicherweise Dingen, die nicht wahr sind. Zweitens vertrauen Menschen Dingen nicht mehr, die wahr sind. Und drittens verlieren die Menschen den Glauben darin, dass sie überhaupt in der Lage sind, einen Unterschied zu erkennen beziehungsweise, dass eine Unterscheidung zwischen wahr und falsch möglich und notwendig ist."
Fazit
KI-Fakes sind ein Mittel, das für Satire genutzt werden kann - auch im Wahlkampf. Wie auch mit anderen Instrumenten kann Satire mit KI-Fakes die Grenze überschreiten, hin zu Botschaften, die juristisch nicht zulässig sind. Wichtig ist vor allem, dass für den durchschnittlichen Nutzer erkennbar ist, dass die Bilder synthetisch sind, also durch Künstliche Intelligenz erstellt. So laufen Nutzer weniger Gefahr, die KI-Fakes fälschlicherweise als echt einzuordnen.
Quellen:
Bundeszentrale für politische Bildung, Wenn der Schein trügt, Wenn der Schein trügt Deepfakes und Wahlen
Bundeszentrale für politische Bildung, Wenn der Schein trügt – Deepfakes und die politische Realität, Chancen für die Demokratie
Bundeszentrale für politische Bildung, Wenn der Schein trügt – Deepfakes und die politische Realität, Governance von Deepfakes
Bundeszentrale für politische Bildung, Wenn der Schein trügt – Deepfakes und die politische Realität, Anwendungsbereiche von Deepfakes
BR, AI Act in Kraft: Was stimmt nicht mit Europas KI-Verordnung?
BR, Deepfake von Merz - was bedeutet er für den Bundestagswahlkampf?
BR Respekt, Satire - Lachen für die Demokratie?
BR, #Faktenfuchs: Welche Themen sind anfällig für Desinformation?
BR, Warum wir auf Falschinformationen hereinfallen
BR, So treiben Shallow Fakes unter dem Mantel der Satire ihr Unwesen
BR, Studie: Wie Memes zur Verbreitung von Hass genutzt werden
Brookings, AI memes: Election disinformation manifested through satire
Correctiv Faktencheck, Bürgergeld: Grafik zu Bezügen von Geflüchteten ist irreführend
Gesetze im Internet, Artikel 5 Grundgesetz
LeadStories, Satire Policy
Legal Tribune Online, Gericht verbietet Scholz-Fake-Video zu AfD-Verbot
Leopoldina, Generative KI – jenseits von Euphorie und einfachen Lösungen
National Coordinator for Counterterrorism and Security, Niederlande, Far right memes: undermining and far from recognizable
Rolling Stone, These Influencers Are Making Content to Make You Angry — And It’s Working
Security Hero, State of Deepfakes
Uni Halle, Blog, Memekultur, Lektion 1: Was ist ein Meme?
Verfassungsblog, KI als neues Wahlkampfinstrument
"Hier ist Bayern": Der BR24 Newsletter informiert Sie immer montags bis freitags zum Feierabend über das Wichtigste vom Tag auf einen Blick – kompakt und direkt in Ihrem privaten Postfach. Hier geht’s zur Anmeldung!