Auf dem Bild ist ein Screenshot des Videos der AfD Brandenburg zu sehen.
Bildrechte: colourbox.com/Bombaert Patrick; Montage: BR
Bildbeitrag

Ein KI-generiertes Video der AfD Brandenburg zeigt Lauterbach in Handschellen und Habeck als Müllsammler.

Bildbeitrag
> Netzwelt >

#Faktenfuchs: Was steckt hinter dem KI-Wahlkampfvideo der AfD?

#Faktenfuchs: Was steckt hinter dem KI-Wahlkampfvideo der AfD?

Ein KI-generiertes Video der AfD Brandenburg sorgt für Aufsehen. Experten warnen vor langfristigen Folgen solcher Videos für die Gesellschaft. Was steckt hinter der Strategie – und wo liegen die rechtlichen Grenzen?

Darum geht's:

  • Die AfD Brandenburg hat ein KI-generiertes Wahlkampfvideo veröffentlicht, in dem auch KI-generierte Clips von Karl Lauterbach (SPD) und Robert Habeck (Grüne) zu sehen sind.
  • Laut Experten setzt die AfD damit gezielt auf Emotionalisierung. Rechtlich ist es trotz der extremen Darstellung der Politiker wohl zulässig.
  • Experten warnen aber vor der langfristigen Wirkung solcher Inhalte, da sie bestehende politische Überzeugungen verstärken und zur gesellschaftlichen Polarisierung beitragen können.

In dem Video begehen schwarze Männer Übergriffe und handeln mit Drogen. Windräder liegen zerstört am Boden. Zudem kommen die KI-generierten Doubles von zwei Bundesministern vor: Karl Lauterbach wird in Handschellen von Polizisten abgeführt, Robert Habeck ist Müllsammler.

Das Video ist bei genauem Hinschauen leicht als KI-generiert zu erkennen. Die starke Weichzeichnung, die grellen Farben und ruckelige Bewegungen der Politiker sind Hinweise darauf, dass es sich nicht um reale Aufnahmen handelt. Trotzdem warnen Experten im Interview mit dem #Faktenfuchs vor der langfristigen Wirkung solcher Videos auf Wähler.

  • Alle aktuellen #Faktenfuchs-Artikel finden Sie hier

Deepfake oder erkennbare Manipulation?

Aljoscha Burchardt vom Deutschen Forschungszentrum für Künstliche Intelligenz (DFKI) in Berlin hat das Video untersucht und kommt zu dem Schluss: "Das Video scheint aus verschiedenen KI-Schnipseln und gegebenenfalls auch echten Filmen zusammengewürfelt zu sein."

Die Qualität der technischen Umsetzung schätzt Burchardt als gering ein. "Die nicht besonders guten Szenen mit Lauterbach - wo er sehr verwaschen wirkt - und Habeck - in einer komischen Körperhaltung, die nicht zu ihm passt - sprechen für sich", so Burchardt.

Pia Lamberty, Sozialpsychologin am Center für Monitoring, Analyse und Strategie (CeMAS), ordnet das Video aus diesem Grund nicht als typisches Deepfake ein – die Manipulation sei trotz fehlender KI-Kennzeichnung klar erkennbar. "Spätestens wenn man die Verhaftung von Lauterbach oder Habeck als Müllsammler sieht, weiß man, dass das Video nicht real ist. Bei Deepfakes hingegen weiß man das in der Regel nicht. Sie sind so gestaltet, um gezielt in die Irre zu führen."

💡 Was ist ein Deepfake?

Ein Deepfake ist ein echt wirkender, mit KI bearbeiteter Medieninhalt, in der Regel von einer Person. Der Begriff setzt sich aus den Worten "Deep-Learning" (einer Art maschinellem Lernen von Computern) und "Fake" zusammen. Bei einem Deepfake-Video wird dabei entweder eine Art digitale Maske über eine andere Person gezogen und eine - häufig bekannte - Person somit in eine komplett andere Situation gebracht. Oder es werden bei echtem Videomaterial der betreffenden Person die Mimik und die Mundbewegungen so angepasst, dass es zu einem neuen, häufig ebenfalls KI-generierten Sprachinhalt passt.

Ob es ein Deepfake ist oder nicht, sei in dem konkreten Fall nebensächlich, sagt Lamberty. Entscheidend sei die Intention dahinter: Das Video zielt darauf ab, starke Emotionen zu wecken. "Zum einen Angst - vor dem Gesellschaftskollaps. Und gleichzeitig Wut - gegen die Politik, die in dem Narrativ der AfD alles zerstört", so Lamberty.

Angstszenarien als Strategie

"Das Video vermittelt das Gefühl: Deutschland steht kurz vor dem Kollaps, nichts funktioniert mehr," erklärt Lamberty. "Und die AfD ist die Rettung vor dem Untergang."

Zudem verfolge das Video eine doppelte Strategie, so Lamberty. Einerseits sollen Menschen emotional angesprochen und überzeugt werden. Andererseits dient es als gezieltes Mittel, um Aufmerksamkeit für die Partei zu generieren. "So betreibt die AfD Agenda-Setting, schafft Angstszenarien und sorgt dafür, dass über sie gesprochen wird", so Lamberty.

Lamberty nennt als Beispiel eine Szene aus dem Video, in der der Erzähler von "Übergriffen durch die üblichen Verdächtigen" spricht. Gleichzeitig ist auf dem Bildschirm ein schwarzer Mann zu sehen, der einer jungen Frau am Bahnsteig unter das T-Shirt greift. "Untermalt wird das Ganze mit aufreibender Musik, die gezielt Emotionen anspricht", erklärt Lamberty.

In Verbindung mit den KI-generierten Bildern entstehe so ein bestimmtes Narrativ: "Es wird der Eindruck vermittelt, dass es an Bahnhöfen ständig zu Übergriffen kommt – und zwar ausschließlich durch Ausländer. Damit will ich reale Vorfälle nicht verharmlosen, aber genau solche Szenarien werden im Video bewusst genutzt, um Emotionen zu schüren." Laut Lamberty hat diese Emotionalisierungsstrategie der AfD bisher zu wenig Beachtung gefunden: "Dabei erklärt sie viel von ihrem Erfolg. Die AfD nutzt solche Methoden, um die Demokratie von innen heraus zu destabilisieren."

Psychologische Wirkung von KI-generierten Videos

Lamberty bezweifelt, dass einzelne Videos direkt die Wahlentscheidung der Menschen beeinflussen. Vielmehr seien sie Teil eines größeren Narrativs. "Sie sind Puzzleteile in einem größeren Bild. Immer und immer wieder wird das gleiche gesagt. Wenn ich nur oft genug Dinge wiederhole, dann glauben Menschen mir die irgendwann – besonders, wenn sie bereits eine entsprechende Voreinstellung haben."

Zentral ist laut Aljoscha Burchardt vom DFKI der sogenannte "Confirmation Bias" [externer Link] – die Tendenz, Informationen so auszuwählen und zu interpretieren, dass sie bestehende Überzeugungen oder Erwartungen bestätigen, während widersprüchliche Fakten ignoriert oder abgewertet werden. In Bezug auf das KI-generierte Video der AfD erklärt Burchardt: "Es bleibt immer etwas hängen und besonders, wenn man eh schon eine schlechte Meinung von den dargestellten Personen hat, dann glaubt man solche 'Unterstellungen' noch schneller."

Beobachter der vergangenen US-Wahlen kommen zu einem ähnlichen Ergebnis. Sie sehen KI-generierte Videos oder Deepfakes eher als Werkzeug parteipolitischer Propaganda, das bestehende Überzeugungen verstärkt, anstatt neue Wähler zu gewinnen.

Die Bundeszentrale für politische Bildung erklärt auf ihrer Webseite [externer Link]: Die zunehmende Verbreitung von Deepfakes kann zu wachsender Unsicherheit darüber führen, was wahr ist und was nicht. Das wiederum könne Menschen die politische Meinungsbildung und Entscheidungsfindung schwerer machen.

Rechtliche Einschätzung

Könnte das Video eine strafbare Diffamierung sein? Laut Rechtsexperte Andreas Daum - Rechtsanwalt bei der europäischen Kanzlei Noerr und Spezialist für KI - ist es ein schwieriger Fall: "Hier geht es weniger um die Verbreitung falscher Tatsachen. Die Menschen können erkennen, dass das, was sie in dem Video sehen, nicht passiert ist, sondern sich auf eine von der AfD erträumte Zukunft bezieht." Zudem gelten für Politiker auch im Bereich der Persönlichkeitsrechte andere Standards. "Die müssen mehr aushalten als Otto Normalverbraucher", erklärt Daum. "Deshalb würde es mich nicht überraschen, wenn ein Gericht das als zulässig betrachten würde."

Auch Jurist Lennart Laude, ebenfalls Rechtsanwalt bei Noerr und daneben Mitarbeiter beim "Verfassungsblog", betont, dass im Wahlkampf andere Grenzen gelten. "Es gibt Beispiele von Ton-Fakes, die real existierende Personen und Aussagen imitieren, was unzulässig wäre. Doch das AfD-Wahlkampfvideo soll die Zukunft abbilden. Dann ist das eine Fiktion und keine Tatsache – insofern ist das aus meiner Sicht eher auf der zulässigen Seite."

Rechtlich gesehen gebe es bisher noch keine speziellen Regeln für KI-generierte Videos im politischen Raum, sagte Laude in einem Gespräch mit dem #Faktenfuchs im November. In einem Beitrag auf dem Verfassungsblog [externer Link] beleuchteten Laude und Daum den Einsatz von KI als neues Wahlkampf-Instrument sowie die damit verbundenen rechtlichen Herausforderungen. Sie kritisieren darin die ab 2026 vollständig geltende KI-Verordnung der EU [externer Link], die zwar vorschreibt, dass Deepfakes grundsätzlich gekennzeichnet werden müssen, jedoch keine spezifischen Regelungen für politische Akteure enthält. Die generelle Nutzung von KI durch Parteien ist laut Daum und Laude nicht ausreichend geregelt.

Auch basiere die Definition der KI-Verordnung darauf, ob KI-generierte Inhalte fälschlicherweise als echt wahrgenommen werden könnten. Diese Einschätzung hängt jedoch stark von persönlichen Faktoren beim Rezipienten - wie Alter, Erfahrung und digitalem Wissen - ab, weshalb eine klare Grundlage für die Bestimmung von Deepfakes fehle, so Daum und Laube.

Fazit

Das KI-generierte Wahlkampfvideo der AfD Brandenburg schürt laut Experten Angst und Wut, um das eigene politische Narrativ zu stärken. Die übertriebene Darstellung von Migranten als Bedrohung und die Abwertung der Politiker hat laut Experten zwei Ziele: Einerseits emotionalisiert es potenzielle Wähler, andererseits sorgt es durch Provokation für öffentliche Aufmerksamkeit und Agenda-Setting. Experten warnen, dass solche Inhalte langfristig bestehende Überzeugungen verstärken und zur gesellschaftlichen Polarisierung beitragen.

Rechtlich könnte das Video zulässig sein, sagen Rechtsexperten. Denn es zeigt erkennbar fiktive Szenarien und für Politiker gelten im Bereich der Persönlichkeitsrechte andere Standards, besonders während des Wahlkampfs.

Quellen

Hier listen wir die Quellen auf, die wir für die Recherche verwendet haben.

Interview: Pia Lamberty, Sozialpsychologin am Center für Monitoring, Analyse und Strategie (CeMAS)

Interview: Aljoscha Burchardt, Deutsches Forschungszentrum für Künstliche Intelligenz (DFKI)

Interview: Andreas Daum, Rechtsanwalt bei der Kanzlei Noerr

Interview: Lennart Laude, Autor beim "Verfassungsblog" und Rechtsanwalt bei Noerr

DW: Faktencheck: Wie KI den Wahlkampf verzerrt

Online Lexikon für Psychologie & Pädagogik - Stangl: Bestätigungstendenz

Washington Post: AI didn’t sway the election, but it deepened the partisan divide

bpb: Wenn der Schein trügt: Deepfakes und Wahlen

bpb: Politische Manipulation und Desinformation

BR24: Deepfake von Merz - was bedeutet er für den Bundestagswahlkampf?

BR24: Wie beeinflussen KI-Fakes Wahlen?

Verfassungsblog: KI als neues Wahlkampfinstrument

Bundesregierung: Einheitliche Regeln für Künstliche Intelligenz in der EU

"Hier ist Bayern": Der BR24 Newsletter informiert Sie immer montags bis freitags zum Feierabend über das Wichtigste vom Tag auf einen Blick – kompakt und direkt in Ihrem privaten Postfach. Hier geht’s zur Anmeldung!