Was bei der letzten Bundestagswahl noch Zukunftsmusik war, ist nun nicht mehr aus der Wahlkampfstrategien der Parteien wegzudenken: Der Einsatz von Künstlicher Intelligenz (KI) als strategischer und universeller Wahlkampf-Helfer. Vor allem auf Social-Media-Plattformen lassen sich durch bearbeitete Bilder und Videos potenzielle Wähler gezielter erreichen. Aber wie viel KI ist in Ordnung, um einen fairen Wahlkampf zu gestalten?
KI im Bundestagswahlkampf
CDU, CSU, SPD, Grüne, FDP und Linkspartei haben im Dezember 2024 ein Fairness-Abkommen geschlossen. Neben dem allseitigen Versprechen, keine Gewalt und Lügen zu verbreiten, sollen KI-generierte Videos und Bilder sorgfältig gekennzeichnet werden.
Ebenso wollen die Parteien auf die sogenannte Deepfake-Technologie verzichten, bei der täuschend echte Aufnahmen und Aussagen von Menschen erzeugt werden, nicht verwenden. AfD und BSW machen bei dieser Fairness-Vereinbarung nicht mit. BR24 Medien hat nachgefragt, wie viel KI die Parteien tatsächlich verwenden.
Die Parteien im Vergleich
Laut eigener Aussage verwendet die FDP KI nur in Einzelfällen und hauptsächlich zur Bildbearbeitung. Die CDU/CSU gibt an, vor allem bei Pressetexten und gezieltem Setzen von Social-Media-Inhalten KI einzusetzen. Die Linke benutzt KI-Tools als Unterstützung bei Social-Media-Analysen und für redaktionelle Arbeiten sowie Layout-Gestaltung bei Bildern und ähnlichem. Bei den Grünen steht die KI-Wahlkampfnutzung sogar im Wahlprogramm. Ihr Fokus der KI-Nutzung liegt in den Sozialen Medien. Sie verwenden – bei ausdrücklicher Zustimmung der Person – die KI zur Nachahmung von Stimmen oder physischen Erscheinungsbildern. Die SPD wiederum sieht KI allgemein als Arbeitserleichterung, die unter Beachtung von klaren Leitlinien, insbesondere in Sachen Datenschutz verwendet werden darf.
Alle Parteien sagen aus, dass sie sich an das Fairness-Abkommen halten und die KI-generierten Inhalte dementsprechend auch kennzeichnen.
Mit KI auf Wahlkampftour
Zwei Wochen vor der Bundestagswahl zeigt sich: die Parteien halten sich tatsächlich im Großen und Ganzen an ihre selbstgesteckten Rahmenbedingungen. Zwar gab es einen KI-Post der Linkspartei im Dezember, ein Hai im Anzug als Anspielung auf den Begriff Miethai, wurde aber auch als solches gekennzeichnet. Die CDU in NRW hat für Mitglieder einen eignen Chatbot als Wahlkampf-Helfer an die Seite gestellt. Der sogenannte Conrad unterstützt bei Pressemitteilungen und Social-Media Posts.
Fairness-Abkommen als positives Zeichen
Die gemeinsame Vereinbarung den Wahlkampf fair zu gestalten, ist laut dem akademischen Rat am Institut für Medien und Kommunikationswissenschaften Mannheim Phillip Müller als vielversprechend zu werten. Schließlich bieten die aufrichtige Kommunikation und die integre Wahlkampfführung eine gemeinsame Basis für politische Zusammenarbeit. Bisher funktioniere das im Wahlkampf relativ gut.
Beeinflussende Bildsprache
Vor allem die AfD benutzt vermehrt generative KI bei Videos und Bildern. Die Bildsprache ist dabei gewaltig: Ein Wahlvideo der AfD zeigt zum Beispiel ein Windrad über einem zerstörten Wald. Das bleibt viel eher im Gedächtnis als ein einfacher Text oder ein mit Photoshop verändertes Bild. Eine klare Kennzeichnung von KI-Inhalten, außer einer kurzen Erwähnung im Text, fehlt hier ebenso.
Auch Deepfakes kommen bei der AfD regelmäßig zum Einsatz. Im Januar erst ging ein Video der AfD Brandenburg viral, in dem Gesundheitsminister Karl Lauterbach in Handschellen abgeführt wurde. Das Video hat aber nicht nur eine unmittelbare Wirkung und Botschaft gegen die aktuelle Politik von Lauterbach. Laut Philipp Müller sind die langfristigen Folgen solcher Videos gravierend:
"Selbst wenn man als Nutzer erkennt, dass das nicht die Realität ist, kann das Bild im Kopf hängen bleiben. Es geht um die kumulativen Effekte. Wenn ich immer wieder sehr viele Posts sehe, die in ähnliche Richtung gehen, dann erhöht sich einfach die Wahrscheinlichkeit, dass sich auch Einstellungen verändern können. Das ist aber ein Prozess, der auch nicht innerhalb von zwei, drei Monaten oder gar in der heißen Wahlkampfphase passiert, sondern das passiert über zwei, drei Jahre hinweg".
Auch wenn Deepfakes kenntlich gemacht und von den Nutzern als solche identifiziert werden, beeinflussen diese unsere Wahrnehmung auf die Politik und ihre Protagonisten. Deshalb sind klare Regeln und Vorgaben bei Parteien zum Umgang mit KI und Deepfakes eine wichtige Voraussetzung für das Vertrauen in die Politik.
Weitere Hintergrund- und Service-Artikel zur Bundestagswahl 2025
- Zum Artikel: Bundestagswahl – welche Termine und Fristen Sie beachten müssen
- Zum Artikel: Neues Wahlrecht: So funktioniert die Bundestagswahl 2025
- Zum Überblick: Erst- und Zweitstimme – so wählen Sie richtig
- Zum FAQ: Briefwahl zur Bundestagswahl – so geht's
- Wahltermin: Ist die Bundestagswahl jetzt immer im Winter?
Das ist die Europäische Perspektive bei BR24.
"Hier ist Bayern": Der BR24 Newsletter informiert Sie immer montags bis freitags zum Feierabend über das Wichtigste vom Tag auf einen Blick – kompakt und direkt in Ihrem privaten Postfach. Hier geht’s zur Anmeldung!