Ein Deepfake in einer Social-Media-Timeline
Bildrechte: BR

Auch KI-Inhalte tauchen häufiger in den Timelines auf Social Media auf, auch im Kontext von Desinformation.

Per Mail sharen
Artikel mit Audio-InhaltenAudiobeitrag

Bots, Bilder, Deepfakes: Wie KI für Desinformation genutzt wird

Immer öfter kursieren Fotos, Videos oder Tonaufnahmen, die mit Künstlicher Intelligenz bearbeitet oder erstellt wurden - auch im Kontext von Desinformation. Ein #Faktenfuchs über die Auswirkungen von KI auf Fakes.

Über dieses Thema berichtet: BR24 am .

Darum geht’s:

  • Künstliche Intelligenz (KI) hat sich weiterentwickelt und spielt auch bei Desinformation eine Rolle
  • Der Einsatz von KI macht sich vor allem im Bereich von Video- und Audio-Fakes bemerkbar
  • Insgesamt ist der Anteil von KI-Fakes an Desinformation aber gering und die Auswirkungen von Künstlicher Intelligenz auf Desinformation laut Experten überschätzt

Wie Künstliche Intelligenz genutzt wird, um Lügen zu verbreiten und gezielt Menschen zu täuschen, zeigte sich Anfang Juli dieses Jahres - einmal mehr im Zusammenhang mit dem russischen Angriff auf die Ukraine. Auf X, dem ehemaligen Twitter, sowie auf prorussischen Telegram-Kanälen verbreitete sich ein Instagram-Video, auf dem sich ein Mann im Fahrersitz eines Autos filmt.

Deepfake: Angeblicher Autohändler verbreitet Lügen über ukrainische First Lady

Der Mann in dem Video spricht auf Französisch in die Kamera, stellt sich als Händler von Luxusautos vor und behauptet: Olena Selenska, Ehefrau des ukrainischen Präsidenten Wolodymyr Selenskyj, habe bei ihm den ersten Sportwagen eines neuen Modells des Herstellers Bugatti gekauft. Kostenpunkt: rund viereinhalb Millionen Euro. Es klingt wie eine Story mit viel Sprengkraft - doch wahr ist an diesen anscheinend brisanten Informationen nichts.

Bei dem Video handelt es sich um einen Deepfake. Echtes Videomaterial wurde also mittels KI verändert. Die Stimme, Mundbewegungen und Mimik des Mannes sind in diesem Fall nicht echt. Zusätzlich zu dem Deepfake wurde noch eine gefälschte Rechnung präsentiert. Bugatti selbst hat dem US-Medium "CNN" bestätigt, dass die Behauptungen nicht zutreffen. Auch das auf der gefälschten Rechnung erwähnte Autohaus hat der "Deutschen Welle" mitgeteilt, dass es sich um einen Fake handelt.

💡 Was ist ein Deepfake?

Ein Deepfake ist ein echt wirkender, mit KI bearbeiteter Medieninhalt, in der Regel von einer Person. Der Begriff setzt sich aus den Worten "Deep-Learning" (einer Art maschinellem Lernen von Computern) und "Fake" zusammen. Bei einem Deepfake-Video wird dabei entweder eine Art digitale Maske über eine andere Person gezogen und eine - häufig bekannte - Person somit in eine komplett andere Situation gebracht. Oder es werden bei echtem Videomaterial der betreffenden Person die Mimik und die Mundbewegungen so angepasst, dass es zu einem neuen, häufig ebenfalls KI-generierten, Sprachinhalt passt.

Wer der angebliche Autohändler in dem Fake-Video wirklich ist und woher das Videomaterial kommt, ist bislang unklar. Der Instagram-Account wurde bereits gelöscht. Der Fake ist nach einer Recherche der britischen "BBC" Teil eines russischen Desinformationsnetzwerks, das gezielt KI einsetzt. Der angebliche Reichtum der Selenskyjs war schon öfters Ziel mutmaßlich aus Russland stammender Desinformationskampagnen. So kursierte im vergangenen Jahr eine gefälschte Juwelier-Rechnung von Selenska, wie das Faktencheck-Team der Presseagentur dpa recherchiert hat.

Bildrechte: BR
Artikel mit Bild-InhaltenBildbeitrag

Das Video des angeblichen Autohändlers aus Frankreich ist ein Deepfake.

Fakes zu erstellen, wird durch KI einfacher

Wofür es früher noch aufwendige Produktionen, mehrere Personen mit besonderen technischen Fähigkeiten und teure Computerprogramme brauchte, das kann heute mit wenigen Klicks, ohne professionelles technisches Wissen und mit günstigen Programmen erstellt werden.

"Im besten und im schlechtesten Sinne demokratisiert Künstliche Intelligenz die Schaffung von Inhalten", sagt Andreas Jungherr im Gespräch mit dem #Faktenfuchs. Jungherr ist Professor für Politikwissenschaft an der Universität Bamberg und forscht zu digitaler Transformation.

Möglichkeiten von Audio-Deepfakes durch KI stark weiterentwickelt

Vor allem Audio-Deepfakes oder Voice Fakes - also gefälschte Audiospuren, auf denen Menschen sprechen - hätten durch die KI-Entwicklung einen großen Schritt gemacht, sagt Josef Holnburger. Er ist Geschäftsführer des Centers für Monitoring, Analyse und Strategie, kurz CeMAS, das zu Desinformation und Verschwörungstheorien forscht und aufklärt.

"Voice Fakes sind wirklich sehr einfach zu generieren. Es gibt Programme, die erstaunlich gut darin sind, Stimmen zu klonen und damit dann vorgegebene Inhalte zu sprechen", sagt Holnburger.

Die meisten Programme müssen mit einer Aufnahme der Stimme gefüttert werden, die geklont werden soll. Dieses Ausgangsmaterial wird von der KI analysiert, die darauf basierend den Stimmen-Klon erstellt. Das sei mittlerweile mit sehr wenig Ausgangsmaterial möglich, so Holnburger.

Geklonte Stimme von Jens Riewa spricht auf Demo über Pandemie

Dass solche Audio-Deepfakes für Täuschungen genutzt werden, zeigt auch ein Fall aus dem vergangenen Herbst. Auf Demonstrationen gegen die Covid-Maßnahmen wurde ein mittels KI erstellter Audio-Fake der "Tagesschau"-Sprecher Jens Riewa und Susanne Daubner abgespielt. Nachdem erklingen der "Tagesschau"-Melodie entschuldigt sich der Fake-Riewa für eine angebliche Täuschung der Zuschauer während der Corona-Pandemie. Auch bei Betrugsanrufen oder Schockanrufen kommt die KI-Technologie zum Einsatz.

Audio-Fakes seien besonders tückisch, da sie einen besonders emotionalen Zugang zu Menschen finden, sagt KI-Experte Aljoscha Burchardt vom Deutschen Forschungszentrum für Künstliche Intelligenz (DFKI) in Berlin. "Du sprichst den Leuten sozusagen direkt in den Kopf", sagt Burchardt. Außerdem "versenden" sich Tonaufnahmen schnell, man schnappt etwas auf, schon ist es weg und man kann eventuell - wie im Fall der Demo - nicht zurückspulen und es sich nochmal anhören.

Auch wenn sich die KI-Audio-Fakes manchmal künstlich oder mechanisch anhören, kann es dennoch schwierig zu erkennen sein, ob man es mit einem Fake zu tun hat.

Alle Tipps, wie Sie KI-Fakes - auch Audio-Deepfakes - erkennen können finden Sie in diesem Artikel.

ChatGPT erstellt täuschend echte Texte und verbessert Bots

Durch die KI generierte Texte wurden ebenfalls bereits für Desinformation eingesetzt. So hat die AfD-Co-Vorsitzende Alice Weidel nach Angaben von "t-online" eine von einem Parteikollegen mittels KI erstellte Fake-Pressemitteilung des Bundesinnenministeriums für echt gehalten und sich darüber empört.

Auch Betrüger und Verbreiter von Desinformation machen sich zunutze, dass Sprachmodelle wie ChatGPT mittlerweile Texte generieren können, die als maschinell generiert nicht mehr zu erkennen sind. Insbesondere Betreiber von Bot-Netzwerken, also inauthentischen Social-Media-Profilen, die vorgeben, echt zu sein, profitieren davon. Die Verknüpfung mit Sprachmodellen wie ChatGPT lässt ein Fake-Profil deutlich authentischer wirken. "Weil es gut gemacht ist, erkennt man sie nicht mehr als Bots", sagt Josef Holnburger.

Kommentare, Posts und Profilbeschreibungen können sowohl in hoher Qualität als auch in Masse etwa mit KI-Sprachmodellen erstellt werden. Nach Angaben des US-Justizministeriums und von OpenAI, dem Betreiber von ChatGPT, wurde das Sprachmodell bereits im Zusammenhang mit Bots genutzt.

KI-Bilder von Trump auf Weihnachtsfeier

Donald Trump bei einer Weihnachtsfeier, umringt von schwarzen Frauen und Männern. Auch wenn es diese Szene in echt nie gegeben hat - mit KI-Programmen wie "Midjourney" oder "Dall-E" lassen sich durch einen Textbefehl Bilder erstellen, die zumindest auf den ersten Blick mittlerweile sehr nah an echte Fotos herankommen. Unterstützer von Donald Trump posteten die KI-Bilder im Frühjahr dieses Jahres, um zu suggerieren, der Ex-US-Präsident und derzeitige republikanische Präsidentschaftskandidat komme bei schwarzen Wählern gut an.

Auf den zweiten Blick zeigt sich, dass mit den Bildern etwas nicht stimmt: Trumps Finger scheinen Schwimmhäute zu haben, die Schrift auf Kleidungsstücken im Hintergrund besteht nicht aus echten Buchstaben, Körperteile sind deformiert. Klassische Indizien, wenn es sich um ein KI-generiertes Bild handelt. Doch solche "Fehler" in den KI-Bildern würden mit der fortlaufenden Weiterentwicklung der KI-Modelle weniger, da sind sich die Experten Burchardt und Holnburger einig. Worauf man dennoch achten kann, können Sie in diesem Artikel lesen.

Bildrechte: BR
Artikel mit Bild-InhaltenBildbeitrag

Das Bild, das Donald Trump auf einer Weihnachtsfeier zeigt, ist nicht echt. Es wurde mit KI-generiert.

Videos: Deepfakes kursieren immer wieder

Sogar ganze Videos lassen sich mittlerweile per Textbefehl erstellen. Die Qualität dieser Videos - im Hinblick auf ihre mögliche Echtheit - ist jedoch zum aktuellen Zeitpunkt noch recht gering. Deformierte Objekte, Bewegungen und Geschehnisse entgegen der Gesetze von Physik und Logik sind hier noch ziemlich häufig auf den ersten Blick zu erkennen und spielen bislang im Rahmen von Desinformation keine wirkliche Rolle.

Durch technologische Weiterentwicklung könnte sich dies in Zukunft ändern. OpenAI hat Anfang des Jahres Videos von ihrem KI-Videoerstellungsprogramm "Sora" vorgestellt, die zeigen, auf welchem Niveau KI-Videos in Zukunft generiert werden könnten. Bislang ist das Programm noch nicht öffentlich verfügbar. CeMAS-Geschäftsführer Josef Holnburger nennt die mögliche Weiterentwicklung von KI-Videos eine "große Herausforderung".

Dass mittels Künstlicher Intelligenz Deepfakes, wie im Fall des angeblichen französischen Autohändlers, erstellt werden, kommt jedoch häufiger vor. Vor einigen Monaten kursierte etwa ein Deepfake-Video von Matthew Miller, Sprecher des US-Außenministeriums, der sich angeblich zu ukrainischen Angriffen auf Russland äußerte.

KI-Einsatz bei Desinformation: Nicht immer eindeutig, insgesamt gering

Nicht jedes manipulierte Video von einem Politiker muss aber automatisch ein mittels KI bearbeiteter Deepfake sein. Kurz nachdem bekannt wurde, dass Kamala Harris US-Präsidentschaftskandidatin werden könnte, kursierte ein Video von ihr aus dem vergangenen Jahr. In dem Video scheint Harris auf einer Veranstaltung mit schleifender Stimme wirre Dinge wie "today is today" ("heute ist heute") zu sagen.

Die Tonspur stammt allerdings von einer Harris-Imitatorin, wie "Correctiv" recherchiert hat, nicht von einer KI. Die echte Tonspur wurde also einfach ersetzt. Die Mundbewegungen des Videos hingegen wirken künstlich, passen aber grob zum Gesagten der Imitatorin - sie könnten also mittels einer Deepfake-Software angepasst worden sein. Ob KI eingesetzt wurde oder nicht, ist nicht immer eindeutig zu erkennen. Das Video verbreitete sich vor allem auf X, dem ehemaligen Twitter, sehr stark und wurde millionenfach abgerufen.

Bildrechte: BR
Artikel mit Bild-InhaltenBildbeitrag

Ein manipuliertes Video der US-Vizepräsidentin Kamala Harris verbreitete sich vor allem auf X sehr stark.

"Es gibt zwar günstige oder kostenlose Tools, mit denen man Deepfakes erstellen kann", sagt Josef Holnburger, "aber es ist auf jeden Fall erstmal mit Aufwand verbunden". Trotz der Entwicklung von KI seien klassische Fakes immer noch einfacher zu produzieren. "Ein Bild von einem Politiker, daneben ein gefälschtes Zitat - das ist schneller, das kostet nichts." Solche klassischen Fakes, wie aus dem Zusammenhang gerissene Überschriften, Bilder oder Informationsschnipsel ohne Kontext würden weiterhin große Reichweiten erzielen, so Holnburger.

"Wir sehen immer noch, dass der Großteil der Desinformation ohne KI-Fakes auskommt" - Josef Holnburger, Geschäftsführer CeMAS

Auch wenn die KI-Entwicklung natürlich Auswirkungen auf den Desinformations-Kosmos habe, würden die Auswirkungen meist überschätzt, sagt Holnburger.

Experten: KI "nur ein Werkzeug", derzeitige gesellschaftliche Auswirkungen gering

Im Hinblick auf gesellschaftliche Auswirkungen ist der Politikwissenschaftler Andreas Jungherr ebenfalls zurückhaltend. "Ich glaube nicht, dass wir es mit Problemen zu tun haben, die tatsächlich ein Wahlergebnis beeinflussen". Viele KI-Fakes würden schnell entlarvt und nicht von den journalistischen Medien aufgegriffen.

Gerade im politischen Diskurs sei der Einsatz von KI-Inhalten mit großen Risiken wie öffentlicher Kritik und Glaubwürdigkeitsverlust verbunden. Für Jungherr ist die generell schwindende Verständigung auf eine gemeinsame Faktenbasis ein größeres Problem als die für Fakes genutzte KI-Technologie.

Aljoscha Burchardt vom DFKI beobachtet, dass die Rolle von KI dahingehend oft missverstanden werde: "KI ist erstmal nur ein Werkzeug, das muss man sich immer wieder sagen. Die Systeme machen nichts aus eigenem Antrieb heraus. Alle Inhalte müssen von uns Menschen ausgelöst werden und es muss Vorgaben geben." Von selbst mache die KI also nichts. Für diejenigen, die erfundene oder irreführende Inhalte erstellen wollen, sei es aber eben ein sehr geeignetes Werkzeug.

Deepfake-Behauptungen bei echten Videos

Die technologischen Möglichkeiten von KI führen noch zu einem anderen Phänomen. "Es wird in Zukunft nicht nur darauf ankommen zu vermitteln, was KI ist", sagt CeMAS-Geschäftsführer Josef Holnburger, "sondern eine große Herausforderung wird auch der Beweis der Authentizität, weil es immer Menschen gibt, die alles, was ihnen nicht passt, zu KI-generierten Inhalten zählen".

Wenn etwa ein unvorteilhaftes Video eines Politikers kursiert, könnte der dann behaupten, das Video sei ein Fake und daher zu vernachlässigen - obwohl es sich um ein echtes Video handelt. Das nennt sich "liar's dividend", zu deutsch: die "Dividende des Lügners".

Fazit

Die Weiterentwicklung von KI-Programmen macht sich auch im Feld von Desinformation bemerkbar. Es gibt immer wieder Fälle, in denen mittels Künstlicher Intelligenz Texte, Audios, Bilder oder Videos generiert oder bearbeitet werden, um damit zu täuschen oder zu verleumden. Insbesondere Deepfakes von Audio und Videomaterial sind immer wieder zu beobachten.

Experten zufolge ist der Anteil der KI-Fakes zwar gewachsen, aber macht immer noch nur einen kleinen Teil der kursierenden Desinformation aus. Ein Bild oder eine Überschrift aus dem Zusammenhang zu reißen, sei immer noch mit weniger Aufwand verbunden und verbreite sich ebenfalls sehr stark.

"Hier ist Bayern": Der BR24 Newsletter informiert Sie immer montags bis freitags zum Feierabend über das Wichtigste vom Tag auf einen Blick – kompakt und direkt in Ihrem privaten Postfach. Hier geht’s zur Anmeldung!