Ein KI-generiertes Bild zeigt angeblich Donald Trump auf einer Weihnachtsfeier
Bildrechte: BR

Ein KI-Fake von Ex-US-Präsident Donald Trump kursierte vor kurzem auf X. Mit einem genauen Blick lässt sich das Bild schnell als unecht erkennen.

Per Mail sharen
Artikel mit Bild-InhaltenBildbeitrag

#Faktenfuchs: So erkennen Sie KI-generierte Fakes

Durch den Boom von Künstlicher Intelligenz spielen durch KI generierte oder bearbeitete Inhalte auch bei Betrugsmaschen und Desinformation eine Rolle. Der #Faktenfuchs gibt Tipps, wie Sie KI-Bilder, Deepfakes und Stimm-Klone erkennen können.

Über dieses Thema berichtet: radioWelt am .

Seitdem Künstliche Intelligenz besser darin geworden ist, Medieninhalte wie Bilder, Tonspuren oder Texte zu erzeugen, werden solche KI-Inhalte auch genutzt, um zu täuschen und zu verleumden.

Insgesamt machen sie immer noch einen kleinen Anteil an den Fakes aus, die im Netz kursieren - dennoch gibt es Fälle, in denen Deepfakes, Stimm-Klone oder maschinell erstellte Texte in die Irre führen sollen.

Dieser #Faktenfuchs gibt Tipps, woran Sie KI-generierte Inhalte erkennen können und welche Tools Ihnen beim Entlarven helfen können. Und zeigt auf, wo die Grenzen beim Erkennen von KI-Inhalten liegen.

KI-Texte: Fokus auf den Inhalt

Texte lassen sich mittlerweile sehr schnell und kostenlos mittels KI-Programmen wie ChatGPT erstellen. Ein einfacher Textbefehl mit Anweisungen, was für ein Text erstellt werden soll, in welchem Stil er geschrieben sein soll und worum es gehen soll, reicht aus. Damit können etwa irreführende Artikel erstellt werden oder Texte für Fake-Social-Media-Profile und Bots, mit denen sie Echtheit vortäuschen.

Rein textlich sind KI-generierte Formulierungen in der Regel nicht von menschlich erstellten zu unterscheiden. "Die Texte lesen sich gut, syntaktisch ist alles in Ordnung", sagt Aljoscha Burchardt vom Deutschen Forschungszentrum für Künstliche Intelligenz (DFKI) in Berlin. Fehlerhaft seien KI-Texte hingegen häufig in Bezug auf den Inhalt. "Die Systeme können nicht aus dem Computer rausgehen und in die Welt gucken, ob das auch wirklich so stimmt."

So hat zum Beispiel innerhalb der AfD eine mittels KI erstellte Fake-Pressemitteilung des Bundesinnenministeriums zu Verwirrung geführt und Alice Weidel getäuscht. Daher gilt es, Texte im Netz und angebliche Dokumente auf ihren Inhalt hin gegenzuchecken.

Wenn Sie ausprobieren wollen, ob Sie erkennen, wann Sie mit einem Menschen und wann mit einer KI chatten, probieren Sie sich doch an diesem Browser-Spiel (Externer Link, Inhalte auf Englisch).

Auch Programme, die ihrerseits damit werben, KI-Texte als solche zu erkennen, funktionieren aktuell laut den vom #Faktenfuchs befragten Experten nicht wirklich zuverlässig. Vor allem die Beweisführung, was genau von der Maschine kommt und wieso, ist hier letztlich schwierig.

KI-Bilder: Auf Details achten und logisch denken

Mit KI-Programmen lassen sich mittlerweile nahezu fotorealistische Bilder erstellen, nur per Texteingabe. Diese Fotos lassen sich zwar meistens noch als KI-generiert erkennen, durch die fortlaufende Verbesserung der KI-Programme wird es aber immer schwieriger. Man muss häufig schon genau hinschauen, ein erster Blick reicht für ungeschulte Augen meist nicht.

"Es hilft, die interne und die externe Logik des Bildes zu überprüfen", sagt Josef Holnburger, Geschäftsführer des Think-Tanks "Center für Monitoring, Analyse und Strategie" (CeMAS), der sich mit der Verbreitung von Fälschungen im Rahmen von Desinformation beschäftigt.

Interne Logik bedeutet: Ergeben die Inhalte dieses Fotos Sinn oder gibt es logische, strukturelle oder physikalische Fehler? Auf diese Details sollten Sie zuerst achten:

  • Finger - bereits seit Beginn des Aufkommens von KI-generierten Bildern haben die Modelle Probleme damit, Finger und Hände korrekt darzustellen. Häufig lassen sich weniger oder mehr als fünf Finger beobachten. Manchmal sehen einige Finger auch deformiert aus. Das Gleiche gilt für Füße und Zehen. Schauen Sie auch, ob sich alle Körperextremitäten eindeutig zuordnen lassen. Ein Bein, das keiner Person gehört oder ein Arm, wo keiner sein sollte, ist auch häufiger zu beobachten.
  • Haare - bei der Darstellung von Haaren haben einige KI-Modelle ebenfalls Schwierigkeiten. Einzelne Strähnen beginnen oder verschwinden im Nichts oder wirken unnatürlich.
  • Kleidung und Accessoires - hier werden teils merkwürdige Falten dargestellt oder Nähte, die in andere Kleidungsstücke übergehen. Ketten, die auf einmal zu einem Reißverschluss werden oder Knöpfe, die alle unterschiedlich aussehen. Vor allem mit filigranen Details sowie Übergängen, etwa bei Brillen, hat die KI noch gelegentlich Probleme.
  • Schrift - Text oder Schriftzeichen werden häufig auf KI-Bildern nicht korrekt dargestellt. Buchstaben sind verformt, wirken Hieroglyphen-artig oder entsprechen überhaupt nicht den echten Buchstaben.
  • Hintergrund - gerade im Hintergrund von KI-Bildern tauchen gelegentlich fehlerhafte Objekte auf. Passen die Schatten, stimmen die Proportionen im Hintergrund und sind die Elemente dort stimmig? Gerade im Hintergrund sehen Gesichter häufig gleich oder generisch aus.
Bildrechte: BR
Artikel mit Bild-InhaltenBildbeitrag

Ein KI-generiertes Bild von Ex-US-Präsident Donald Trump kursierte auf X. Zu erkennen war es vor allem an den deformierten Fingern.

Wenn Bilder zu weichgezeichnet oder "perfekt" aussehen, kann das auch ein häufiger Hinweis auf KI-Generierung sein - es könnte sich allerdings auch um einen Filter handeln, der über das eigentliche Bild gelegt wurde.

Achtung: Alle diese Hinweise können mit einer Weiterentwicklung der KI-Modelle schnell hinfällig werden und sie müssen auch nicht auf jedes KI-generierte Bild zutreffen. Sie bilden den Stand bis Sommer 2024 ab und sollen eine Hilfestellung bieten.

Die externe Logik dürfte darüber hinaus auch dann noch weiterhelfen, wenn die KI-Modelle bei der Darstellung der Bilder noch besser werden. Dazu gehören Fragen wie:

  • Ist es plausibel, dass dieses Foto an diesem Ort so geschossen wurde?
  • Kann der Fotograf dort überhaupt gestanden haben und das Foto so aufgenommen haben?
  • Gibt es weitere Fotos von dem Geschehnis? Warum nicht? Bedenken Sie, heutzutage hat fast jede und jeder ein Smartphone dabei. Bei außergewöhnlichen Ereignissen wäre es wahrscheinlich, dass man im Netz weitere Fotos oder Videos davon findet.

Dass KI-Modelle dasselbe Ereignis bzw. denselben Moment aus unterschiedlichen Perspektiven übereinstimmend und fehlerfrei darstellen, ist zurzeit noch nicht zu beobachten. Dabei kann es auch helfen, mit dem fraglichen Bild eine sogenannte Bilderrückwärtssuche durchzuführen. Wie das funktioniert, lesen Sie hier.

Audio-Fakes: Gut gemacht, kaum zu erkennen

Einen Text eingeben, den eine berühmte Person dann spricht - das geht mit Programmen für Audio-Deepfakes problemlos. Es braucht lediglich eine Tonaufnahme des Originals, etwa eine Sprachnachricht, manchmal reichen schon einige Sekunden für ein überzeugendes Ergebnis.

Während die Stimm-Klone manchmal noch mechanisch klingen und einige Worte seltsam betonen, werden sie - ähnlich wie die KI-generierten Bilder - mit der Zeit immer authentischer und damit schwerer vom Original zu unterscheiden.

Audio-Fakes können vor allem dann schwer zu erkennen sein, wenn die Tonspur der einzige Anhaltspunkt ist, den man hat. Das war etwa bei einer Demo gegen die behördlichen Corona-Schutzmaßnahmen der Fall, wo ein Audio-Deepfake von "Tagesschau"-Sprecher Jens Riewa abgespielt wurde.

"Audio ist ein sehr flüchtiges Medium", sagt Aljoscha Burchardt vom DFKI. Außerdem seien Menschen beim Gehör sehr genügsam. "Selbst wenn es um uns herum laut ist oder es viele Reize gibt, können wir trotzdem noch die Botschaft herausziehen".

Stimm-Deepfakes bei Betrugsmaschen und Phishing im Einsatz

Außerdem sei Ton ein sehr emotionales Medium, sagt Burchardt. Das machen sich auch Betrüger zunutze. Die KI-Technologie wird auch bei sogenannten Schockanrufen eingesetzt. Wenn angeblich die Tochter von einer unbekannten Nummer aus anruft und um Geld bittet, sollte man auch dann vorsichtig bleiben, wenn die Stimme wirklich nach der Tochter klingt.

Burchardt empfiehlt in so einem Fall, um die Nummer für einen Rückruf zu bitten und dann zu versuchen, die Tochter unter der eigentlichen Nummer zu erreichen. Auch kann man sich schützen, in dem man ein Codewort ausmacht, das man genau in solchen Situationen abfragen kann. Im beruflichen Umfeld sollte man ebenfalls wachsam sein: Einen versuchten Betrugsfall mittels Audio-Deepfakes hat es erst kürzlich im Management des Autoherstellers Ferrari gegeben.

Wenn man im Internet auf fragwürdige Audioinhalte von Prominenten stößt, kann es helfen, sich eine echte Aufnahme der Person anzuhören und die Aufnahmen zu vergleichen. Außerdem lohnt es sich, genau hinzuschauen, wer die Audioaufnahme verbreitet hat. Wenn die Quelle, also der Ursprung der Tonaufnahme, unklar ist und sich nicht herausfinden lässt, ist Skepsis angebracht. Ist der Verbreiter der Tonspur bekannt, sollte man schauen, welches Interesse die Person verfolgt.

Deepfakes: Unnatürliche Mundbewegungen und vorhandenes Ausgangsmaterial

Wenn der Stimm-Klon zusammen mit einem Video-Deepfake genutzt wird, ist es in der Regel besser möglich, den Betrug zu entlarven.

Neben dem Audio gibt es mit dem Video noch eine zweite Ebene, auf der man nach Indizien für einen Fake suchen kann. Bei einem Video-Deepfake wird entweder eine Art digitale Maske über eine andere Person gezogen und eine Person somit in eine komplett andere Situation gebracht. Oder es werden lediglich beim originalen Videomaterial der betreffenden Person die Mimik und die Mundbewegungen per KI so angepasst, dass es zu dem neuen - gefälschten - Toninhalt passt.

In beiden Fällen hilft es, sich das Material ganz genau und in Ruhe anzuschauen und vor allem auf die Mund- und Lippenpartie zu achten. Manchmal passen die Lippenbewegungen nicht auf das Gesagte oder wirken unnatürlich. Auch mit der Darstellung der Zähne haben KI-Deepfakes gelegentlich Probleme. Unnatürliche Mimik, wie teilweise versteinerte Gesichtszüge oder nicht zusammenpassende Gesichtsbewegungen, können ebenfalls ein Indiz sein.

Solche optischen Anhaltspunkte müssen aber erstmal erkannt werden, sagt KI-Experte Burchardt. "In der Praxis schaue ich dann auf mein kleines Handydisplay und vielleicht scheint mir auch noch die Sonne über die Schulter. Dann sehe ich das nicht richtig und denke: 'Das ist der doch wirklich' und höre gebannt zu."

Was beim Entlarven von Deepfakes aber helfen kann: Es gibt immer ein Originalvideo, das bearbeitet wurde. Häufig lässt sich dieses Original auch finden, auch hier hilft die Bilderrückwärtssuche. Dafür macht man einen Screenshot aus dem fraglichen Video und sucht mit einer Bildersuchmaschine nach optisch ähnlichen Bildern.

Auch wenn es sich um einen Deepfake handelt - die Ähnlichkeit zu dem Ausgangsvideo ist in der Regel so groß, dass auch das originale Video über die Rückwärtssuche gefunden werden dürfte. Falls es sich um einen bereits bekannten Deepfake handelt, können Sie dadurch auch auf einordnende Berichterstattung und Faktenchecks stoßen, die sich damit befasst haben.

KI-generierte Videos: Objekte aus dem Nichts

Videos, die komplett von der KI erstellt wurden, bei denen es also kein überarbeitetes Originalmaterial gibt, lassen sich aktuell durch genaues Hinsehen meist als solche erkennen.

Hier gilt es auf die sogenannte Objektpermanenz zu achten. Wenn Objekte im Hintergrund aus dem Sichtfeld gelangen, sind sie dann immer noch da, wenn die "Kamera" wieder hinschwenkt? Wenn ein laufender Mensch hinter einer Säule verschwindet, taucht er danach auch wieder auf? Bewegen und verhalten sich alle Objekte und Menschen logisch und entsprechend den Gesetzen der Physik?

Solche Fragen können helfen, KI-generierte Videos zu erkennen. Es hilft auch, sich ein Video mehrfach anzuschauen und auf unterschiedliche Bereiche des Videos zu achten, um mögliche Fehler zu bemerken. Auch hier sollte man auf Hände und Finger achten, ähnlich wie bei den KI-generierten Bildern. Wie auch dort kann es helfen, sich zu fragen, wer das Video aufgenommen haben soll und wie das möglich gewesen sein soll.

Kann Künstliche Intelligenz beim Erkennen von KI-Fakes helfen?

Zahlreiche Anbieter versprechen bereits zuverlässige KI-Erkennung durch KI-Programme. Die vom #Faktenfuchs befragten Experten sind da zurzeit skeptisch. "Eine vollautomatische Erkennung halte ich für relativ ausgeschlossen", sagt Aljoscha Burchardt vom DFKI. Letztlich könnten Programme zwar Hinweise auf bestimmte Muster in einem Bild oder Text geben und damit durchaus helfen. Die finale Bewertung müsse letztlich aber der Mensch treffen.

Bei den meisten verfügbaren Tools, die KI-Erkennung versprechen, gibt es immer falsch-positive Ergebnisse, auch nach Erfahrungen des #Faktenfuchs. Bilder, die nicht bearbeitet oder KI-generiert sind, werden also trotzdem als solche eingestuft.

Auch Josef Holnburger sagt, KI-Tools können beim Erkennen von Fakes eine Unterstützung sein. Problematisch sei jedoch, dass diese Modelle nach für KI typischen Mustern suchen. Dies sei nicht immer verlässlich. So gebe es etwa auch Social-Media-Accounts von echten Menschen, die sich wie Bots verhalten, weil sie auf alles reagieren oder enorm viele Inhalte teilen. So etwas könnten KI-Modelle dann erfahrungsgemäß nicht unterscheiden, so Holnburger.

"Ergibt das eigentlich Sinn?" Diese Frage müsse man sich laut Holnburger immer wieder stellen, wenn es um mögliche KI-Inhalte geht. "Ich glaube, da ist ein Mensch immer noch besser als KI-Modelle, weil Sinn ergreifen können sie alle noch nicht. Und es ist auch nicht erwartbar oder noch nicht absehbar, dass sie das jemals könnten."

Fazit

Die Qualität von KI-generierten oder KI-bearbeiteten Inhalten hat sich verbessert und tut dies fortlaufend. Einige KI-Inhalte, vor allem im Bereich Bild und Video, lassen sich noch gut erkennen, bei Text und Audio wird es zunehmend schwieriger. Hier kann die Frage nach der Logik oder der Quelle weiterhelfen.

Während KI-Programme beim Erkennen von KI-Fakes unterstützen können, sind sich die vom #Faktenfuchs befragten Experten einig, dass abschließende Bewertungen, ob etwas echt oder Fake ist, durch KI-Modelle nicht durchgehend zuverlässig sind.

Welche Rolle spielen KI-Inhalte bei Desinformationskampagnen? Ein #Faktenfuchs-Radiobeitrag
Bildrechte: BR
Artikel mit Audio-InhaltenAudiobeitrag

Welche Rolle spielen KI-Inhalte bei Desinformationskampagnen? Ein #Faktenfuchs-Radiobeitrag

"Hier ist Bayern": Der BR24 Newsletter informiert Sie immer montags bis freitags zum Feierabend über das Wichtigste vom Tag auf einen Blick – kompakt und direkt in Ihrem privaten Postfach. Hier geht’s zur Anmeldung!