Stellen Sie sich vor, ein vollautomatisierter KI-Chatbot beantwortet die Kundenanfragen Ihres Unternehmens. Eine Arbeitserleichterung – aber auch ein potenzielles Sicherheitsrisiko, denn KI-Systeme können durch geschickt formulierte Anfragen manipuliert werden.
Ein Forschungsprojekt namens "Morris 2" demonstriert diese Gefahr. Benannt nach dem ersten großen Computerwurm von 1988, zeigt das Projekt, wie anfällig automatisierte KI-Systeme für Manipulation sein können. Die Forscher versteckten in einer scheinbar harmlosen E-Mail Anweisungen an KI-Chatbots und brachten diese so dazu, interne Daten preiszugeben.
Der Trick lässt sich auch mit Webseiten statt E-Mails durchführen: KI-Assistenten, die für Recherchen das Internet durchforsten, können auf speziell präparierte Seiten stoßen, die für Menschen unsichtbare Anweisungen enthalten. Diese "Fallen" können den KI-Assistenten manipulieren, ohne dass der menschliche Nutzer es bemerkt.
Der perfekte Betrug: KI-Deepfakes auf dem Vormarsch
Auch bei klassischem Online-Betrug bringt KI ein neues Level: Ende 2023 ereignete sich in Hongkong ein Betrugsfall, der die neue Dimension von KI-unterstützten Betrügereien verdeutlicht: Ein Finanzangestellter überwies 25 Millionen Euro nach einem Videogespräch mit seinem vermeintlichen Chef und mehreren Kollegen. Was er nicht wusste: Alle Teilnehmer des Calls waren KI-generierte Deepfakes, die Stimmen und Gesichter der echten Personen nahezu perfekt nachahmten.
🎧 Wie verändert KI unser Leben? Und welche KI-Programme sind in meinem Alltag wirklich wichtig? Antworten auf diese und weitere Fragen diskutieren Gregor Schmalzried, Marie Kilg und Fritz Espenlaub jede Woche in Der KI-Podcast – dem Podcast von BR24 und SWR.
Dieses Beispiel ist kein Einzelfall. In Italien wurde die Stimme des Verteidigungsministers mit KI geklont, um Wirtschaftsführer zu täuschen. Die Technologie für solche Betrügereien ist mittlerweile so weit fortgeschritten, dass klassische Warnsignale wie schlechte Grammatik oder offensichtliche Bildmanipulationen verschwinden.
Die perfekte Illusion entsteht nicht mehr nur in Hollywood-Studios, sondern kann von jedem mit entsprechendem Know-how und Zugang zu KI-Tools erzeugt werden. Die Grenzen zwischen echt und falsch verschwimmen immer mehr.
Spear-Phishing 2.0: Personalisierter Betrug im Industriemaßstab
Eine Studie der Harvard Kennedy School untersucht, wie effektiv KI-generierte Betrugsmails sein können. Dazu verglichen die Forscher sogenannte "Spear-Phishing"-E-Mails, also personalisierte Betrugsversuche unter Einbeziehung konkreter Infos über das Angriffsziel. Während menschlich erstellte Spear-Phishing-Nachrichten aufwendig recherchiert werden müssen, kann KI automatisch Informationen sammeln und daraus maßgeschneiderte Betrugsversuche erstellen.
Das Erschreckende: Die KI-erstellten Nachrichten sind genauso erfolgreich wie die von Menschen verfassten – kosten aber nur einen Bruchteil.
Die Erfolgsrate klassischer Phishing-E-Mails liegt bei etwa 12 Prozent – niedrig genug, dass viele Menschen die Gefahr unterschätzen. Doch mit KI-gestütztem Spear-Phishing verändert sich das Spiel grundlegend: Diese personalisierten Betrugsversuche erreichen Erfolgsraten von 54 Prozent.
Der große Unterschied liegt in der Skalierbarkeit. Ein menschlicher Betrüger kann vielleicht ein Dutzend personalisierte Mails pro Tag versenden. Eine KI kann Tausende generieren – jede einzelne genau auf das potenzielle Opfer zugeschnitten. Diese Industrialisierung des Betrugs stellt Sicherheitsexperten vor völlig neue Herausforderungen.
Malware aus der KI-Fabrik: Automatisierte Cyberangriffe
Ein anderes Beispiel aus der aktuellen Folge von "Der KI-Podcast" (BR24 und SWR) ist die Erstellung von Schadsoftware. Bislang erforderte das umfassende Programmierkenntnisse. Mit modernen KI-Systemen wie GPT-4 oder Claude sinkt diese Einstiegshürde dramatisch. Die Sprachmodelle können auf Anfrage funktionierenden Programmcode erstellen – auch für bösartige Zwecke. Was früher das Werk hochspezialisierter Hacker war, kann heute teilweise automatisiert werden.
Auch andere kriminelle Aktivitäten profitieren von KI-Unterstützung: Das Knacken von Passwörtern wird effizienter, Ausweise und Unterschriften lassen sich überzeugender fälschen. Die Werkzeuge, die in den Händen von IT-Fachleuten die Produktivität steigern sollen, dienen in den falschen Händen zur Perfektionierung krimineller Methoden.
Der digitale Wettlauf: Wer gewinnt die KI-Schlacht?
Die Situation gleicht einem digitalen Wettrüsten. Während Cyberkriminelle KI für ihre Zwecke nutzen, setzen Sicherheitsexperten dieselbe Technologie ein, um Abwehrmechanismen zu verbessern. Laut einer Umfrage unter 1.650 Sicherheitsexperten ist das Rennen noch offen: 45 Prozent sehen die Angreifer im Vorteil, 43 Prozent die Verteidiger.
Die optimistische Sichtweise: KI kann auch die Cyber-Verteidigung revolutionieren. Systeme, die selbstständig nach Schwachstellen suchen und automatisch Updates vorschlagen, könnten Cyberangriffe frühzeitiger erkennen und abwehren. Die parallele Analyse zahlreicher Datenströme, für Menschen kaum zu bewältigen, ist für KI-Systeme eine Stärke.
Gleichzeitig bleibt menschliche Wachsamkeit unverzichtbar. KI funktioniert wie ein Verstärker - sie potenziert sowohl die Fähigkeiten der Verteidiger als auch der Angreifer. In diesem digitalen Katz-und-Maus-Spiel wird nicht die Technologie allein entscheiden, sondern deren kreative und vorausschauende Nutzung.
"Hier ist Bayern": Der BR24 Newsletter informiert Sie immer montags bis freitags zum Feierabend über das Wichtigste vom Tag auf einen Blick – kompakt und direkt in Ihrem privaten Postfach. Hier geht’s zur Anmeldung!