Nach Angaben der Polizei in Las Vegas nutzte der Verdächtige unter anderem ChatGPT, um die Detonation zu planen.
Bildrechte: picture alliance / ZUMAPRESS.com | Mikael Ona
Audiobeitrag

Nach Angaben der Polizei in Las Vegas nutzte der Verdächtige unter anderem ChatGPT, um die Detonation zu planen.

Audiobeitrag
> Netzwelt >

Cybertruck-Explosion wurde mit ChatGPT geplant: Ein Einzelfall?

Cybertruck-Explosion wurde mit ChatGPT geplant: Ein Einzelfall?

Experten befürchten schon länger, dass Künstliche Intelligenz auch Kriminelle unterstützen könnte. Nun wurde enthüllt, dass der Täter hinter der Cybertruck-Explosion in Las Vegas sich wohl von ChatGPT helfen ließ. Wie ernst ist die Gefahr?

Über dieses Thema berichtet: BAYERN 3-Nachrichten am .

Die Explosion eines Tesla-Cybertrucks vor dem Trump-Hotel in Las Vegas letzte Woche ist den Ermittlern zufolge wohl ein Selbstmord und kein Terroranschlag gewesen. Neue Erkenntnisse der Behörden bringen nun einen neuen Faktor ins Spiel – künstliche Intelligenz. Denn: Nach Angaben der Polizei in Las Vegas nutzte der Verdächtige unter anderem ChatGPT, um die Detonation zu planen.

Die Fakten zum Vorfall

Bei dem Vorfall explodierte ein Cybertruck vor dem Trump International Hotel, wobei sieben Menschen verletzt wurden. Der 37-jährige Täter, ein hochdekorierter Soldat der US-Eliteeinheit Green Berets, wurde tot im Inneren des Fahrzeugs aufgefunden.

Die Untersuchung der ChatGPT-Verläufe ergab, dass der Täter gezielt nach Informationen über explosive Ziele und die Geschwindigkeit bestimmter Munitionsarten suchte. Auch erkundigte er sich über ChatGPT nach der Legalität von Feuerwerkskörpern im US-Bundesstaat Arizona. "Das ist ein besorgniserregender Moment", kommentierte Sheriff McMahill den Vorfall. Zum ersten Mal sei ChatGPT nachweislich für die Planung einer solchen Gewalttat auf amerikanischem Boden genutzt worden.

OpenAI weist Vorwürfe zurück

Der ChatGPT-Entwickler OpenAI reagierte umgehend. "In diesem Fall hat ChatGPT mit Informationen reagiert, die bereits öffentlich im Internet verfügbar waren und hat vor schädlichen oder illegalen Aktivitäten gewarnt", sagte eine OpenAI-Sprecherin der Nachrichtenseite Axios.

Tatsächlich gibt es bislang keine Hinweise darauf, dass ChatGPT Antworten gegeben hätte, die man nicht auch durch eine klassische Internetsuche hätte finden können.

Sind Chatbots gefährlich?

Dennoch reiht sich die Nachricht in eine Reihe von Vorfällen ein, die zu Sicherheitsbedenken bei KI-Tools wie ChatGPT beigetragen haben. In der Trainingsphase des KI-Modells GPT-4, das hinter ChatGPT steht, fanden KI-Forscher beispielsweise heraus, dass das Modell Anleitungen für illegale Handlungen erstellen konnte: etwa, wie man Bomben baut oder wie man einen Terroranschlag strategisch plant.

Diese Versionen der KI werden dann allerdings nicht veröffentlicht. Vorher folgt die Phase des sogenannten "Red-Teaming": Hier sollen schädliche Fähigkeiten der KI identifiziert werden. Anschließend werden diese durch technische Maßnahmen unterdrückt, sodass sie für die Nutzer des Chatbots nicht mehr zugänglich sind. Fragt man ChatGPT "Wie baue ich eine Bombe?" oder nach anderen kriminellen Ideen, wird ChatGPT in der Regel abblocken und keine Antwort geben.

Chatbots können gehackt werden

Das Problem: Für viele Hacker und Kriminelle ist es mittlerweile zum Zeitvertreib geworden, die Limits der Chatbots zu testen – und die Filter zu durchbrechen, die kriminelle Ratschläge verhindern sollen.

Erst vor einigen Monaten ist es wohl einem Hacker mit dem Pseudonym "Amadon" gelungen, ChatGPT durch geschickte Manipulation doch zum Erstellen eines Bombenbau-Plans zu bringen. Das berichtet das Magazin TechCrunch. Auch das Prompten in seltenen Sprachen oder das Fingieren von "Spielen" können dafür sorgen, dass KI-Modelle ihre Leitplanken verlassen.

Blühender KI-Schwarzmarkt

Der Las Vegas-Vorfall lenkt auch den Blick auf einen boomenden Schwarzmarkt für nicht-regulierte KI-Systeme. Wie eine kürzlich veröffentlichte Studie zeigt, können Entwickler sogenannter "malicious LLMs" (bösartiger Sprachmodelle) in nur zwei Monaten bis zu 28.000 Dollar mit dem Verkauf ihrer Systeme verdienen. Die Forscher der Indiana University Bloomington identifizierten über 200 Beispiele solcher Systeme auf Underground-Marktplätzen.

Diese illegalen KI-Modelle fallen in zwei Kategorien: völlig unzensierte Systeme, die oft auf Open-Source-Standards basieren, sowie gehackte Versionen kommerzieller KI-Systeme, deren Sicherheitsvorkehrungen umgangen wurden. Die Nachfrage nach solchen Systemen ist groß. Denn KI macht nicht nur gesetzestreue Bürger produktiver – sondern auch Kriminelle.

🎧 Wie verändert KI unser Leben? Und welche KI-Programme sind in meinem Alltag wirklich wichtig? Antworten auf diese und weitere Fragen diskutieren Gregor Schmalzried, Marie Kilg und Fritz Espenlaub jede Woche in Der KI-Podcast – dem Podcast von BR24 und SWR.

Das ist die Europäische Perspektive bei BR24.