Eine Menschenmenge in einem öffentlichen Raum, überwacht durch KI-gestützte Gesichtserkennung, die Personen in digitalen Rahmen erfasst.
Bildrechte: stock.adobe.com/AlinStock
Audiobeitrag

Einsatz von KI bei der Strafverfolgung: Was ist möglich? Was ist erlaubt? Damit beschäftigen sich Experten auf dem Bayreuther IT-Strafrechtstag.

Audiobeitrag
> Netzwelt >

Schuldlos in Haft? Das Problem mit KI in der Strafverfolgung

Schuldlos in Haft? Das Problem mit KI in der Strafverfolgung

Welche Rolle spielt Künstliche Intelligenz in Zukunft beim Verfolgen von Straftätern? Mit dieser Frage beschäftigen sich Experten bei einer Tagung an der Uni Bayreuth. Klar ist: Die Software ist fehlerhaft. Und das kann dramatische Folgen haben.

Über dieses Thema berichtet: Frankenschau aktuell am .

Nach dem Messerangriff von Solingen hat die Bundesregierung ein sogenanntes Sicherheitspaket im Deutschen Bundestag eingebracht. Dadurch soll auch der Einsatz von Künstlicher Intelligenz (KI) bei der Strafverfolgung ermöglicht werden.

Der Einsatz von KI bei der Strafverfolgung: Was wäre technisch alles möglich? Was ist überhaupt erlaubt? Und: Wie kann in der Zukunft die KI bei der Strafverfolgung und später vor Gericht genutzt werden? Damit beschäftigen sich von Donnerstag an Experten aus ganz Deutschland auf dem ersten Bayreuther IT-Strafrechtstag.

Christian Rückert vom Lehrstuhl für Strafrecht an der Uni Bayreuth organisiert die Tagung und hat im BR24-Interview mögliche Einsätze von künstlicher Intelligenz aufgezählt. Es werde beispielsweise gerade erforscht, ob man KI einsetzen kann, um Stimmen und Sprache zu erkennen. Bei Telefonüberwachungen könne das sehr nützlich sein.

Zu Geständnissen verleiten: "Technisch kein großes Problem mehr"

Auch werde überlegt, ob verdeckte Ermittler künftig KI-generierte Deepfakes einsetzen können. Dann wäre es möglich, dass man Menschen zu Geständnissen verleitet, weil man ihnen durch Stimmenimitationen vorspielt, jemand anderes zu sein. "Technisch ist es kein großes Problem mehr. Die andere Seite hat es ja schon erfolgreich gemacht", erklärt Rückert.

Er verweist auf Fälle, bei denen in Unternehmen Mitarbeiter durch KI gefakt wurden, um damit andere Mitarbeiter zur Zahlung von großen Summen zu verleiten. Ob in Zukunft auch Gericht diese Täuschungsmethode anwenden dürfen, ist noch nicht geklärt. "Die Frage ist, ob man es rechtlich machen darf, weil das natürlich ein starker Eingriff ins Persönlichkeitsrecht ist", so der Rechtswissenschaftler.

Entscheidungsgrundlage ist Problem von Künstlicher Intelligenz

Ein weiteres Problem beim Einsatz von KI im Gericht sei fehlende Transparenz, erklärt der Jurist. Er nennt es die Blackbox-Problematik. "Wir wissen gar nicht so genau, wie KI eigentlich zu den Entscheidungen gelangt, die sie trifft." Nicht nur das Gericht, sondern auch Angeklagte hätten ein Recht darauf zu erfahren, warum und auf welcher Grundlage ein Urteil fällt.

Grundsätzlich basiert die KI auf dem sogenannten "maschinellen Lernen". Dabei wird die Software mit Daten trainiert – und hier bestehe laut Rückert ein großes Risiko, denn es könne passieren, dass die Software mit Daten gefüttert wird, die in eine bestimmte Richtung verzerrt sind.

Wenn der Gartenschlauch zur Schusswaffe wird

Rückert nennt als Beispiel dafür den Fall, als versucht wurde, ein Programm zu schaffen, das Schusswaffen in Händen von Personen erkennen soll. "Da wurden im Training offensichtlich sehr viele Bilder verwendet von Personen mit nicht-weißer Hautfarbe, die Schusswaffen gehalten haben", so Rückert.

Die Folge: Das System habe sehr viel öfter einen alltäglichen Gegenstand – wie etwa ein Handy oder einen Gartenschlauch – fälschlicherweise als Waffe identifiziert, wenn die Person keine weiße Hautfarbe hatte. Mit solchen Problemen "müssen wir gerade im Strafgericht umgehen, weil wir aufgrund solcher Fehler niemanden verurteilen dürfen".

KI identifiziert Unschuldigen als Täter: Drei Wochen U-Haft

Auch im Bereich der Gesichtskontrolle – eine Methode, die mutmaßlich bei der Identifizierung von Ex-RAF-Terroristin Daniela Klette eingesetzt wurde – kann Rückert ein Negativbeispiel nennen: In den USA habe ein Mann drei Wochen lang in Untersuchungshaft gesessen, weil ein Gesichtserkennungsprogramm ihn fälschlicherweise als Täter identifiziert hat. In dem Fall wurde die Software allerdings nicht von der Polizei eingesetzt, sondern von dem Unternehmen, das überfallen wurde.

Zuverlässigkeit von KI muss besser eingeschätzt werden

Trotz der Erfahrungen mit Fehlern von Künstlicher Intelligenz: Der Strafrechtsprofessor findet, dass man KI als große Chance im Bereich der Strafverfolgung begreifen müsse. Denn die Software schaffe es, Daten auszuwerten, "die wir mit menschlichem Verstand niemals in einer vernünftigen Zeit hätten auswerten können".

Rückert warnt aber davor, dass der Mensch beim Einsatz von KI in der Strafverfolgung – vor allem im Fall von großen Datenmengen – immer nachvollziehen müsse, wie die Software zu dem Ergebnis gelangt. "Da brauchen wir technische Möglichkeiten, um die Zuverlässigkeit von KI besser einzuschätzen."

🎧 Wie verändert KI unser Leben? Und welche KI-Programme sind in meinem Alltag wirklich wichtig? Antworten auf diese und weitere Fragen diskutieren Gregor Schmalzried, Marie Kilg und Fritz Espenlaub jede Woche in Der KI-Podcast – dem Podcast von BR24 und SWR.

Das ist die Europäische Perspektive bei BR24.

"Hier ist Bayern": Der BR24 Newsletter informiert Sie immer montags bis freitags zum Feierabend über das Wichtigste vom Tag auf einen Blick – kompakt und direkt in Ihrem privaten Postfach. Hier geht’s zur Anmeldung!