5

Netzlexikon K wie Killer-Roboter

Killer-Roboter - pardon, autonome Waffensysteme - sind gerade der heißeste Scheiß in der internationalen Rüstungsszene. So heiß, dass wir uns so langsam mal Gedanken machen sollten, wie wir eigentlich mit ihnen umgehen wollen.

Von: Jasmin Körber

Stand: 27.01.2016 | Archiv

So werden Killer-Roboter wahrscheinlich nicht aussehen - nur in unserer Phantasie | Bild: PULS

Killer-Roboter? Sind wir jetzt bei Terminator oder wie?

Nein, so weit wie bei "Terminator" sind wir noch nicht. Wenn wir hier von Killer-Robotern sprechen, dann meinen wir eigentlich autonome Waffensysteme. Also Roboter, die mit Hilfe von künstlicher Intelligenz zum Beispiel selbst entscheiden können, ob sie Ziele angreifen und wann sie diese Ziele angreifen. Oder, um es weniger zurückhaltend auszudrücken: Ob und wann sie zu Killern werden.

Müssen wir uns dann wirklich schon mit Killer-Robotern beschäftigen?

Ja! Denn glaubt man dem Rüstungskonzern BAE, arbeiten gerade bereits zu 40 Länder an der Entwicklung von sogenannten Killer-Robotern. Oder haben sogar schon welche. Südkorea verwendet an der Grenze zum Erzfeind Nordkorea Überwachungsroboter, die eigenständig Körperwärme erkennen und ein Maschinengewehr abfeuern können. Und Israel entwickelt derzeit eine bewaffnete Drohne, die selbstständig Ziele suchen kann. Viele Experten glauben, dass autonome Waffensysteme die Kriegsführung im 21. Jahrhundert komplett verändern werden.

Wie soll das Schlachtfeld der Zukunft dann aussehen?

Im besten Fall weniger blutig. Dann wenn ein vollautomatisierter Roboter eine vollautomatisierte Drohne abschießt, dann kostet das zunächst einmal nur Geld und kein Menschenleben. Die Pro-Killer-Roboter-Fraktion geht aber sogar noch weiter: Sie behauptet, dass sich Roboter im Gefecht sogar ethisch korrekter verhalten könnten als menschliche Soldaten - sofern sie richtig programmiert sind. Denn Roboter machen eben weniger Fehler als Menschen - und ganz wichtig: Sie ticken nicht aus. Sie halten sich sklavisch an die Genfer Konvention und an alle anderen Spielregeln des Krieges, so wie ihnen das ihr Algorithmus vorschreibt. Und wenn der Einsatz von autonomen Waffensystemen Tote verhindern kann, dann ist es doch sogar unsere moralische Pflicht, weiter in die Richtung zu forschen - sagen zumindest die Befürworter.

Und was sagen die Gegner?

Dass die Killerroboter eben nur so gut sind, wie ihre Algorithmen. Und die werden immer noch von fehlbaren Menschen geschrieben. Spätestens hier wird’s richtig haarig und tiefenphilosophisch: Können wir Roboter überhaupt so programmieren, dass sie sich korrekt verhalten? Und wer ist schuld, wenn doch mal etwas schief geht und eine Maschine einen Unschuldigen tötet? Sinkt am Ende nicht sogar die Hemmschwelle, Krieg zu führen, wenn nicht wir, sondern "nur" Roboter am Ende Blut an den Händen haben? Aus genau solchen Erwägungen sind sogar Tech-Visionäre wie Elon Musk, Stephen Hawking und Steve Wozniak für ein Verbot von autonomen Waffensystemen.

Wie geht’s jetzt weiter?

Die Gespräche über ein Verbot von Killer-Robotern werden fortgeführt. Auf nationaler Ebene haben die USA eigentlich schon 2012 ein Verbot erlassen - das gilt allerdings nur zehn Jahre und nur für den Einsatz, nicht aber für die Erforschung von Killer-Robotern. Auf einer internationalen Ebene verhandelt die UN seit 2014 über ein weltweites Verbot oder zumindest einheitliche Regelungen - bislang allerdings ohne nennenswerte Fortschritte.


5