Graphik/Staffel 4/Episode 2/Wild Wild Web
Bildrechte: BR/Simon Heimbuchner
Audiobeitrag

Wild Wild Web_Harry Potter und die KI-Apokalypse

Audiobeitrag
> Netzwelt >

Bei den KI-Experten, die vor der Apokalypse warnen

Bei den KI-Experten, die vor der Apokalypse warnen

Noch gibt es keine künstliche Superintelligenz. Doch wenn das einmal anders sein sollte – wie bringt man ihr dann bei, nicht die Menschheit zu zerstören? Der Podcast "Wild Wild Web" nimmt eine Bewegung unter die Lupe, die dieses Szenario ernst nimmt.

Über dieses Thema berichtet: Bayern 2 Salon am .

Evander Hammer (24) ist Lehramtsstudent in Würzburg. Doch vom Studentenleben hat Evander dieser Tage nicht mehr viel. Denn die Zeit, die ihm bleibt, widmet er mittlerweile größtenteils einem Thema: Der Gefahr vor einer KI-Apokalypse.

Aktivismus gegen die KI-Apokalypse

"Eine KI, die andere Ziele als die Menschheit verfolgt, ist mit Abstand die größte existentielle Bedrohung für uns", berichtet er im BR-Podcast Wild Wild Web – Geschichten aus dem Internet. Andere Ziele heißt dabei nicht, dass eine Super-KI einen finsteren Plan verfolgen muss, die Menschheit auszulöschen wie in den Terminator-Filmen. Es reicht schon, dass sie einfach ein Vorhaben ergreifen könnte - und die Menschen dabei im Weg sind. Und dann hätte man ein Problem: "Niemand weiß, wie man die KI dazu bringt, dass sie genau das macht, was wir wollen."

Evander agiert mittlerweile als Koordinator, er spricht an Konferenzen und versucht, seine Sicht auf das KI-Risiko unter die Leute zu bringen. Sein Ziel: Zusammen mit anderen die Entwicklung der Super-KI unter Kontrolle zu bringen – bevor es zu spät ist.

🎧 Hunde, Rätsel und die großen Fragen unserer Zeit: Der Podcast Wild Wild Web ist endlich zurück mit neuen Stories aus dem Internet! Die vierte Staffel gibt es ab sofort zum Anhören in der ARD Audiothek.

Das "Alignment-Problem"

Im Kern der KI-Sicherheits-Aktivisten steht das "Alignment-Problem". So bezeichnet man das technische Problem, wie man eine super-entwickelte KI dazu bringt, in ihrem Handeln keinen Menschen zu schaden. Ein berühmtes Gedankenspiel ist der "Paperclip Maximizer": eine hypothetische Super-KI mit dem Auftrag, möglichst viele Büroklammern herzustellen, könnte zum Erfüllen dieser Aufgabe die gesamte Welt in Büroklammern verwandeln – auch uns Menschen.

Das "Alignment-Problem" ist nach wie vor ungelöst – denn es behandelt eine Technologie, die zumindest noch nicht existiert: eine superintelligente Künstliche Intelligenz, die sich selbst exponentiell verbessern kann und um ein Vielfaches intelligenter und mächtiger ist als jeder Mensch.

KI-Experten sind sich uneins, wann es eine solche KI geben könnte, und ob es überhaupt möglich ist, sie zu bauen. Ebenso wird darüber gestritten, was für ein Risiko wirklich von ihr ausgehen würde. Doch Sicherheits-Aktivisten wie Evander Hammer meinen: Vorsicht ist besser als Nachsicht.

Zwischen Super-KI und Biowaffen

Im Silicon Valley sind Super-KI und "Alignment-Problem" schon seit Jahren beliebte Tischgespräche. KI-Expertinnen und Entwickler tauschen sich dort über ihre "p(doom)" aus – eine Zahl, die angibt, für wie wahrscheinlich man eine KI-Katastrophie hält – und spekulieren darüber, ob das exponentielle Wachstum der großen KI-Modelle wirklich anhalten kann.

"Ich mache mir ernsthaft Sorgen", meint etwa Lisa Thiergart. Die 25-jährige Deutsche arbeitet als KI-Sicherheitsforscherin beim Machine Intelligence Research Institute (MIRI) in Kalifornien. Das MIRI gilt als eine der Kern-Institutionen der KI-Warner. "Und ich habe auch ernsthaft Angst, dass das entgleisen könnte in der Zukunft, wenn es so weitergeht wie bisher."

Lisa Thiergart meint: Es ist nicht nur das Szenario einer autonomen Super-KI, wegen der wir uns Gedanken machen sollten. Sondern auch: "Dass die KI versucht, neue Biowaffen zu erfinden." Kriminelle könnten fortgeschrittene KIs in Zukunft um den Bauplan für eine Waffe bitten. Und dann: "Überraschung. Die Waffe ist komplett neu. Keiner wird wissen, wie man dagegen ankommen kann."

Wie groß ist die Gefahr wirklich?

Immer wieder wird auch Kritik am Camp der "AI Doomer" laut. Ihr Fokus auf ein hypothetisches Risiko in der Zukunft würde den Blick versperren auf reale Risiken der Gegenwart, so der Vorwurf.

Letztlich halten nur sehr wenige KI-Experten das Risiko einer KI-Apokalypse für tatsächlich wahrscheinlich. Doch in Zeiten, in denen KI-Technologie ständig besser wird und neue Leistungen liefert, ist die präzise Vorhersage der Zukunft immer schwerer geworden.

Das ist die Europäische Perspektive bei BR24.

"Hier ist Bayern": Der BR24 Newsletter informiert Sie immer montags bis freitags zum Feierabend über das Wichtigste vom Tag auf einen Blick – kompakt und direkt in Ihrem privaten Postfach. Hier geht’s zur Anmeldung!