Am Mittwoch hat das Europäische Parlament dem nach eigener Aussage ersten KI-Gesetz weltweit zugestimmt. Der federführende EU-Binnenmarktkommissar Thierry Breton nannte die neuen Regeln "historisch".
- zum Hintergrund: Kritiker befürchten mehr Überwachung durch KI-Gesetz
Doch was steht genau in diesem KI-Gesetz drin? Und welche konkreten Folgen wird es für die Bürgerinnen und Bürger in der EU haben?
KI-Anwendungen werden in vier Risikostufen eingeteilt
Die EU hat für Ihr KI-Gesetz einen risikobasierten Ansatz gewählt. Sie hat KI-Anwendungen in vier Risikolevel eingeteilt. Reguliert werden sollen nur die beiden höchsten Klassen, das muss man bei aller Kritik am europäischen Regulierungseifer dazu sagen.
Anwendungen, die als inakzeptables Risiko eingestuft werden, werden in der EU komplett verboten. Dazu zählt die Emotionserkennung am Arbeitsplatz. Ein Beispiel wäre die Analyse der Stimmen von Mitarbeitenden in Callcentern, um ihre Gefühlszustände während der Interaktion mit Kunden zu analysieren.
Verboten ist auch das Social Scoring. Dabei werden Pluspunkte für erwünschtes soziales Verhalten vergeben und umgekehrt Minuspunkte für unerwünschtes Verhalten. China praktiziert Social Scoring, je nach Ranking können Bürgerinnen bestimmte Leistungen in Anspruch nehmen - zum Beispiel studieren - oder eben nicht.
Viele Ausnahmen beim Verbot von automatischer Gesichtserkennung
Drittes Beispiel ist die biometrische Fernidentifizierung in Echtzeit. Damit ist zum Beispiel die automatisierte Gesichtserkennung durch Kameras im öffentlichen Raum gemeint. Die ist zwar grundsätzlich verboten, allerdings soll es Ausnahmen für Sicherheitsbehörden geben. Wenn ein Richter zugestimmt hat, sollen Ermittlungsbehörden die automatische Gesichtserkennung bei besonders schweren Straftaten wie Vergewaltigung oder Entführung doch nutzen dürfen, um die Täter aufzuspüren oder die Opfer zu finden. Weil es noch weitere Ausnahmen wie Menschenhandel, bewaffneter Raub oder Drogenhandel gibt, sprechen Menschenrechtsorganisationen wie amnesty international von einem “niederschmetternden globalen Präzedenzfall”.
Bank muss erklären, wie ihre KI eine Kreditentscheidung getroffen hat
Zu den Systemen mit hohem Risiko zählen Anwendungen, die Gesundheit, Sicherheit, Umwelt, Grundrechte und die Demokratie gefährden können. Zum Beispiel selbstfahrende Autos, medizinische oder juristische Anwendungen, aber auch automatisierte Kreditvergaben. Für Hochrisiko-Anwendungen gilt eine Transparenzpflicht: Die Anbieter müssen genau erklären können, wie die Entscheidungen ihrer KI-Systeme zustande gekommen sind. Ein Bank-Kunde, der keinen Kredit bekommen hat, kann von der Bank eine Erklärung verlangen, wie die KI zu diesem Ergebnis gekommen ist.
Chatbots gelten als Anwendungen mit begrenztem Risiko
Dritte Kategorie sind die KI-Systeme mit begrenztem Risiko. Hier gelten minimale Transparenzverpflichtungen: Die Nutzer sollen darauf aufmerksam gemacht werden, wenn sie mit KI interagieren, damit sie entscheiden können, ob sie die Anwendung weiter nutzen oder nicht. Beispiele für Anwendungen mit begrenztem Risiko sind Chatbots wie ChatGPT oder KI-Systeme, die Bild-, Audio- oder Videoinhalte erzeugen. Wenn Inhalte dabei manipuliert werden - wie jüngst bei einem gefälschtem Video von Bundeskanzler Scholz - spricht man von Deepfakes.
Die meisten KI-Anwendungen werden nicht reguliert
Die niedrigste Kategorie sind KI-Systeme mit minimalem Risiko. Hierzu zählen zum Beispiel KI-gestützte Videospiele oder Spamfilter. Unter diese Kategorie, für die der KI Act keine Regulierung vorsieht, fällt die große Mehrheit der KI-Systeme.
Hersteller von Grundlagenmodellen müssen die Trainingsdaten offenlegen
Einen Sonderfall bilden die sogenannten Grundlagenmodelle. Damit sind die großen generativen KI-Modelle wie GPT4 oder Dall-E gemeint, die auf großen Datenmengen trainiert wurden und für vielfältige Aufgaben angepasst werden können. Sie werden auch als KI-Modelle mit allgemeinen Verwendungszweck bezeichnet. So ist ChatGPT ein spezialisierter Chatbot, der auf dem Grundlagenmodell GPT basiert. Für diese Grundlagenmodelle sieht der KI Act ebenfalls strenge Regeln vor. Etwa zusätzliche Sicherheitschecks, vor allem aber müssen die Hersteller offenlegen, mit welchen Daten sie ihre Modelle trainiert haben. Allerdings betrifft das nur Modelle, die eine bestimmte Größe haben und die besonders rechenintensiv sind.
Behindert das KI-Gesetz Innovationen oder nicht?
Umstritten ist nach wie vor die Frage, ob das KI-Gesetz der EU zu weit geht und durch seine Regulierung Innovationen behindert. Bayerns Digitalminister Fabian Mehring (Freie Wähler) sieht darin eine "dramatische Überregulierung der Wirtschaft", der AI Act sei "maximal innovationshemmend".
AI Act tritt 2026 voll in Kraft
Nun muss noch der EU-Ministerrat, die Vertretung der Mitgliedstaaten zustimmen, was aber als Formsache gilt. Dann beginnt eine zweijährige Übergangsphase, der komplette AI Act soll dann ab 2026 angewendet werden. Einige Vorschriften gelten aber auch schon früher: So greifen die Verbote bereits nach sechs Monaten, die Vorschriften zu KI-Modellen mit allgemeinem Verwendungszweck gelten nach 12 Monaten.
Hinweis: Dieser Artikel erschien erstmals am 9.12.2023. Wir haben ihn anlässlich der Verabschiedung des AI Acts durch das Europäische Parlament aktualisiert und neu veröffentlicht.
🎧
Wie verändert KI unser Leben? Und welche KI-Programme sind in meinem Alltag wirklich wichtig? Antworten auf diese und weitere Fragen diskutieren Gregor Schmalzried, Marie Kilg und Fritz Espenlaub jede Woche in Der KI-Podcast – dem neuen Podcast von BR24 und SWR.
Das ist die Europäische Perspektive bei BR24.
"Hier ist Bayern": Der BR24 Newsletter informiert Sie immer montags bis freitags zum Feierabend über das Wichtigste vom Tag auf einen Blick – kompakt und direkt in Ihrem privaten Postfach. Hier geht’s zur Anmeldung!