Hände tippen auf Laptop
Bildrechte: picture alliance / Westend61 | Andrew Brookes

Hände tippen auf Laptop

Per Mail sharen
Artikel mit Bild-InhaltenBildbeitrag

AI Act mausert sich zur Herausforderung für Startups

Der AI Act soll Menschen in der EU vor Desinformation und noch schlimmere Gefahren schützen, die von Künstlicher Intelligenz ausgehen können. Der Haken: Unternehmen, die KI nutzen, müssen jetzt teils erhebliche Prüfverfahren durchlaufen.

Über dieses Thema berichtet: mehr/wert am .

Vanessa Theel ist Spezialistin für Künstliche Intelligenz (KI). Sie hat mit ihrer Münchner Firma "Summ AI" eine KI entwickelt, die komplizierte Texte in einfache Sprache übertragen kann. Kurze Sätze, verständlich für jedermann, das sei wichtig für das Funktionieren einer Demokratie, betont Gründerin Vanessa Theel. Ende Mai ist nun der AI Act in Kraft getreten. Nach einer Übergangszeit von zwei Jahren müssen Unternehmen ihn anwenden, auch Vanessa Theel.

Zum Glück stuft der AI (Artificial Intelligence) Act ihr KI-System als risikoarm ein. Deshalb gibt es keine Extra-to-do‘s für die Jungunternehmerin. Dennoch hat sie Sorge um weitere Entwicklungen von KI-Systemen: Denn man bräuchte dafür Zeit und Geld. "Und gerade bei jungen Firmen, die Innovationen vorantreiben, ist beides Mangelware."

Hoch-Risiko-KI mit vielen Dokumentationspflichten

Der AI Act teilt KI in vier Risikoklassen ein: von einem niedrigen, über das begrenzte, das hohe, bis zu einem inakzeptablen Risiko. Letztere Systeme sind in der EU verboten. Verunsicherung in der Start-Up-Szene besteht bei den KIs der Risikoklasse 3. Dazu gehören alle KI-Systeme, die im Bereich der kritischen Infrastrukturen eingesetzt werden, etwa bei Wasser- oder Stromversorgern, aber auch bei Kreditvergaben oder Jobbewerbungen.

Damit diese KIs keine Grundrechte einschränken oder Schaden anrichten, schreibt der AI Act vor, dass Unternehmen ihre KI-Systeme testen müssen. Außerdem müssen sie mit einer Konformitätserklärung bestätigen, dass alle Vorschriften aus dem AI Act erfüllt sind.

Dafür hat Vanessa Theel zwar Verständnis, weil "man gucken muss, dass KI nicht für die falschen Zwecke eingesetzt wird". Aber es müsse die Möglichkeit geben, Innovationen trotzdem noch möglich zu machen: "Wenn rauskommt, ich muss mich erst mal einer Prüfung unterziehen, die Hunderte, Tausende Euro kostet und dann zwei Jahre vergehen, bevor ich mit dem Produkt in die Test- oder Live-Phase gehen kann, dann überlegen sich das die möglichen Investoren ganz schön gut."

Im Zweifel: Laptop schnappen und auswandern

Obwohl Firmen die Vorschriften aus dem AI Act erst in zwei Jahren umsetzen müssen, sollten sie intern bereits jetzt eine Bestandsaufnahme ihrer KI-Systeme veranlassen und "als hochriskant eingestufte KI-Systeme entsprechend den Anforderungen der KI-Verordnung überprüfen", so eine Sprecherin des Bundeswirtschaftsministeriums.

Doch Testlabore, die die Nationalstaaten laut AI Act für kleine und mittlere Unternehmen einrichten sollen, gibt es in Deutschland bisher nicht. Robert Richter, Chef des Gründerzentrums "Werk 1" in München, fürchtet, dass das zu einer Abwanderung junger Köpfe führen könnte. Ersten Umfragen zufolge seien 30 bis 50 Prozent der Start-ups in der Risikoklasse 3 angesiedelt. Sie müssten wesentlich mehr Dokumentations- und Transparenzpflichten erfüllen, so Richter.

Er warnt vor einer Abwanderung der jungen Firmen: "Es ist nicht nur Kapital, was mittlerweile fluid über Landesgrenzen hinweg geht. Heutzutage brauche ich keine großen Produktionskapazitäten mehr. Ich habe einen Laptop, viele sind eh im Mobile-Office irgendwo unterwegs. Das heißt, ein Start-up kann auch irgendwo außerhalb der EU oder Co. binnen 15 Minuten den Unternehmenssitz verschieben in ein Land, wo die Regularien nicht so hoch sind."

"Bei manchen ist das Kind schon in den Brunnen gefallen"

KI-Start-Up Gründer Sebastian Flick sieht noch eine weitere beunruhigende Entwicklung. Mit seiner Firma branchly unterstützt er beispielsweise die Stadt Regensburg dabei, Anfragen schneller und kompetent zu beantworten. Dazu hat er einen KI-gestützten Chatbot, den GenAI-Chat entwickelt. Er kann live mit Touristinnen und Touristen kommunizieren.

Auch Flick ist froh, dass seine KI keine Tests der Risikostufe 3 machen muss. Er ist der Meinung, dass einige Start-Ups aufgrund der hohen Anforderungen aus dem AI Act ihren Fokus auf die Entwicklung risikoärmerer KI richten könnten. Und: "Bei manchen ist das Kind schon in den Brunnen gefallen, denn sie haben ihre KI schon am Markt", so Flick.

Im Video: Künstliche Intelligenz regulieren - klappt das?

Künstliche Intelligenz auf dem Monitor
Bildrechte: BR
Artikel mit Video-InhaltenVideobeitrag

Künstliche Intelligenz auf dem Monitor (Symbolbild)

Das ist die Europäische Perspektive bei BR24.

"Hier ist Bayern": Der BR24 Newsletter informiert Sie immer montags bis freitags zum Feierabend über das Wichtigste vom Tag auf einen Blick – kompakt und direkt in Ihrem privaten Postfach. Hier geht’s zur Anmeldung!