Im Vereinigten Königreich hat ein geplantes KI-Gesetz der britischen Regierung einen Protest von mehr als Tausend Künstlern und Unternehmen aus der Kreativbranche ausgelöst. Aus Protest veröffentlichten Stars wie Kate Bush, Annie Lennox, Damon Albarn und Cat Stevens ein "stilles Album" mit dem Titel "Is This What We Want" ("Ist es das, was wir wollen").
Darauf zu hören ist: nichts. Nur die stille Soundkulisse von leeren Tonstudios und Aufnahmeorten. Die zwölf Titel des Albums ergeben zusammen den Satz: "Die britische Regierung darf den Diebstahl zugunsten von KI-Unternehmen nicht legalisieren".
Angst vor Kontrollverlust über Werke
Das geplante Gesetz sieht vor, dass Unternehmen die Werke von Künstlern künftig ohne ausdrückliches Einverständnis für das Training ihrer KI nutzen dürften. Die Urheber müssten dann jeweils aktiv widersprechen. Viele Künstler argumentieren, dass diese Vorgehensweise ihnen viel Mühe bereiten würde und es für sie schwierig festzustellen sei, wer alles ihre Inhalte nutzen wolle.
In einem offenen Brief in der Londoner "Times" warnen Künstler vor dem Ausverkauf ihrer Werke an die KI-Industrie. Zu den Unterzeichnern gehören Musikgrößen wie Paul McCartney, Elton John, Ed Sheeran, Dua Lipa und Sting sowie Schriftsteller wie Kazuo Ishiguro und Helen Fielding. Auch Filmproduzentin Barbara Broccoli, Schauspieler Stephen Fry und der Dirigent Simon Rattle schlossen sich an. "Der Vorschlag der Regierung würde das Lebenswerk der Musiker des Landes kostenlos an KI-Firmen ausliefern, die damit die Arbeit der Musiker ausnutzen könnten, um sie zu übertreffen", sagt der Komponist Ed Newton-Rex, der das Album organisiert hat.
Der britische Premierminister Keir Starmer will nach eigenen Angaben die richtige "Balance" zwischen Urheberrecht und den Anforderungen zur Weiterentwicklung von Künstlicher Intelligenz herstellen und verweist auf "riesige" Möglichkeiten durch KI.
EU kämpft mit ähnlichen Problemen
Auch auf EU-Ebene gibt es Diskussionen um den Schutz kreativer Inhalte vor dem Zugriff durch KI-Systeme. Ein Architekt des "AI Act", der deutsche EU-Abgeordnete Axel Voss, kritisiert im Guardian zuletzt eine "unverantwortliche" Rechtslücke im AI Act der Europäischen Union.
Im Zentrum der Debatte steht eine Ausnahme für Text- und Datenmining im EU-Urheberrecht. Diese Ausnahme sei ursprünglich für begrenzten privaten Gebrauch gedacht gewesen, nicht dafür, dass die größten Unternehmen der Welt riesige Mengen an geistigem Eigentum ernten könnten, so Voss. Er habe bei den Verhandlungen um den AI Act strengere Regeln gefordert.
Wie streng ist der AI Act?
Das Problem: Der AI Act gilt auch in der Form, in der er verabschiedet wurde, als die strengste KI-Gesetzgebung der Welt. "Die Messlatte für die Regulierung ist vielleicht zu hoch gelegt worden", sagte selbst Gabriele Mazzini, Chefautor des AI Act, vor einigen Monaten. "Es gibt vermutlich Unternehmen in Europa, die sagen, dass der AI Act nicht genug Rechtssicherheit bietet, um weiterzumachen."
Ob der AI Act, wie ursprünglich geplant, KI-Innovationen in der EU vor allem fördert, statt zu hemmen, ist noch nicht abschließend geklärt. Kritiker, die eine lockere Regulierung gefordert hatten, sahen sich diese Woche wieder bestätigt, als das niederländische Tech-Startup Bird ankündigte, seinen Betrieb auf außerhalb Europas zu verlegen. "Wir verlassen Europa vor allem deswegen, weil hier das Umfeld fehlt, um in der KI-Ära innovativ zu sein", sagte Bird-CEO Robert Vis. Seine Entscheidung sei eine Folge von zu strikter Regulierung und den Schwierigkeiten, Personal zu finden.
🎧 Wie verändert KI unser Leben? Und welche KI-Programme sind in meinem Alltag wirklich wichtig? Antworten auf diese und weitere Fragen diskutieren Gregor Schmalzried, Marie Kilg und Fritz Espenlaub jede Woche in Der KI-Podcast – dem Podcast von BR24 und SWR.
Das ist die Europäische Perspektive bei BR24.
"Hier ist Bayern": Der BR24 Newsletter informiert Sie immer montags bis freitags zum Feierabend über das Wichtigste vom Tag auf einen Blick – kompakt und direkt in Ihrem privaten Postfach. Hier geht’s zur Anmeldung!