Umgang mit Künstlicher Intelligenz Unsere KI-Richtlinien im Bayerischen Rundfunk
Technologie soll beim Bayerischen Rundfunk kein Selbstzweck sein. Sie muss uns helfen, besseren Journalismus zu machen. Das gilt auch für Künstliche Intelligenz und alle anderen Formen der Automatisierung. Diese Richtlinien unterstützen uns dabei zu entscheiden, ob und wie wir KI und Automatisierung einsetzen.
Wir wollen beim Bayerischen Rundfunk das konstruktive Zusammenspiel von menschlicher und künstlicher Intelligenz mitgestalten und die neuen Möglichkeiten für unseren Journalismus nutzen. Wir setzen nur Technologie ein, die den Mitarbeitenden im BR und unseren Nutzer*innen einen tatsächlichen Mehrwert bietet.
Dabei bleiben unsere Mitarbeitenden unersetzlich. Technologie wird unsere Arbeit unterstützen sowie neue Aufgaben und Rollen in allen Bereichen mit sich bringen. Um die Frage nach dem Mehrwert in einem Umfeld schneller technologischer Entwicklungen immer wieder neu beantworten zu können, haben wir uns für den Alltag mit KI und Automatisierung ethische Richtlinien gegeben.
Was verstehen wir unter KI?
Der Begriff KI („Künstliche Intelligenz“) kann je nach Kontext sehr unterschiedliche Bedeutungen haben. KI kann als eine Reihe von Fähigkeiten eines Computers verstanden werden, die intelligentem Verhalten ähneln. Dabei ist weder festgelegt, was unter “intelligent" verstanden wird, noch welche Technologien eingesetzt werden. Aus praktischen Gründen beschränken wir unsere Definition auf Computersysteme, die trainiert werden müssen, um eine bestimmte Aufgabe zu erfüllen. Dieser Bereich der Informatik und Softwareentwicklung nennt sich „Machine Learning“ oder auf Deutsch: „Maschinelles Lernen“.
Wir wenden unsere Richtlinien auch auf andere algorithmische Entscheidungssysteme an, da die technischen Voraussetzungen ähnlich sind und ihre Wirkungen ebenso weitreichend sein können.
Unsere Richtlinien für den Umgang mit KI und Automatisierung:
1. Mehrwert für Nutzer*innen
Wir setzen KI-Systeme nicht zum Selbstzweck ein, sondern nur dann, wenn sich dadurch nachweislich etwas verbessert. Wir nutzen KI, um unsere Arbeit effizienter zu machen und verantwortlich mit den Ressourcen umzugehen, die uns die Beitragszahler*innen anvertrauen. Wir nutzen KI auch, um neue Inhalte zu erstellen, neue Methoden für investigative Recherchen zu entwickeln, unsere Arbeitsprozesse zu unterstützen und Angebote für unsere Nutzer*innen attraktiver zu machen.
Die Erkenntnisse aus der Nutzung und Entwicklung von KI helfen uns bei der informierten und kritischen Berichterstattung über Künstliche Intelligenz. Wir beteiligen uns an der Debatte über die gesellschaftliche Rolle von Algorithmen, indem wir über Trends informieren, KI-Entwicklungen einordnen, investigativ zu Algorithmen recherchieren, Funktionsweisen erläutern und eine offene Diskussion über die Weiterentwicklung der öffentlich-rechtlichen Medienarbeit in der Gesellschaft befördern.
2. Präzise Beschreibung von KI
Wir beschreiben KI-Technologie als technische Systeme und vermeiden vermenschlichende, irreführende Formulierungen. Insbesondere der Vergleich mit menschlicher Intelligenz und menschlichen Fähigkeiten wie Sprechen, Schreiben oder Denken stellt die Funktionen der Technologie oft als falsch und übermächtig dar. Dies betrifft auch den Gebrauch von Metaphern und Bildsprache, die den irreführenden Eindruck künstlicher Lebewesen verstärken. Daher vermeiden wir diese Art der Bebilderung und Beschreibung in unseren Publikationen.
3. Redaktionelle Kontrolle & Transparenz
Das Abnahmeprinzip bleibt bei automatisiert erstellten Inhalten bestehen. Das bedeutet: Die Verantwortung für automatisiert erstellte Inhalte liegt immer bei Menschen und Redaktionen, nie bei dem System, das die Inhalte erstellt hat. Wir nutzen generative KI-Systeme für unsere journalistischen Veröffentlichungen nur dann, wenn wir die Ergebnisse vor der Veröffentlichung geprüft haben.
Wir prüfen Datenquellen auf Korrektheit und Modelle sowie Software auf ihre Verlässlichkeit. Wir erarbeiten menschliche Workflows und technische Kontrollen, die an die verwendete Technologie angepasst sind.
Bei weitgehend automatisiert erstellen Inhalten machen wir transparent, welche Technologien wir einsetzen, welche vertretbaren Risiken und Einschränkungen wir dabei gegebenenfalls sehen, welche Daten eine Rolle spielen und welche Redaktionen die inhaltliche Verantwortung tragen. Wir kennzeichnen automatisiert erstellte Inhalte und veröffentlichen unsere Vorgehensweise.
4. Folgenabschätzung
Wenn wir KI einsetzen, beurteilen wir im Vorhinein mögliche Wirkungen und Nebenwirkungen. Dazu gehört die Einschätzung, ob der Einsatz des Systems mit journalistischen Standards und geltendem Recht vereinbar ist sowie die Abschätzung möglicher Folgen für die Arbeit von Mitarbeitenden.
Das Training und der Betrieb großer KI-Systeme sind sehr energieintensiv. Wir berücksichtigen dieses Problem bei der Auswahl.
Wo möglich machen wir unsere Arbeit zugänglich und nutzen Open-Source-Software. Nutzen wir KI-Systeme von Drittanbietern, prüfen wir, was sie leisten können und wo ihre Grenzen liegen. Wir beziehen ethische Abwägungen und eine Folgenabschätzung in die Entscheidung ein, ob wir Drittanbieter-Software verwenden oder nicht.
5. Vielfalt & Regionalität
Wir denken die gesellschaftliche Vielfalt mit, auch durch möglichst diverse Teams. Dabei nutzen wir KI als Möglichkeit für mehr Inklusion und einen barrierefreieren Zugang zu unseren Inhalten.
Außerdem streben wir einen aufmerksamen und bewussten Umgang mit möglicherweise diskriminierenden Stereotypen in Trainingsdaten an und arbeiten beispielsweise an Sprachmodellen, die mit Dialekten der Region umgehen können.
6. Bewusste Datenkultur
Es ist für uns eine entscheidende Frage, womit ein Modell trainiert wurde. Wenn Dienstleister keine belastbaren Informationen zu Datenquellen liefern, wägen wir eine Nutzung ihrer KI-Systeme besonders kritisch ab und bevorzugen transparentere Alternativen. Auch bei internen Entwicklungen diskutieren wir die Integrität und Qualität der Trainingsdaten.
Wir stärken bei unseren Mitarbeiter*innen das Bewusstsein dafür, dass verlässliche KI-Anwendungen nur auf Basis verlässlicher Daten und im Rahmen geltender Datenschutzbestimmungen entwickelt werden können.
Wenn wir die Stimme, Mimik, Gestik oder ähnliche Daten von Menschen nutzen, um KI-Modelle zu trainieren, sind wir uns der besonderen Verantwortung bewusst, die damit einhergeht.
7. Verantwortliche Personalisierung
Personalisierung stärkt den Informations- und Unterhaltungswert unserer Angebote, sofern sie gesellschaftlichen Austausch und Zusammenhalt nicht untergräbt sowie ungewollte Filterblasen-Effekte verhindert. Daher engagieren wir uns bei der Entwicklung öffentlich-rechtlicher Empfehlungsalgorithmen.
8. Kultur des Lernens
Um Produkte und Richtlinien weiterzuentwickeln, brauchen wir Lernerfahrungen aus Pilotprojekten und Prototypen. Wir testen neue Technologien in abgesicherten Sandbox-Umgebungen. Das ermöglicht uns zu lernen und gleichzeitig Risiken zu minimieren. So verankern wir, dass fertige Publikumsprodukte unsere Standards erfüllen und wir trotzdem agile Lernkultur im Alltag leben können.
Wir reflektieren regelmäßig in interdisziplinären Teams bestehend aus Journalist*innen, Entwickler*innen, KI-Expert*innen und dem Management unsere Erfahrungen, auch mit ethischen Grenzsituationen des Einsatzes von KI-Technologien.
9. Austausch & Partnerschaften
Wir arbeiten in Kooperation mit Hochschulen und Universitäten an Projekten wie Textgenerierung und Machine-Learning-Modellen und ermöglichen Studierenden und Lehrenden für ihre Forschungsarbeiten Zugänge zum Arbeitsalltag eines großen Medienhauses. Wir suchen Austausch mit wissenschaftlichen Instituten und KI-Ethik-Expert*innen.
Wir arbeiten ebenso mit etablierten Tech-Unternehmen wie mit regionalen Startups zusammen, um vorhandene KI-Kompetenz zu nutzen und durch praktische Projekte im Medienbereich zu fördern.
Vorherige Fassung der KI-Richtlinien Stand 30.11.2020 Format: PDF Größe: 281,51 KB