KI-Tools machen uns produktiver - aber auch verwundbarer.
Bildrechte: picture alliance/dpa | Klaus-Dietmar Gabbert
Audiobeitrag

KI-Tools machen uns produktiver - aber auch verwundbarer.

Audiobeitrag
> Netzwelt >

Wie Firmen versuchen Chatbots datensicher zu machen

Wie Firmen versuchen Chatbots datensicher zu machen

KI-Chatbots gehören in vielen Unternehmen mittlerweile zum Alltag – doch was passiert mit den eingegebenen Daten? Viele Anbieter nutzen Nutzereingaben zum Training ihrer Modelle. Wie Unternehmen ihre sensiblen Informationen trotzdem schützen können.

Über dieses Thema berichtet: BR24 am .

KI-Chatbots gehören in vielen Unternehmen mittlerweile zum Alltag – auch wenn das mit Risiken verbunden sein kann. Denn viele Anbieter von KI-Modellen nutzen die Eingaben ihrer Nutzer zum Training ihrer Modelle.

Das heißt nicht, dass die Chateingaben einfach frei einsetzbar sind. Theoretisch könnte es aber passieren, dass sensible Informationen wie Adressen, Kontaktdaten oder Firmengeheimnisse in den Trainingsdaten großer Modelle landen. Zumindest theoretisch könnte dann eine spätere Version der KI einzelne Elemente aus diesen Daten wieder ausspucken. Bislang ist kein konkreter Fall bekannt, in dem das tatsächlich passiert wäre – doch zumindest in der Theorie besteht dieses Risiko.

Darüber hinaus sind die Datenschutz-Regeln bei der Verarbeitung sensibler Daten komplex. Insbesondere die Daten von Dritten dürfen in der Regel nur mit expliziter Erlaubnis von Chatbots verarbeitet werden. Das sieht die Datenschutzgrundverordnung vor.

Dennoch gibt es verschiedene Möglichkeiten, den Einsatz von Chatbots auf datensichere Füße zu stellen. Welche Möglichkeit die richtige ist, kann von Unternehmen zu Unternehmen variieren und muss immer im Einzelfall entschieden. Allerdings ist klar: Chatbot ist nicht gleich Chatbot.

🎧 Wie verändert KI unser Leben? Und welche KI-Programme sind in meinem Alltag wirklich wichtig? Antworten auf diese und weitere Fragen diskutieren Gregor Schmalzried, Marie Kilg und Fritz Espenlaub jede Woche in Der KI-Podcast – dem Podcast von BR24 und SWR.

Methode 1: KI verbieten

Dies ist der scheinbar einfachste Weg. Viele Unternehmen erlauben einfach nicht, ChatGPT oder andere Chatbots bei der Arbeit zu benutzen. Einer Befragung im Sommer 2023 zufolge erwogen drei Viertel der weltweiten Unternehmen ein solches Verbot.

Doch dieser scheinbar einfache Plan hat zwei große Schwierigkeiten: Einmal entgehen einem dadurch auch mögliche Produktivitätssteigerungen durch die smarte Nutzung von KI-Helfern. Und dann ist fraglich, ob sich die Mitarbeiter wirklich daran halten. Eine Befragung des Unternehmens Salesforce ermittelte schon 2023: Viele Büroangestellte nutzen KI im Alltag – und das teilweise ohne die Erlaubnis ihrer Chefs.

Methode 2: KI nur selektiv erlauben

Auch diesen Weg gehen aktuell viele Unternehmen: ChatGPT & Co sind grundsätzlich gestattet – aber es dürfen nur bestimmte Daten in die KI eingegeben werden. Tabu sind hier in der Regel Kundendaten und Informationen für den rein internen Gebrauch.

Hierfür ist es notwendig, Mitarbeiter über den korrekten Gebrauch der KI aufzuklären – etwas, das der AI Act der Europäischen Union ohnehin vorsieht.

Methode 3: Smarte Cloud-Lösungen

Nicht jede Chatbot-App ist gleich aufgebaut. Wer die normale Verbraucher-Version von ChatGPT verwendet, hat wenig Kontrolle darüber, was mit den internen Daten passiert. Zwar gibt es die Funktion "Provisorischer Chat", bei der die Eingaben nicht fürs Training verwendet werden sollen. Dennoch legt man hier sein Vertrauen in die Angaben von OpenAI.

Viele Cloud-Anbieter setzen deshalb auf eigene, in Europa gehostete, Server-Strukturen für KI. Diese können in der Regel über andere Cloud-Pakete mitgebucht werden. Dann lassen sich ChatGPT & Co genauso benutzen wie andere Tools für Videokonferenzen und Absprachen. Auch beim französischen KI-Anbieter Mistral gehört es zum Softwarepaket dazu, dass die Daten nicht fürs Training verwendet werden. Allerdings kann es auch hier – ähnlich wie bei Microsoft Teams – zu Unsicherheiten bei der Datenschutz-Frage kommen. Diese müssen im Zweifelsfall einzeln besprochen und abgewogen werden.

Methode 4: Lokale Modelle

Was vor Kurzem noch als Option für echte Experten galt, wird allmählich breiter zugänglich: Ein freies Open Source-Modell (etwa von Meta oder DeepSeek) herunterladen und auf eigener, lokaler Hardware betreiben. So kann man sicherstellen, dass keine Daten abfließen, und alles im lokalen Unternehmen bleibt.

Der Nachteil: So etwas aufzusetzen ist nicht einfach – und vermutlich wird man auch nicht die gleiche Leistung wie die besten Modelle von OpenAI und Anthropic erzielen. Allerdings gibt es auch hier stetige Fortschritte – und KI-taugliche Computer werden immer erschwinglicher: Nvidia hat vor Kurzem einen KI-Rechner für etwa 3.000 Euro vorgestellt.

Das ist die Europäische Perspektive bei BR24.

"Hier ist Bayern": Der BR24 Newsletter informiert Sie immer montags bis freitags zum Feierabend über das Wichtigste vom Tag auf einen Blick – kompakt und direkt in Ihrem privaten Postfach. Hier geht’s zur Anmeldung!