ChatGPT und andere Chatbots sind eine der smartesten Erfindungen des Internet-Zeitalters – doch sie machen immer wieder Fehler. Vor allem "Halluzinationen" machen Nutzern von KI zu schaffen. So bezeichnet man Aussagen eines Chatbots, die zwar plausibel klingen, aber eigentlich falsch sind.
Schadet KI der KI?
Das macht heute schon zu schaffen. Nicht nur Bild-Fakes werden immer wieder verbreitet – auch echt aussehende Websites, Nachrichtenartikel, Kommentare und Rezensionen sind mittlerweile zuhauf im Internet zu finden. Und werden auch angeklickt: Einer Untersuchung der Tech-Website 404 Media zufolge spielt Google bei manchen Anfragen gerne KI-generierte Inhalte aus – teilweise sogar mehr als von Menschen geschriebene Inhalte.
Das könnte nicht nur für Menschen ein Problem werden. Denn KI-Modelle wie ChatGPT oder Google Gemini werden selbst mit massenhaft Daten aus dem Internet trainiert. Wenn das nun selbst voller KI-Texten steckt ... Könnte eine KI so mit ihren eigenen Unwahrheiten trainiert werden und jedes Gefühl für Lüge und Wahrheit verlieren?
🎧Wie verändert KI unser Leben? Und welche KI-Programme sind in meinem Alltag wirklich wichtig? Antworten auf diese und weitere Fragen diskutieren Gregor Schmalzried, Marie Kilg und Fritz Espenlaub jede Woche in Der KI-Podcast – dem Podcast von BR24 und SWR.
"Kollabiert" die KI?"
In der Praxis ist von diesem Problem bislang nichts zu bemerken. Es gibt immer mehr KI-Inhalte im Internet – dennoch werden die KI-Modelle der Tech-Unternehmen immer besser. Text-KIs wie Claude 3.5 von Anthropic und GPT-4o von OpenAI sind heute schneller, effizienter und um einiges schlauer als noch vor einem Jahr – die KI-Entwicklung lässt sich also bislang nicht aufhalten.
Dennoch ist die Sorge um eine KI, die sich selbst verschlechtert, kein rein theoretisches Problem. Eine im Wissenschaftsmagazin "Nature" veröffentlichte Untersuchung von KI-Forschern zeigt, dass KI-Modelle unter bestimmten Voraussetzungen "kollabieren", wenn man sie ausschließlich mit ihren eigenen Daten trainiert.
Das bedeutet: Bittet man ein KI-Modell, Daten zu generieren und nutzt diese Daten unbereinigt zum Training der KI, verliert die KI Stück für Stück an Leistung. Es kommt zum "Model Collapse" – einer Art KI-Rinderwahnsinn.
Fachleute sehen keine Gefahr
Das klingt dramatisch – doch die Realität ist nuancierter. In der Praxis werden KI-generierte Daten schon länger für das Training von KI-Modellen genutzt – mit positiven Ergebnissen. Allerdings können die künstlichen Daten bislang noch keine menschlichen Daten komplett ersetzen. Es geht darum, die KI-Daten smart zu verwenden.
Noch ist unklar, ob die großen Tech-Unternehmen tatsächlich ihre Versprechen halten können und in einigen Jahren eine deutlich verbesserte "AGI" liefern – eine generalistische KI, die menschlicher Arbeit in fast allen Bereichen gleichkommt. Insbesondere ist fraglich, ob allein die verfügbaren Daten und Trainingsmethoden dafür ausreichen – oder ob erst einmal weitere technische Durchbrüche nötig sind.
Klar ist aber immerhin: Fürs Erste besteht wohl keine Gefahr, dass die KI-Modelle ihrem eigenen Erfolg zum Opfer fallen.
Das ist die Europäische Perspektive bei BR24.
"Hier ist Bayern": Der BR24 Newsletter informiert Sie immer montags bis freitags zum Feierabend über das Wichtigste vom Tag auf einen Blick – kompakt und direkt in Ihrem privaten Postfach. Hier geht’s zur Anmeldung!