Facebook vs. Fake News Das wird sich bei Facebook ändern
Facebook versucht nach einem skandalösen letzten Jahr wieder Vertrauen bei den Nutzern aufzubauen. Stichwort: Fake News. Diese drei Änderungen werden deshalb bald bei Facebook und in unseren Timelines aufschlagen.
Für Facebook lief das Jahr 2018 richtig mies – ein Skandal folgte auf den nächsten. Dieses Jahr sieht es so aus, als würde sich der Netzwerkriese langsam wieder aufrappeln, Vertrauen neu aufbauen und aus seinen Fehlern lernen. Die EU-Urheberrechtsreform und die Diskussion um Fake News haben sicherlich auch den Druck erhöht, dass sich Facebook etwas umorientieren muss. Drei konkrete Änderungen werden wir deshalb schon bald in unserer Timeline sehen.
1. Der Newsfeed-Algorithmus wird transparenter
Wie der Newsfeed von Facebook funktioniert, ist für alle ein großes Rätsel. Das soll sich ab jetzt Schritt für Schritt ändern. Schon bald wird es zu jedem Post eine Info geben, warum uns Facebook jetzt genau dieses Video oder dieses eine Urlaubsfoto angezeigt. Seit 2014 gibt es bei Werbeanzeigen schon den "warum wird mir dieser Beitrag angezeigt?"-Button. Der wird auch bei normalen Posts kommen.
So soll die App nach dem Update aussehen: Es sollen Informationen einsehbar sein, warum gerade dieser Beitrag in der Timeline landet.
Wie die Posts geordnet werden, liegt laut Facebook unter anderem daran, mit welchen Personen oder Seiten viele Likes oder Markierungen ausgetauscht werden. Aber auch daran, ob wir lieber Fotos oder Videos anschauen oder wie beliebt ein Beitrag generell ist. Konkret steht in dieser Infobox zum Beispiel: "Dir wird dieser Beitrag angezeigt, weil du mit Eric Müller befreundet bist und du bist Mitglied in der Gruppe 'Welpen suchen ein Zuhause‘".
Auch neu: Man kann die Einstellungen verändern und so in den eigenen Newsfeed eingreifen. Das hat Facebook bisher noch nie zugelassen. Damit werden auch "erstmals Informationen über die Funktionsweise unseres Newsfeed-Rankings" einsehbar, sagt Facebook-Gründer Mark Zuckerberg. Facebook lässt damit tief blicken – und zwar in seinen Algorithmus. Das fordern Nutzer und Politiker schon ewig.
2. Eigener Bereich für "vertrauenswürdige Inhalte"
Der endlose Kampf gegen Fake News auf Facebook nimmt neue Fahrt auf. Mark Zuckerberg denkt darüber nach seriöse Inhalte – also gut recherchierter Medien- und Politikcontent - von allem anderen zu trennen. Dafür soll ein eigener News-Tab für "hochwertige" und "vertrauenswürdige" Inhalte eingeführt werden. Nicht so klar ist bisher, ob Facebook diese für diese neue News-Rubrik auswählt oder sie das Nutzer selbst überlassen.
Mark Zuckerberg stellt sogar in Aussicht, den Medienhäusern Lizenzgebühren zu zahlen, um ihre Artikel dort verbreiten zu dürfen. Er und sein Team überlegen auch für die News-Timeline eigene Redakteure einzustellen, um Nachrichtenposts generell besser einordnen zu können. Trotzdem will Facebook nach wie vor keinen Content selbst produzieren und sieht sich nur als Plattform. Die Facebook-Newschefin Anne Kornblut sagt dazu: "Die Journalisten sollen das machen, was sie gut können, und wir unterstützen sie dabei."
3. Strengere Kontrolle, wer was posten darf
Für politische Inhalte gibt es schon jetzt eine konkrete Neuerung: Es soll die Identität von jedem geprüft werden, der eine politische Anzeige schalten oder eine Seite mit hoher Reichweite online stellen will. Dabei geht es darum, festzustellen ob der User auch aus dem Land kommt, in dem sein Post verbreitet wird. So soll Wahlmanipulation aus dem Ausland verhindert werden - eine Reaktion auf die US-Präsidentschaftswahl 2016. Da wurde Facebook als Fake-News-Plattform missbraucht, denn Russland hatte die US-Wahl mit Werbeanzeigen beeinflusst. Facebook hatte damals zugegeben nicht entsprechend reagiert zu haben und nach drei Jahren haben sie dieses Problem nun in Angriff genommen.
Mark Zuckerberg hat zudem neue Richtlinien angekündigt, um zu regulieren, wer auf Facebook live streamen darf. Die Live-Videos bei Facebook gibt es zwar schon länger, sie waren aber nach dem Anschlag in Christchurch in Neuseeland in Kritik. Der Attentäter hatte den ganzen Terrorakt per Helmkamera live ins Netz gestreamt. Nicht nur die KI-Systeme, die Facebook für die Suche nach radikalen Inhalten einsetzt, haben nicht angeschlagen, auch die Facebook-Community nicht: Das Video wurde 200 Mal angesehen, bis es überhaupt einmal gemeldet wurde und weitere 4000 Mal bis es dann gelöscht wurde.
Facebook hat zuerst selbstkritisch reagiert: Es wurde "zu Recht hinterfragt, wie Onlineplattformen wie Facebook benutzt wurden, um schreckliche Videos des Angriffs zu verbreiten", postete die Facebook-Managerin Sheryl Sandberg. Seit ein paar Tagen darf jemand der wegen eines Verstoßes gegen die Communityregeln von Facebook verwarnt wurde, nicht mehr live streamen.
Einer von mehreren zaghaften Schritten – aber immerhin Schritte in die richtige Richtung.
Sendung: PULS am 5. April ab 10 Uhr.