Algorithmen und ihre Wirkung auf den Menschen
Bildrechte: colourbox.com
Bildbeitrag

Der Glaube an die Objektivität von Algorithmen kann schwere Folgen haben. Jetzt zeigt eine Studie, wie Algorithmen diskriminieren.

Bildbeitrag
> Wissen >

Algorithmen: Wie und warum sie Menschen diskriminieren

Algorithmen: Wie und warum sie Menschen diskriminieren

Algorithmen – mit ihrer Hilfe können Mediziner Leben retten. Doch der unerschütterliche Glaube an die Objektivität der Daten kann auch gravierende Folgen haben. Jetzt zeigt eine Studie, wie Algorithmen strukturell diskriminieren.

Über dieses Thema berichtet: Gut zu wissen am .

Das Corona-Jahr 2020 macht nicht nur uns Menschen das Leben schwer, auch Algorithmen, genauer Gesichtserkennungs-Technologien, verzweifeln zunehmend – und zwar am Mund-Nasen-Schutz. Was Freunden gepflegter Anonymität gefällt, mag Fahnder weltweit verärgern: Denn nicht nur in Bayern wurde in den letzten Jahren die Ermittlung basierend auf biometrischen Daten von Straftätern ausgeweitet. Das zentrale Problem bei solchen Verfahrensweisen, wie eine Studie der US-Regierung nun aufdeckte, tritt an folgender Stelle auf: Menschen mit dunkler Hautfarbe erkennt der Großteil der Systeme viel schlechter als Weiße; auch Frauen werden schlechter als Männer erkannt. Gezeigt wurde dies anhand einer Untersuchung von fast 200 Gesichtserkennungs-Algorithmen.

So trainiert man Algorithmen

Nur: Wie kommt es dazu? Um das zu verstehen, muss man nachvollziehen können, wie ein Algorithmus funktioniert. Dabei handelt es sich zunächst einmal um ein simples Computerprogramm, das Anweisungen ausführt. Im vorliegenden Fall muss das Programm Instruktionen erhalten, wie es durch optische Daten ein Gesicht identifizieren soll. Über Deep Learning wird der Algorithmus nun mit Tausenden von Beispiel-Bildern von Gesichtern trainiert. Und zwar, bis das Programm – im Idealfall – verlässliche optische Anhaltspunkte gefunden hat, um das eine Gesicht hundertprozentig von einem anderen unterscheiden zu können.

Hier ist der Trainingsdatensatz, wie Prof. Bertolt Meyer von der Technischen Universität Chemnitz erklärt, der springende Punkt: Gefüttert werden die Algorithmen in der Regel mit frei verfügbaren Bildern von Promis aus den USA der 1980er-, 1990er- und 2000er-Jahren. Und diese zeigen überdurchschnittlich viele eher weiße, eher männliche Personen.

"Da sind einfach nicht besonders viele Personen mit dunkler Hautfarbe dabei, und schon gar nicht schwarze Frauen. Und das führt dazu, dass die Algorithmen, die mit diesem Datenmaterial trainiert wurden, extrem schlecht abschneiden, die Gesichter von schwarzen Frauen richtig zu erkennen." Prof. Bertolt Meyer, Institut für Psychologie, Technische Universität Chemnitz

Diskriminierung durch Algorithmen

Das wiederum kann fatale Folgen haben. Ein Fall aus den USA zeigt ganz konkret, dass blindes Vertrauen in Bilderkennungs-Algorithmen von Seiten der Polizei Menschen zu Unrecht ins Gefängnis bringen kann. So geschehen im aufsehenerregenden Fall von Michael Oliver, einem Schwarzen aus Detroit: Bei der Untersuchung eines Diebstahls hatte ihn ein Gesichtserkennungs-Algorithmus fälschlicherweise als Täter identifiziert. Die Konsequenz: Er wurde verhaftet, saß drei Tage lang im Knast und kam nur gegen eine Kaution von 1000 Dollar wieder frei. Und das, obwohl er mit der Tat rein gar nichts zu tun hatte.

Doch: Algorithmen helfen

Gefährlich wird es also dann, wenn Entscheidungen unhinterfragt auf Basis von Algorithmen gefällt werden. Doch ob Strafverfolgung oder Wissenschaft – einig ist man sich darin, dass Algorithmen zweifellos ungeahnte Potenziale bergen. Mit ihrer Hilfe sagen Forscher jetzt sogar dem Corona-Virus den Kampf an: Wie ein Team des Uni-Klinikums Augsburg berichtet, wurde eine App entwickelt, die bei der Früherkennung der Infektion die massiv unter Druck stehenden Labors entlasten könnte. Über eine Stimmanalyse soll das Programm infizierte von nicht-infizierten Menschen unterscheiden können – bei einer Trefferquote von 80 Prozent. Und auch wenn die App noch nicht voll ausgereift zu sein scheint, macht das Beispiel klar: Auf technische Innovationen, die mit Algorithmen arbeiten, ist in Zukunft zu setzen – aber nur, wenn Strukturen und Hintergründe der Prozesse möglichst transparent gestaltet sind.

Mehr Wissens-Dokus bei "beta stories"

Wissens-Dokus zu den Fragen, die in Zukunft wichtig werden. Unsere Welt ist "beta" – verheißungsvoll, fehlerhaft und ständig in Veränderung. Weltweit arbeiten Forscher am nächsten Update für unser Leben, sie prägen in Laboren und Thinktanks unsere Zukunft. Gentechnik, Künstliche Intelligenz, der Kampf gegen den Klimawandel, das sind die Geschichten, die jetzt zeigen, was in Zukunft wichtig wird. "beta stories" ist bei diesen Game Changern aus Wissenschaft und Technik dabei und fragt nach den ethischen und gesellschaftlichen Fallstricken.

"Darüber spricht Bayern": Der neue BR24-Newsletter informiert Sie immer montags bis freitags zum Feierabend über das Wichtigste vom Tag auf einen Blick – kompakt und direkt in Ihrem privaten Postfach. Hier geht’s zur Anmeldung!