© DKJS

Algorithmic Bias

Den Begriff Bias kennt man vor allem aus der Psychologie, siehe etwa hier: unconscious bias. Es gibt aber auch den algorithmic bias, der immer dann zum Tragen kommen kann, wenn Maschinen Entscheidungen treffen. Aber Moment – sollten Algorithmen nicht objektiv sein?

„Algorithmen an sich sind natürlich schon objektiv“, erklärt Miriam Klöpper, die als wissenschaftliche Mitarbeiterin am FZI Forschungszentrum Informatik in Karlsruhe und Berlin unter anderem zum Thema Ethik und KI (Künstliche Intelligenz) forscht. „Die Menschen, die einen Algorithmus programmieren, sind es aber in den wenigsten Fällen. Wir alle haben – ob bewusst oder unterbewusst – vermutlich irgendwelche Vorurteile. Schlimm wird es, wenn diese Vorurteile gegen gewisse Gruppen von Menschen gerichtet sind. Diese Vorurteile gelangen dann über die sogenannten Trainingsdaten, also die Datenbasis, die wir einem Algorithmus geben, um daraus zu lernen und Ergebnisse abzuleiten, in das erstellte Datenmodell. Daraus resultiert dann eine mögliche Diskriminierung.”

Maschinen werden „trainiert“

Maschinenlernen funktioniert im Wesentlichen so: Man füttert eine Maschine mit Daten und gibt ein paar Entscheidungen vor (z.B. bei Bilderkennung Bilder von Blumen als Blumen benennen). Dann gibt man weitere Daten hinein (etwa Bilder von allen möglichen Objekten, darunter auch Blumen), je mehr desto besser. Die Maschine sucht auf der Basis der anfangs vorgegebenen Entscheidungen nach Mustern, sprich: korreliert Daten, und kann nun immer besser entscheiden, was Blume ist und was nicht. Am besten geht das, wenn man sie „trainiert”, das heißt: Fehler verbessert. Bei diesem „Antrainieren” von Algorithmen können vorhandene Vorurteile in das Entscheidungsmuster gelangen und sich dort fortsetzen.

Autovervollständigung kann diskriminierend sein

Wie kann sich das äußern? Laut Miriam Klöpper verfügen „die allermeisten historisch gewachsenen Datensätze, über die Firmen verfügen, um damit ein System zu trainieren, zum Beispiel nur über wenige Daten von Frauen. Dies kann dann potenziell in Diskriminierung von Frauen resultieren. Leider gibt es mittlerweile eine ganze Reihe an Beispielen, die sich hier aufzählen ließen. „Diskriminierende“ Algorithmen haben in den letzten Jahren einige negative Schlagzeilen gemacht, so hat zum Beispiel ein großer Online-Versandhändler ein automatisiertes Personalmanagement-Tool entwickelt, das gelernt hat, Frauen sollten besser nicht eingestellt werden. Ein anderes bekanntes Problem ist eine Kreditkarte, die Frauen einen deutlich niedrigen Kredit-Rahmen gewährt, als ihren Ehemännern – auch bei exakt gleichem Vermögen. Auch Autovervollständigung bei Suchanfragen im Internet kann diskriminierend sein. Wenn zum Beispiel bei der Suche nach Frisuren für das Büro nur Bilder von weißen Menschen gezeigt werden, aber die Suche nach unprofessionellen Frisuren nur Bilder von Menschen mit natural hair zeigt, oder uns die Autovervollständigung sexistische Klischees vorschlägt.

Algorithmic bias kann Vorurteile verstärken

Was algorithmic bias besonders perfide macht: Algorithmen sind intransparent. „Im automatisierten Entscheidungsfindungsprozess ist in den allermeisten Fällen den Nutzer:innen nicht klar, wie und auf welcher Grundlage die Ergebnisse zustande gekommen sind. Mögliche Diskriminierung bleibt so leichter unerkannt,” so Klöpper. Denn: Wir gehen davon aus, dass Algorithmen objektiv sind, „Entscheidungen, die ein Computerprogramm macht, werden selten hinterfragt. Wenn also zum Beispiel an eine bestimmte Personengruppe ein geringerer Kreditrahmen vergeben wird, oder auch bestimmte Arbeitsplätze nicht vergeben werden, wird der Grund dafür seltener beim System gesucht.” So gesehen kann algorithmic bias sogar bestehende Vorurteile verstärken. Im oben genannten Beispiel der Frisurensuche: „Wir können beim Lesen dieser Vorschläge unterbewusst diese Vorurteile aufnehmen, das ist großes Problem.”

Entwickler:innen sollten möglichst divers sein

Dass von algorithmic bias diejenigen Personengruppen betroffen sind, die auch ansonsten unter Diskriminierung leiden, hat nach Miriam Klöppers Auffassung – neben der Tatsache, dass die Daten für die Algorithmen diese Vorurteile transportieren – noch einen weiteren Grund: „Die Gruppe der Personen, die an der Entwicklung vieler Programme beteiligt ist, ist hauptsächlich weiß und männlich. Durch die mangelnde Diversität im Team kommt es schlicht und einfach dazu, dass die Bedürfnisse und Eigenschaften anderer Nutzer:innen-Gruppen als der jeweils eigenen völlig vergessen werden. Würde diverser und fairer eingestellt, wäre das Bewusstsein für das Diskriminierungspotential der automatisierten Entscheidungsfindungssysteme vermutlich höher und zu manchen Diskriminierungen würde es erst gar nicht kommen.” Es sei daher „fundamental wichtig, dass die Entwickler:innen von Systemen divers sind. Aktuell sehen wir leider wenig Diversität unter Entwickler:innen. Gleichzeitig glaube ich aber, Mädchen interessieren sich durchaus schon sehr oft für Informatik – dieses Interesse wird nur nicht gefördert. Und dann ist es auch so, dass es als Frau oder weiblich gelesene Person schwieriger sein kann, am Arbeitsplatz zurecht zu kommen, da es wie in vielen männlich dominierten Berufen noch sehr viel Diskriminierung und Vorurteile gegen Frauen gibt, auch ohne Algorithmen.”