Wenn Software menschliche Fehler übernimmt: Diskriminiert durch die Suchmaschine
Algorithmen lernen von Daten, die Menschen ihnen zur Verfügung stellen. Dadurch übernehmen sie aber auch deren Vorurteile. Wie kann man dem entgegen wirken?
Die Frauen- und Gleichstellungsministerinnen der Länder fordern von der Bundesregierung, dass sie Algorithmen auf „Diskriminierungsmechanismen“ hin prüft. Was sie stört, sind beispielsweise Autovervollständigungen bei Suchanfragen. Tippe man dabei etwa die Wörter „Frauen können“ ein, erscheinen unter anderem Vorschläge wie: „Frauen können.. sich nicht entscheiden ... kein Auto fahren ... nicht mit Technik ... mit Kind nicht Karriere machen“.
„Wir wollen nicht, dass die immer noch bestehende Ungleichheit und strukturelle Diskriminierung in der analogen Welt sich in der digitalen Welt fortsetzt oder verschärft“, sagte die Hamburger Senatorin Katharina Fegebank (Grüne) im Anschluss an die Frauenministerkonferenz der Bundesländer Anfang Juni.
Die Menschen sind das Problem, nicht die Programme
Doch den Ansatz, Algorithmen auf „Diskriminierungsmechanismen“ hin zu überprüfen, findet Lorena Jaume-Palasí falsch. „Die Ursache von Diskriminierung sind immer Menschen“, sagte die Gründerin der Ethical Tech Society in Berlin, die sich mit der sozialen Dimension von Technologie beschäftigt. „Anstelle des Regulierens der Ursachen, die Diskriminierung verursachen, fokussiert man sich auf die Technologie, die menschliches Diskriminierungsverhalten widerspiegelt.“
Susanne Dehmel vom Digitalverband Bitkom verweist darauf, wie wichtig die richtige Auswahl der Datensätze ist. „In der Vergangenheit gab es in Unternehmen die Einstellungspraxis, dass vermehrt weiße Männer eingestellt wurden“, sagt sie. Trainiere man den Algorithmus nun mit diesen historischen Daten, suche er die Kandidaten eben auch entsprechend aus.
Amazon hatte im vergangenen Jahr Schlagzeilen gemacht, weil ein Programm die besten unter den Bewerberinnen und Bewerbern finden sollte – aber Frauen systematisch benachteiligte. Aufsehen gab es auch um die Google-Bilderkennung, die schwarze Menschen mit Gorillas verwechselte. Fragwürdig auch dabei wohl die Auswahl der Bilder, mit der die Maschine trainiert wurde.
"Warum sind schwarze Frauen so..."
Dehmel kann den Ergebnissen etwas Positives abgewinnen: Sie hielten der Gesellschaft einen Spiegel vor, und zeigten, wie akut Diskriminierung sei. Anbietern einen erzieherischen Auftrag zu erteilen, möglichst diskriminierungsfreie Inhalte anzuzeigen, findet Dehmel falsch. Sie filterten nach Relevanz, Ergebnisse ergäben sich aus dem, was Leute anklicken. „Die Anforderung würde die Funktion überfrachten.“
Dass Google durchaus in die Präsentation der Ergebnisse eingreift, zeigen verschiedene Beispiele, etwa das der US-amerikanischen Professorin Safiya Umoja Noble. In ihrem 2018 erschienenen Buch „Algorithms of Oppression“ kritisierte sie unter anderem rassistische und stereotype Vorschläge für die Autovervollständigung des englischen Satzes „Warum sind schwarze Frauen so“. Wer heute den Satz in die Suchmaschine tippt, bekommt keine Ergänzungen mehr vorgeschlagen.
Große Aufmerksamkeit erfuhr in Deutschland 2015 auch der Streit zwischen Bettina Wulff und Google über die Kombination ihres Namens mit ehrabschneidenden Begriffen in der Autocomplete-Funktion. Der Konzern entfernte die Ergänzungen zur Frau des damaligen Bundespräsidenten. Google hat im Juni 2018 angekündigt, künftig besonders darauf zu achten, dass Software keine „unfairen Vorurteile“ aufweist oder nach Hautfarbe, Geschlecht, sexueller Orientierung oder Einkommen diskriminiert.
Mehr Kontrolle durch Soziologen nötig
Doch wie kann sichergestellt werden, dass diese Technologien künftig klügere und fairere Entscheidungen treffen? „Es ist ein Kompetenzproblem. Erst wenn man versteht, wie die Technologie funktioniert, kann man Diskriminierung sorgfältig entgegentreten“, meint Dehmel.
Dass es nicht ausreicht, Angaben zu Gender und Hautfarbe aus den Datensätzen zu nehmen, haben Beispiele aus der Vergangenheit gezeigt. Algorithmen fanden Stellvertreter-Variablen und kamen so zu den gleichen diskriminierenden Ergebnissen. Dehmel schlägt diverse Datensätze, eine sorgfältige Konzeption der Lernprozess, sowie Testläufe vor.
Hinter Künstlicher Intelligenz (KI) müsse mehr als ein Entwickler stehen, fordert Jaume-Palasí. Für die Kontrolle „braucht man Soziologen, Anthropologen, Ethnologen, Politologen. Leute, die die Ergebnisse in dem jeweiligen Sektor, in dem die Technologie angewendet wird, besser kontextualisieren können“, sagt die Datenethikerin. „Wir müssen endlich abkommen von dem Glauben, dass KI ein informatisches Thema ist. Es sind soziotechnische Systeme und die Berufsprofile, die wir da brauchen, sind wesentlich vielfältiger.“ (mit dpa)