Warum KI nicht frei von Vorurteilen ist

Stand: 05.01.2023 10:19 Uhr

Künstliche Intelligenz galt lange als neutral und vorurteilsfrei. Schließlich teilt sie nicht unsere Geschichte, in der Rassismus und Sexismus gewachsen sind. Doch wir geben unsere Vorurteile einfach an die KI weiter.

Von David Beck, SWR

Bei weißen Männern funktioniert es, bei schwarzen Frauen nicht: Gesichtserkennung mittels KI. Ein mittlerweile klassisches Problem in der KI- Forschung. In ihrem Ted-Talk zeigt die dunkelhäutige Joy Boulamwini die Ergebnisse eines Selbstexperiments: Eine Gesichtserkennungssoftware erkennt ihr Gesicht einfach nicht. Erst als sie sich eine weiße Maske aufsetzt, die auf die grundlegendsten Merkmale eines Gesichts reduziert ist – Mund, Nase, Augen – erkennt die Software ein Gesicht.

Und wenn es funktioniert, dann mehr schlecht als recht. Boulamwini untersuchte verschiedene Gesichtserkennungssoftwares, unter anderem von IBM und Microsoft. Ergebnis: Die Softwares erkannten zwar alle Gesichter, machten aber bei Frauen und bei dunkelhäutigen Menschen deutlich mehr Fehler, wenn es darum ging, das Geschlecht der Person zu bestimmen. Bei weißen Männern lag die Fehlerquote bei etwa einem einem Prozent, bei dunkelhäutigen Frauen bei 35 Prozent.

Das Problem ist aber nicht die Technik an sich, sondern von wem sie entwickelt und wie sie trainiert wird. Denn einerseits sind es überdurchschnittlich viele weiße Männer, die künstliche Intelligenzen entwickeln. Der Frauenanteil in der deutschen IT-Branche lag 2021 bei gerade mal 18 Prozent.

Zwar sind immerhin 25 Prozent der Studierenden in dem Bereich Frauen, doch berichten junge, berufstätige Programmiererinnen oft von einer unangenehmen, männlich dominierten Arbeitsumgebung und geben den Beruf zum Teil wieder auf. Und auch Migrantinnen und Migranten sind unterrepräsentiert. In anderen Ländern ist die Situation zum Teil etwas besser, aber nicht entscheidend.

Entwicklerteams zu wenig divers

Das führt dazu, dass KI-Entwickler an diese Gruppen oft einfach nicht denken. Sie schauen zum Beispiel ihre eigenen Gesichter an und fragen sich: “Woran erkenne ich, dass das ein Gesicht ist?” Dabei kann es sein, dass sie Merkmale übersehen, die wichtig wären, um ein weibliches oder dunkelhäutiges Gesicht zu erkennen. Die daraus resultierende Gesichtserkennungssoftware erkennt dementsprechend weiße, männliche Gesichter am besten.

Laut Ksenia Keplinger, Arbeitsgruppenleiterin am Max-Planck-Institut für Intelligente Systeme, liegt dies nicht unbedingt daran, dass die Entwickler Frauen oder Minderheiten ausschließen wollen, sondern schlicht daran, dass Entwickler einfach nicht daran denken, ihre KIs auch für andere Gruppen zu entwickeln.

Datensätze zu wenig divers

Ein weiterer Grund für Vorurteile in künstlichen Intelligenzen sind laut Keplinger die Datensätze, mit denen sie trainiert werden. Um zum Beispiel eine Gesichtserkennungs-KI zu trainieren, werden ihr Tausende oder Zehntausende Bilder von Gesichtern gezeigt. Daran lernt sie, welche Merkmale ein Gesicht ausmachen. Solche Datensätze können gekauft werden.

Das Problem daran ist, dass die Datensätze in der Regel auch zu wenig divers sind. Weiße Männer sind oft massiv überrepräsentiert. So lernt die KI auch wieder diese Gesichter am besten zu erkennen.

Aus der Vergangenheit lernen ist problematisch

Wird eine KI mit historischen Daten trainiert, dann übernimmt die KI die Vorurteile, die in den historischen Daten stecken. Etwa ein Algorithmus, der über Bewerbungen entscheiden soll, würde mit Daten trainiert werden, welche Bewerbungen in der Vergangenheit erfolgreich waren. So würde er lernen, was dem Unternehmen wichtig ist. Doch fast in jeder Branche wurden in der Vergangenheit Männer bevorzugt. Für die KI wären Männer dann per se die besseren Bewerber. Migrantinnen und Migranten, die benachteiligt wurden, wären die “schlechteren” Bewerber und würden weiter benachteiligt.

Vier-Augen-Prinzip zwischen Mensch und Maschine

Mit besseren Datensätzen und diverseren Entwicklerteams könnte also eine neutralere KI geschaffen werden. Aber eine komplett vorurteilsfreie KI ist nicht möglich, glaubt Keplinger. Da Menschen immer Vorurteile haben werden, werden auch KIs sie immer haben.

Deswegen, sagt Keplinger, dürfen wir einer künstlichen Intelligenz nicht blind vertrauen. Wo möglich, sollten Menschen Ergebnisse von künstlichen Intelligenzen prüfen, eine Art Vier-Augen-Prinzip zwischen Mensch und Maschine.

What is your reaction?

0
Excited
0
Happy
0
In Love
0
Not Sure
0
Silly

You may also like

Leave a reply