Diskriminierung durch KI: Wie maschinelles Lernen Vorurteile verstärken kann
Die Gefahr gesellschaftliche Diskriminierung durch Technologie zu verstärken

© Getty Images

LIFESTYLE Technologie
Die Soziologin Ruha Benjamin untersucht schon seit langem die Beziehung zwischen Technologie, Ungerechtigkeit und Macht. Sie teilt ihre Ansicht, dass wir darin eingreifen müssen, wie maschinelles Lernen funktioniert. Fachleute wie Benjamin warnen vor den Risiken der Verschärfung der Diskriminierung durch innovative Werkzeuge wie die künstliche Intelligenz, indem sie auf die Voreingenommenheit der menschlichen Eingaben und der Durchführung des maschinellen Lernens hinweisen.
Wollen Sie mehr über die Gefahren der KI und die Verbindung zur Diskriminierung erfahren? Dann klicken Sie weiter.

Nutzung einer Analogie zur Erklärung der Gefahren von KI
In der griechischen Sage von der Büchse der Pandora schuf Zeus Pandora, eine schöne Frau aus Ton, die mit Geschenken der Götter ausgestattet wurde.

Geschenke der Götter
Aphrodite gab ihre Schönheit, Athene ihre Weisheit und Hermes verlieh ihr Neugier. Pandora wurde als Geschenk an Epimetheus auf die Erde geschickt.

Pandora wird Epimetheus' Frau
Epimetheus' Bruder, Prometheus, warnte vor Geschenken von Zeus. Dennoch war dieser von der Schönheit der Pandora verzaubert und nahm sie zu seiner Frau.

Die Büchse der Pandora
Pandora kam nicht allein auf die Erde. Zeus gab ihr eine Büchse und warnte sie davor, sie zu öffnen, da sie alles Böse der Welt enthielt.

Die Menschheit wurde für immer verändert
Aber eines der Geschenke, das Pandora von den Göttern erhalten hatte, war die Neugier. Sie öffnete schließlich die Büchse und damit entkamen alle Übel, die darin waren, und veränderten die Menschheit für immer.

Eines bleibt in der Büchse
Als Pandora ihren Fehler bemerkte, schloss sie schnell die Büchse und hielt damit etwas im Inneren gefangen. Das war die Hoffnung.

Die Büchse der Pandora und die KI
Was hat aber nun die Sage von der Pandora mit der KI und ihren Risiken zu tun? Wir stehen derzeit kurz vor einigen riesigen technologischen Durchbrüchen, aber viele davon in Zusammenhang mit der KI basieren auf Spekulation.

KI: die zeitgenössische Version der Büchse der Pandora
KI ist auf viele Art und Weisen unsere zeitgenössische Version der Büchse der Pandora. Das heißt nicht, dass KI grundsätzlich böse oder gefährlich ist, sondern dass die Büchse trotz Warnungen von Fachleuten die Weiterentwicklung zu verlangsamen, um keine unbeabsichtigten Folgen in Kauf zu nehmen, geöffnet wurde.

Vorantreiben der Innovation
Der Wettstreit darum, Innovationen und insbesondere die maschinelle Autonomie mit großer Geschwindigkeit voranzutreiben, setzt uns vielen Risiken und möglichen Lücken aus, besonders da die Technologie immer mehr zu unserem Alltag gehört.

Datensätze
Besonders Modelle maschinellen Lernens basieren häufig auf Datensätzen, um daraus zu lernen und Entscheidungsfindungsprozesse zu stärken.

Verstärkung von Voreingenommenheit
KI-Systeme replizieren nicht nur die Voreingenommenheit, die in diesen Datensätzen vorhanden ist, sondern verstärken diese sogar noch.

Gesichtserkennung
So wurde festgestellt, dass Systeme zur Gesichtserkennung, wie sie von Staaten, Technologieunternehmen und Behörden eingesetzt werden, voreingenommen funktionieren.

Mangelnde Vielfalt
Es wurde festgestellt, dass Gesichtserkennungssysteme in vielen Kontexten, in denen sie eingesetzt werden, rassistische Vorurteile annehmen, da sie unter der geringen Vielfalt der Datensätze leiden, mit denen sie trainiert wurden.

Unterschied in der Genauigkeit
Die Nichtregierungsorganisation American Civil Liberties Union (ACLU) berichtete, dass Studien zeigen, dass die Fehlerrate bei Menschen mit hellerer Haut bei unter 1 % liegt.

Fehler der Technologie
Im Gegensatz dazu liegt die Fehlerrate bei Menschen mit einer dunkleren Hautfarbe bei fast 35 %. Ein in den USA durchgeführter Test zeigte, dass die Technologie weiße Männer im mittleren Alter am besten korrekt erkannte. Bei Menschen mit dunklerer Hautfarbe nahm die Genauigkeit deutlich ab.

Strafrechtssystem
In Ländern wie den USA, wo das Strafrechtssystem bereits jetzt überproportional stark marginalisierte Gruppen im Visier hat, ist diese Technologie besonders gefährlich.

Voreingenommenheit des Algorithmus
Algorithmen, die das Rückgrat der meisten KI-Systeme bilden, können diese Diskriminierung sowohl aufgrund der eingegebenen Datensätze als auch ihrer Konzeption weiter verstärken.

Entscheidungsfindungsprozesse
Das Problem für viele Forschenden ist, dass KI-Systeme auf maschinellem Lernen basieren, was hinsichtlich dessen, wie Entscheidungen getroffen werden, besonders schwer nachzuvollziehen ist.

Transparenz
Diese Systeme basieren auf einem Mangel an Transparenz und daher ist es schwierig, genau herauszufinden, wo und wie die Diskriminierung stattfindet.

Schwieriger Eingriff
Daher ist es so schwierig, einzugreifen. KI wird in immer mehr institutionellen Entscheidungsprozessen unter anderem bei der Bewilligung von Krediten, in der Gesundheitsversorgung und Einstellungsverfahren eingesetzt.

Diskriminierung
In vielen dieser Kontexte sind marginalisierte Gruppen, insbesondere PoCs, bereits historisch gesehen Diskriminierung ausgesetzt gewesen.

Gesundheitsversorgung
Wenn nun noch KI in die Entscheidungsfindung aufgenommen wird, kann die Diskriminierung noch verschlimmert oder weitergetragen werden. So wird KI in der Gesundheitsversorgung zum Beispiel zur Empfehlung einer Behandlungsmethode eingesetzt.

Informationsvielfalt
Die empfohlenen Behandlungsmethoden könnten bei bestimmten Patientengruppen weniger wirksam sein, wenn aber im zugrunde liegenden Datensatz keine vielfältigen Informationen vorliegen, könnte das Modell sogar einen gänzlich unpassenden Ansatz vorschlagen.

Kredite
Bei Kreditvergaben werden Algorithmen eingesetzt, um zu bestimmen, ob ein Kandidat geeignet ist.

Praktiken bei der Kreditvergabe
Historisch gesehen bevorzugen die Praktiken bei der Kreditvergabe bestimmte Gruppen und diskriminieren andere, was im Vergabeprozess weitergeführt werden könnte.

Vorurteile
Bestehende Vorurteile können weiter verstärkt werden, da die Systeme lernen, bestimmte Eigenschaften mit bestimmten Verhaltensweisen zu assoziieren.

Divers und repräsentativ
Bei den Lernprozessen von KI-Systemen muss auf die Diversität und Repräsentation einer Gesellschaft geachtet werden, um sicherzustellen, dass die Voreingenommenheit, so gut es geht, verringert wird.
Quellen: (ACLU) (The Guardian) (‘Race After Technology’) (MIT Media Lab)
Das könnte Sie auch interessieren: Von ChatGPT bis selbstfahrende Autos: Die Auswirkungen der KI auf unser tägliches Leben