Die Soziologin Ruha Benjamin untersucht schon seit langem die Beziehung zwischen Technologie, Ungerechtigkeit und Macht. Sie teilt ihre Ansicht, dass wir darin eingreifen müssen, wie maschinelles Lernen funktioniert. Fachleute wie Benjamin warnen vor den Risiken der Verschärfung der Diskriminierung durch innovative Werkzeuge wie die künstliche Intelligenz, indem sie auf die Voreingenommenheit der menschlichen Eingaben und der Durchführung des maschinellen Lernens hinweisen.
Wollen Sie mehr über die Gefahren der KI und die Verbindung zur Diskriminierung erfahren? Dann klicken Sie weiter.
In der griechischen Sage von der Büchse der Pandora schuf Zeus Pandora, eine schöne Frau aus Ton, die mit Geschenken der Götter ausgestattet wurde.
Aphrodite gab ihre Schönheit, Athene ihre Weisheit und Hermes verlieh ihr Neugier. Pandora wurde als Geschenk an Epimetheus auf die Erde geschickt.
Epimetheus' Bruder, Prometheus, warnte vor Geschenken von Zeus. Dennoch war dieser von der Schönheit der Pandora verzaubert und nahm sie zu seiner Frau.
Pandora kam nicht allein auf die Erde. Zeus gab ihr eine Büchse und warnte sie davor, sie zu öffnen, da sie alles Böse der Welt enthielt.
Aber eines der Geschenke, das Pandora von den Göttern erhalten hatte, war die Neugier. Sie öffnete schließlich die Büchse und damit entkamen alle Übel, die darin waren, und veränderten die Menschheit für immer.
Als Pandora ihren Fehler bemerkte, schloss sie schnell die Büchse und hielt damit etwas im Inneren gefangen. Das war die Hoffnung.
Was hat aber nun die Sage von der Pandora mit der KI und ihren Risiken zu tun? Wir stehen derzeit kurz vor einigen riesigen technologischen Durchbrüchen, aber viele davon in Zusammenhang mit der KI basieren auf Spekulation.
KI ist auf viele Art und Weisen unsere zeitgenössische Version der Büchse der Pandora. Das heißt nicht, dass KI grundsätzlich böse oder gefährlich ist, sondern dass die Büchse trotz Warnungen von Fachleuten die Weiterentwicklung zu verlangsamen, um keine unbeabsichtigten Folgen in Kauf zu nehmen, geöffnet wurde.
Der Wettstreit darum, Innovationen und insbesondere die maschinelle Autonomie mit großer Geschwindigkeit voranzutreiben, setzt uns vielen Risiken und möglichen Lücken aus, besonders da die Technologie immer mehr zu unserem Alltag gehört.
Besonders Modelle maschinellen Lernens basieren häufig auf Datensätzen, um daraus zu lernen und Entscheidungsfindungsprozesse zu stärken.
KI-Systeme replizieren nicht nur die Voreingenommenheit, die in diesen Datensätzen vorhanden ist, sondern verstärken diese sogar noch.
So wurde festgestellt, dass Systeme zur Gesichtserkennung, wie sie von Staaten, Technologieunternehmen und Behörden eingesetzt werden, voreingenommen funktionieren.
Es wurde festgestellt, dass Gesichtserkennungssysteme in vielen Kontexten, in denen sie eingesetzt werden, rassistische Vorurteile annehmen, da sie unter der geringen Vielfalt der Datensätze leiden, mit denen sie trainiert wurden.
Die Nichtregierungsorganisation American Civil Liberties Union (ACLU) berichtete, dass Studien zeigen, dass die Fehlerrate bei Menschen mit hellerer Haut bei unter 1 % liegt.
Im Gegensatz dazu liegt die Fehlerrate bei Menschen mit einer dunkleren Hautfarbe bei fast 35 %. Ein in den USA durchgeführter Test zeigte, dass die Technologie weiße Männer im mittleren Alter am besten korrekt erkannte. Bei Menschen mit dunklerer Hautfarbe nahm die Genauigkeit deutlich ab.
In Ländern wie den USA, wo das Strafrechtssystem bereits jetzt überproportional stark marginalisierte Gruppen im Visier hat, ist diese Technologie besonders gefährlich.
Algorithmen, die das Rückgrat der meisten KI-Systeme bilden, können diese Diskriminierung sowohl aufgrund der eingegebenen Datensätze als auch ihrer Konzeption weiter verstärken.
Das Problem für viele Forschenden ist, dass KI-Systeme auf maschinellem Lernen basieren, was hinsichtlich dessen, wie Entscheidungen getroffen werden, besonders schwer nachzuvollziehen ist.
Diese Systeme basieren auf einem Mangel an Transparenz und daher ist es schwierig, genau herauszufinden, wo und wie die Diskriminierung stattfindet.
Daher ist es so schwierig, einzugreifen. KI wird in immer mehr institutionellen Entscheidungsprozessen unter anderem bei der Bewilligung von Krediten, in der Gesundheitsversorgung und Einstellungsverfahren eingesetzt.
In vielen dieser Kontexte sind marginalisierte Gruppen, insbesondere PoCs, bereits historisch gesehen Diskriminierung ausgesetzt gewesen.
Wenn nun noch KI in die Entscheidungsfindung aufgenommen wird, kann die Diskriminierung noch verschlimmert oder weitergetragen werden. So wird KI in der Gesundheitsversorgung zum Beispiel zur Empfehlung einer Behandlungsmethode eingesetzt.
Die empfohlenen Behandlungsmethoden könnten bei bestimmten Patientengruppen weniger wirksam sein, wenn aber im zugrunde liegenden Datensatz keine vielfältigen Informationen vorliegen, könnte das Modell sogar einen gänzlich unpassenden Ansatz vorschlagen.
Bei Kreditvergaben werden Algorithmen eingesetzt, um zu bestimmen, ob ein Kandidat geeignet ist.
Historisch gesehen bevorzugen die Praktiken bei der Kreditvergabe bestimmte Gruppen und diskriminieren andere, was im Vergabeprozess weitergeführt werden könnte.
Bestehende Vorurteile können weiter verstärkt werden, da die Systeme lernen, bestimmte Eigenschaften mit bestimmten Verhaltensweisen zu assoziieren.
Bei den Lernprozessen von KI-Systemen muss auf die Diversität und Repräsentation einer Gesellschaft geachtet werden, um sicherzustellen, dass die Voreingenommenheit, so gut es geht, verringert wird.
Quellen: (ACLU) (The Guardian) (‘Race After Technology’) (MIT Media Lab)
Das könnte Sie auch interessieren: Von ChatGPT bis selbstfahrende Autos: Die Auswirkungen der KI auf unser tägliches LebenDiskriminierung durch KI: Wie maschinelles Lernen Vorurteile verstärken kann
Die Gefahr gesellschaftliche Diskriminierung durch Technologie zu verstärken
LIFESTYLE Technologie
Die Soziologin Ruha Benjamin untersucht schon seit langem die Beziehung zwischen Technologie, Ungerechtigkeit und Macht. Sie teilt ihre Ansicht, dass wir darin eingreifen müssen, wie maschinelles Lernen funktioniert. Fachleute wie Benjamin warnen vor den Risiken der Verschärfung der Diskriminierung durch innovative Werkzeuge wie die künstliche Intelligenz, indem sie auf die Voreingenommenheit der menschlichen Eingaben und der Durchführung des maschinellen Lernens hinweisen.
Wollen Sie mehr über die Gefahren der KI und die Verbindung zur Diskriminierung erfahren? Dann klicken Sie weiter.