Diskriminierung durch KI: Wie maschinelles Lernen Vorurteile verstärken kann

Die Gefahr gesellschaftliche Diskriminierung durch Technologie zu verstärken

Diskriminierung durch KI: Wie maschinelles Lernen Vorurteile verstärken kann
Stars Insider

13/03/25 | StarsInsider

LIFESTYLE Technologie

Die Soziologin Ruha Benjamin untersucht schon seit langem die Beziehung zwischen Technologie, Ungerechtigkeit und Macht. Sie teilt ihre Ansicht, dass wir darin eingreifen müssen, wie maschinelles Lernen funktioniert. Fachleute wie Benjamin warnen vor den Risiken der Verschärfung der Diskriminierung durch innovative Werkzeuge wie die künstliche Intelligenz, indem sie auf die Voreingenommenheit der menschlichen Eingaben und der Durchführung des maschinellen Lernens hinweisen.

Wollen Sie mehr über die Gefahren der KI und die Verbindung zur Diskriminierung erfahren? Dann klicken Sie weiter.

Nutzung einer Analogie zur Erklärung der Gefahren von KI
2/28 photos © Getty Images

Nutzung einer Analogie zur Erklärung der Gefahren von KI

In der griechischen Sage von der Büchse der Pandora schuf Zeus Pandora, eine schöne Frau aus Ton, die mit Geschenken der Götter ausgestattet wurde.

Geschenke der Götter
3/28 photos © Getty Images

Geschenke der Götter

Aphrodite gab ihre Schönheit, Athene ihre Weisheit und Hermes verlieh ihr Neugier. Pandora wurde als Geschenk an Epimetheus auf die Erde geschickt.

Pandora wird Epimetheus' Frau
4/28 photos © Getty Images

Pandora wird Epimetheus' Frau

Epimetheus' Bruder, Prometheus, warnte vor Geschenken von Zeus. Dennoch war dieser von der Schönheit der Pandora verzaubert und nahm sie zu seiner Frau.

Die Büchse der Pandora
5/28 photos © Getty Images

Die Büchse der Pandora

Pandora kam nicht allein auf die Erde. Zeus gab ihr eine Büchse und warnte sie davor, sie zu öffnen, da sie alles Böse der Welt enthielt.

Die Menschheit wurde für immer verändert
6/28 photos © Getty Images

Die Menschheit wurde für immer verändert

Aber eines der Geschenke, das Pandora von den Göttern erhalten hatte, war die Neugier. Sie öffnete schließlich die Büchse und damit entkamen alle Übel, die darin waren, und veränderten die Menschheit für immer.

Eines bleibt in der Büchse
7/28 photos © Getty Images

Eines bleibt in der Büchse

Als Pandora ihren Fehler bemerkte, schloss sie schnell die Büchse und hielt damit etwas im Inneren gefangen. Das war die Hoffnung.

Die Büchse der Pandora und die KI
8/28 photos © Getty Images

Die Büchse der Pandora und die KI

Was hat aber nun die Sage von der Pandora mit der KI und ihren Risiken zu tun? Wir stehen derzeit kurz vor einigen riesigen technologischen Durchbrüchen, aber viele davon in Zusammenhang mit der KI basieren auf Spekulation.

KI: die zeitgenössische Version der Büchse der Pandora
9/28 photos © Getty Images

KI: die zeitgenössische Version der Büchse der Pandora

KI ist auf viele Art und Weisen unsere zeitgenössische Version der Büchse der Pandora. Das heißt nicht, dass KI grundsätzlich böse oder gefährlich ist, sondern dass die Büchse trotz Warnungen von Fachleuten die Weiterentwicklung zu verlangsamen, um keine unbeabsichtigten Folgen in Kauf zu nehmen, geöffnet wurde.

Vorantreiben der Innovation
10/28 photos © Getty Images

Vorantreiben der Innovation

Der Wettstreit darum, Innovationen und insbesondere die maschinelle Autonomie mit großer Geschwindigkeit voranzutreiben, setzt uns vielen Risiken und möglichen Lücken aus, besonders da die Technologie immer mehr zu unserem Alltag gehört.

Datensätze
11/28 photos © Getty Images

Datensätze

Besonders Modelle maschinellen Lernens basieren häufig auf Datensätzen, um daraus zu lernen und Entscheidungsfindungsprozesse zu stärken.

Verstärkung von Voreingenommenheit
12/28 photos © Getty Images

Verstärkung von Voreingenommenheit

KI-Systeme replizieren nicht nur die Voreingenommenheit, die in diesen Datensätzen vorhanden ist, sondern verstärken diese sogar noch.

Gesichtserkennung
13/28 photos © Getty Images

Gesichtserkennung

So wurde festgestellt, dass Systeme zur Gesichtserkennung, wie sie von Staaten, Technologieunternehmen und Behörden eingesetzt werden, voreingenommen funktionieren.

Mangelnde Vielfalt
14/28 photos © Getty Images

Mangelnde Vielfalt

Es wurde festgestellt, dass Gesichtserkennungssysteme in vielen Kontexten, in denen sie eingesetzt werden, rassistische Vorurteile annehmen, da sie unter der geringen Vielfalt der Datensätze leiden, mit denen sie trainiert wurden.

Unterschied in der Genauigkeit
15/28 photos © Getty Images

Unterschied in der Genauigkeit

Die Nichtregierungsorganisation American Civil Liberties Union (ACLU) berichtete, dass Studien zeigen, dass die Fehlerrate bei Menschen mit hellerer Haut bei unter 1 % liegt.

Fehler der Technologie
16/28 photos © Getty Images

Fehler der Technologie

Im Gegensatz dazu liegt die Fehlerrate bei Menschen mit einer dunkleren Hautfarbe bei fast 35 %. Ein in den USA durchgeführter Test zeigte, dass die Technologie weiße Männer im mittleren Alter am besten korrekt erkannte. Bei Menschen mit dunklerer Hautfarbe nahm die Genauigkeit deutlich ab.

Strafrechtssystem
17/28 photos © Getty Images

Strafrechtssystem

In Ländern wie den USA, wo das Strafrechtssystem bereits jetzt überproportional stark marginalisierte Gruppen im Visier hat, ist diese Technologie besonders gefährlich.

Voreingenommenheit des Algorithmus
18/28 photos © Getty Images

Voreingenommenheit des Algorithmus

Algorithmen, die das Rückgrat der meisten KI-Systeme bilden, können diese Diskriminierung sowohl aufgrund der eingegebenen Datensätze als auch ihrer Konzeption weiter verstärken.

Entscheidungsfindungsprozesse
19/28 photos © Getty Images

Entscheidungsfindungsprozesse

Das Problem für viele Forschenden ist, dass KI-Systeme auf maschinellem Lernen basieren, was hinsichtlich dessen, wie Entscheidungen getroffen werden, besonders schwer nachzuvollziehen ist.

Transparenz
20/28 photos © Getty Images

Transparenz

Diese Systeme basieren auf einem Mangel an Transparenz und daher ist es schwierig, genau herauszufinden, wo und wie die Diskriminierung stattfindet.

Schwieriger Eingriff
21/28 photos © Getty Images

Schwieriger Eingriff

Daher ist es so schwierig, einzugreifen. KI wird in immer mehr institutionellen Entscheidungsprozessen unter anderem bei der Bewilligung von Krediten, in der Gesundheitsversorgung und Einstellungsverfahren eingesetzt.

Diskriminierung
22/28 photos © Getty Images

Diskriminierung

In vielen dieser Kontexte sind marginalisierte Gruppen, insbesondere PoCs, bereits historisch gesehen Diskriminierung ausgesetzt gewesen.

Gesundheitsversorgung
23/28 photos © Getty Images

Gesundheitsversorgung

Wenn nun noch KI in die Entscheidungsfindung aufgenommen wird, kann die Diskriminierung noch verschlimmert oder weitergetragen werden. So wird KI in der Gesundheitsversorgung zum Beispiel zur Empfehlung einer Behandlungsmethode eingesetzt.

Informationsvielfalt
24/28 photos © Getty Images

Informationsvielfalt

Die empfohlenen Behandlungsmethoden könnten bei bestimmten Patientengruppen weniger wirksam sein, wenn aber im zugrunde liegenden Datensatz keine vielfältigen Informationen vorliegen, könnte das Modell sogar einen gänzlich unpassenden Ansatz vorschlagen.

Kredite
25/28 photos © Getty Images

Kredite

Bei Kreditvergaben werden Algorithmen eingesetzt, um zu bestimmen, ob ein Kandidat geeignet ist.

Praktiken bei der Kreditvergabe
26/28 photos © Getty Images

Praktiken bei der Kreditvergabe

Historisch gesehen bevorzugen die Praktiken bei der Kreditvergabe bestimmte Gruppen und diskriminieren andere, was im Vergabeprozess weitergeführt werden könnte.

Vorurteile
27/28 photos © Getty Images

Vorurteile

Bestehende Vorurteile können weiter verstärkt werden, da die Systeme lernen, bestimmte Eigenschaften mit bestimmten Verhaltensweisen zu assoziieren.

Divers und repräsentativ
28/28 photos © Getty Images

Divers und repräsentativ

Bei den Lernprozessen von KI-Systemen muss auf die Diversität und Repräsentation einer Gesellschaft geachtet werden, um sicherzustellen, dass die Voreingenommenheit, so gut es geht, verringert wird.

Quellen: (ACLU) (The Guardian) (‘Race After Technology’) (MIT Media Lab)

Das könnte Sie auch interessieren: Von ChatGPT bis selbstfahrende Autos: Die Auswirkungen der KI auf unser tägliches Leben
Campo obrigatório

Verpasse nichts...


Die neuesten TV-Shows, Filme, Musik und exklusive Inhalte aus der Unterhaltungsindustrie!

Ich erkläre mich mit den AGB und Datenschutzvereinbarungen einverstanden.
Gerne möchte ich exklusive Angebote weiterer Partner erhalten (Werbung)

Eine Abmeldung ist jederzeit möglich
Danke fürs Abonnieren