Technologie | Feminismus

Künstliche Intelligenz und ihre Vorurteile

Dass Algorithmen häufig gesellschaftliche Vorurteile verstärken ist bekannt, doch was lässt sich dagegen tun? Wissenschaftlerin Alex D. Ketchum blickt als Feministin auf das Thema

Interview von Atifa Qazi

Frau Ketchum, wie sexistisch ist die heutige KI-Szene?

Es gibt viele Untersuchungen von Wissenschaftler:innen, Aktivist:innen und Künstler:innen, die aufzeigen, dass die Datensätze, mit denen KI-Systeme arbeiten, ziemlich sexistisch, rassistisch, homophob und transphob sind. Ableismus und Klassismus spielen auch eine wichtige Rolle. Aber die Inhalte der Datensätze sind nur ein Problem. Das andere ist: Die Personen, die im KI-Bereich arbeiten, sind besonders oft weiß, cis, männlich und heterosexuell. Das führt dazu, dass die wenigen Kolleg:innen, die diese Kriterien nicht erfüllen, am Arbeitsplatz sexueller Belästigung oder rassistischen Bemerkungen ausgesetzt sind.

Trainingsdaten werden oft in einem Kontext erhoben und verarbeitet, in dem von einer binären Geschlechterordnung ausgegangen wird

Was bedeutet das für die Technologien, die wir benutzen?

Ein Beispiel: In Nordamerika verwenden viele Arbeitgeber:innen automatisierte Systeme zum Filtern von Lebensläufen, unter anderem auch Amazon. Deren KI-Rekrutierungstool hatte jedoch einen schwerwiegenden Fehler: Wenn im Lebenslauf angegeben war, dass die Bewerbung von einer Frau kam, lehnte das System sie automatisch ab – und zwar einfach nur deshalb, weil es auf die Lebensläufe der aktuellen Mitarbeiter trainiert worden war, die mehrheitlich männlich waren. Daher wurden unbeabsichtigt Männer bevorzugt. Schließlich verzichtete Amazon auf den Einsatz des Systems.

Darüber hinaus sind in den Datensätzen, die für KI-Tools im Gesundheitswesen Verwendung finden, bestimmte Gruppen oft unterrepräsentiert. So sind aktuelle Technologien zur Erkennung bestimmter Hautkrebsarten vor allem mit Informationen zu weißen Menschen trainiert und funktionieren nicht gut bei dunkleren Hauttönen. Außerdem werden Trainingsdaten oft in einem Kontext erhoben und verarbeitet, in dem von einer binären Geschlechterordnung ausgegangen wird. Wissenschaftler:innen wie Morgan Klaus Scheuerman und Sasha Costanza-Chock haben gezeigt, dass das negative Folgen für transsexuelle, nicht-binäre und queere Menschen hat.

Da der Diskurs von weißen, heterosexuellen Männern dominiert wird, wollen wir sicherstellen, dass auch andere Sichtweisen gehört werden.

Diese Probleme sind ja seit längerem bekannt, hat es in letzter Zeit Fortschritte gegeben?

Zwischen 2019 und 2021 haben sich viele große Unternehmen mit KI-Ethik befasst, insbesondere als Reaktion auf die Black-Lives-Matter-Bewegung und die Arbeit von einflussreichen Informatikerinnen wie Joy Buolamwini und Timnit Gebru, die Rassismus und geschlechtsspezifische Vorurteile kritisieren. Viele dieser Unternehmen haben sogar eigene Ethik-Abteilungen für Künstliche Intelligenz ins Leben gerufen.

Timnit Gebru etwa war Co-Leiterin des Ethik-Teams für KI bei Google. Als sie jedoch über die negativen – ethischen und ökologischen – Auswirkungen schrieb, die die Anwendung von Künstlicher Intelligenz bei Google verursachte, reagierte die Firma äußerst ablehnend und trennte sich von Gebru. Was soll sich denn ändern, wenn man nicht auf diese Experten hört?

Viele Menschen nutzen zum Beispiel ChatGPT und denken dabei gar nicht an den ökologischen Fußabdruck der Technologie

Sie sind die Leiterin des Just Feminist Tech and Scholarship Lab. Wie gehen Sie diese Themen an?

Wir organisieren unter anderem eine Veranstaltungsreihe unter dem Titel Disrupting Disruptions. Da diskutieren Wissenschaftler:innen, Kreative, Studierende und Aktivist:innen, wie gerechte, feministische Technologie und Wissenschaft aussehen könnten.

Manchen Aktivist:innen geht es darum, das Bewusstsein dafür zu schärfen, dass die Anwendung von Künstlicher Intelligenz Folgen für die Umwelt hat. Viele Menschen nutzen zum Beispiel ChatGPT und denken dabei gar nicht an den ökologischen Fußabdruck der Technologie. Andere Vortragende legen den Fokus darauf, die Daten von Indigenen zu schützen. Peter Lucas Jones und Keoni Mahelona arbeiten zum Beispiel mit Angehörigen der Māori zusammen, um die Erhaltung ihrer Sprache mithilfe Künstlicher Intelligenz zu gewährleisten.

Bei meiner eigenen Tätigkeit geht es darum, Menschen eine Stimme zu geben, die in der KI-Gemeinschaft oft nicht gehört werden: Frauen, People of Color , queere Menschen oder Menschen mit Behinderungen. Da der Diskurs auf diesem Feld von weißen, heterosexuellen Männern dominiert wird, wollen wir sicherstellen, dass auch andere Sichtweisen gehört werden.

Der Feminismus bietet einen Rahmen dafür, geschlechts-, herkunfts- und klassenbezogene Dynamiken zu beleuchten

Welche Anwendungen Künstlicher Intelligenz sind Ihrer Meinung nach nicht mit einem feministischen Ansatz vereinbar?

Es gibt eine Bewegung namens „Tech won't build it“. Darin engagieren sich Menschen, die für Unternehmen wie Google diverse Technologien entwickelt hatten. Einige davon wussten zum Beispiel nicht, dass Google ohne ihre Zustimmung Verträge mit Anbietern im Rüstungssektor abgeschlossen hatte. Dies zeigt, dass selbst Technologien, die ursprünglich für harmlose Anwendungsgebiete entwickelt wurden, zweckentfremdet oder in unvorhergesehener Weise zum Einsatz kommen können, zum Beispiel um Menschen noch effizienter zu töten. Das ist meines Erachtens nicht mit feministischen Werten vereinbar.

Wie kann es angesichts der erheblichen Umweltbelastung, die Künstliche Intelligenz immer mit sich bringt, überhaupt so etwas wie einen feministischen Ansatz auf diesem Gebiet geben?

Der Bereich der KI hat enorme Auswirkungen auf die Umwelt, etwa wenn man an die immensen Wassermengen denkt, die nötig sind, um Rechenzentren zu kühlen oder Rohstoffe für Mikroprozessoren abzubauen. Ähnlich problematisch ist das Thema Arbeitsbedingungen, da sich so viele neue Möglichkeiten ergeben, Angestellte auszubeuten. Ich bin sehr besorgt darüber.

Aus meiner Sicht ist das, was wir in KI-Systemen sehen, keine Intelligenz, sondern im Grunde Mathematik

Es gibt jedoch Möglichkeiten, die Schäden in Grenzen zu halten. So spielt etwa der Standort von Rechenzentren eine große Rolle. Wenn sie in kälteren Klimazonen stehen, benötigen sie weniger Kühlwasser. Meiner Meinung nach sind dies wichtige Fragen, und hier kommt der Feminismus ins Spiel. Er bietet uns einige Instrumente, um derartige Herausforderungen zu bewältigen. Der Feminismus bietet einen Rahmen dafür, Machtverhältnisse zu analysieren und geschlechts-, herkunfts- und klassenbezogene Dynamiken zu beleuchten, wenn es um Arbeitsbedingungen oder Ressourcengewinnung geht.

Kann man diese Probleme angehen, während die Entwicklung von Künstlicher Intelligenz fortgesetzt wird? Oder besteht die Lösung darin, ganz darauf zu verzichten?

Aus meiner Sicht ist das, was wir in KI-Systemen sehen, keine Intelligenz, sondern im Grunde Mathematik. Ein großer Teil der feministischen Wissenschaft versucht, verschiedene Arten von Wissen wertzuschätzen und zum Beispiel auch Körperwissen oder Wissen aus Lebenserfahrungen einzubeziehen. Und es geht immer auch darum, Hierarchien abzubauen.

Ich plädiere dafür, alles zu verlangsamen und nicht Tools einzuführen, ohne vorher ihre Auswirkung auf das Leben der Menschen untersucht zu haben

Die amerikanische Informatikerin Caroline Sinders zum Beispiel hat ein feministisches Datensatzprojekt ins Leben gerufen, das jeden Schritt des KI-Prozesses hinterfragt, von der Datenerfassung über die Datenbeschriftung und das Datentraining bis hin zur Auswahl des Algorithmus und des algorithmischen Modells. Teil dieses Ansatzes ist auch, die Angestellten mit einer existenzsichernden Bezahlung zu entlohnen, anstatt sie auszubeuten.

Ich würde dafür plädieren, alles zu verlangsamen und nicht einfach Tools einzuführen, ohne vorher zu untersuchen, wie sie sich auf das Leben der Menschen auswirken könnten. Zum Glück gibt es Künstlerinnen wie Stephanie Dinkins und Suzanne Kite, die sich mit Künstlicher Intelligenz beschäftigen und fragen, wie wir solche Systeme zu unseren Verbündeten machen können.

Aus dem Englischen von Caroline Härdter. Das Interview führte Atifa Qazi im Rahmen des Transatlantic Fellowships der Heinrich-Böll Stiftung.