Textarchiv

Deep Unlearning 03/2025, Springerin

Das neue Tech-Patriarchat stattet sich mittels KI mit erheblicher Macht aus, den Gegenentwurf dazu kann nur eine intersektionale technofeministische Perspektive liefern. Ein Plädoyer

Schon in den frühen 1990er-Jahren fütterte die Wissenschaftlerin Alison Adam gemeinsam mit Kolleginnen feministisches Wissen in KI-Systeme, um herauszufinden, ob dadurch zum Beispiel bei der juristischen Anwendung von KI Fälle von race-, class- und gender-Diskriminierung vermieden werden könnten. Doch es blieb beim Experiment. Es fehlte an der ausreichenden Finanzierung, darüber hinaus kamen Widersprüche und Zweifel hinsichtlich der Frage auf, ob sich eine Technologie wie KI überhaupt „ethisch“ anwenden ließe. 1998 veröffentlichte Adam ihr Buch Artificial Knowing: Gender and the Thinking Machine. Darin untersuchte sie Zusammenhänge zwischen Gender und KI und warnte, dass der Technologie ein geschlechtsspezifisches Weltbild eingeschrieben sei, das wieder aus ihr „herausgeschrieben“ werden müsse. (1)

Adams’ Forschung fiel in die Zeit des „KI-Winters“. Heute, ein Vierteljahrhundert später, befinden wir uns mitten im KI-Sommer. Weltweit fließen Milliarden in Entwicklung und Infrastrukturen. KI-Anwendungen werden in atemberaubendem Tempo in allen Bereichen des Lebens implementiert. Der Mythos der Neutralität von Technologie hält sich hartnäckig. Dabei offenbart sich ihre ideologische Einbettung heute deutlicher denn je. Die Macht, die KI mit sich bringt, konzentriert sich in den Händen einer kleinen Gruppe weißer Männer, die ihr Weltbild in die Systeme einschreiben, die sie entwickeln. Und wir sind weit davon entfernt, es dort wieder herauszukriegen. Dabei gibt dieses Weltbild Anlass zu größter Sorge, handelt es sich doch um eine offen rassistische, kolonialistische, misogyne, queer- und transfeindliche, „ableistische“ Denkweise. Dies wusste man bereits vor Elon Musks Hitlergruß, nur hat letzterer gezeigt, wie weit die Normalisierung dieses Weltbildes bereits fortgeschritten ist.

In einem in der New York Times veröffentlichten Artikel attestierte Kate Crawford der KI schon 2016 ein „white guy problem“ (2). 2025 ist dieses ganz offenkundig zu einem „fascist white guy problem“ geworden. Crawford, eine der Gründer*innen des kritischen Think Tanks AI Now, gehört zu den wenigen Frauen*, die selbst erfolgreich in der Tech-Branche arbeiten. Ansonsten werden Frauen* und BiPoC systematisch aus dem Feld gedrängt. Dass das auch so bleiben wird, machte Meta-Chef Mark Zuckerberg gleich nach der Amtseinführung Donald Trumps im Januar dieses Jahres klar, als er die Programme für Chancengleichheit und Diversität strich. Wir sollten wieder mehr „maskuline Energie zulassen“ und ein wenig „aggressiver auftreten“ (3), empfahl er.

Die unsichtbare Arbeit im Feld der KI, beispielsweise das Data Labeling und Data Cleaning – notwendige Schritte beim Trainieren von Machine-Learning-Modellen – übernehmen zu einem großen Teil Frauen im oder aus dem Globalen Süden. Sie sind unterbezahlt und genießen keine Arbeitsrechte. Die lukrativen Jobs in der Entwicklung sind überproportional von weißen Männern besetzt. Sie haben eine Tech-Kultur etabliert, die für weiblich gelesene oder Trans-Personen so unattraktiv ist, dass diese selbst dann, wenn sie einen Job in einem der Unternehmen ergattert haben, häufig bald wieder aufhören. (4) Dass in diesem Umfeld rassistische, misogyne und anti-feministische Vorurteile in KI-Systeme einfließen, kann kaum überraschen. Entsprechende Strukturen werden so nicht nur reproduziert, sondern noch verstärkt. Und es liegen zahlreiche Beispiele vor, dass von solchen Vorurteilen geprägte Technologie Einfluss auf die Polizeiarbeit, juristische Entscheidungen oder die Vergabe von Sozialleistungen hat. (5)

OpenAI-CEO Sam Altman sagte kurz nach Trumps Amtseinführung und der darauffolgenden Ankündigung des milliardenschweren KI-Projekts „Stargate“, dass die strukturellen Veränderungen, die KI mit sich bringt, einen veränderten Gesellschaftsvertrag erforderten.6 Doch wie sollte dieser aussehen, in einer Welt, in der die Tech-Milliardäre aus dem Silicon Valley ihre Vision von Fortschritt durchsetzen und dabei eigentlich nur althergebrachte Strukturen verfestigen? Hinter der funkelnden Fassade der KI lebt die Logik des „Racial Capitalism“ (Cedric J. Robinson) fort, der auf einer Politik der Extraktion und Ausbeutung vor allem Schwarzer Körper basiert und eine kleine Gruppe weißer Männer extrem bereichert – eben jene, die nun ganz unverblümt ihre faschistische Ideologie implementieren, mit weitreichenden Folgen für unsere Gesellschaften und Demokratien.

Dabei ist der Datenkapitalismus nur eine Spielart des „Racial Capitalism“ (Cedric J. Robinson). Er basiert auf der Ausbeutung von Arbeitskraft im Hintergrund einer vermeintlichen „Automatisierung“ und der Extraktion von Ressourcen und Daten. Die Tech-Aktivistin Meredith Whittaker spricht treffend von einem „Toxic Paradigm“, das unsere Gegenwart fest im Griff hat. (7) KI in ihrer gegenwärtigen Form hat die in diesem Paradigma tonangebende strukturelle und epistemische Gewalt gut eingelernt – weswegen es höchste Zeit für ein „Deep Unlearning“ ist oder eine intersektionale technofeministische Perspektive, wie Adams und viele andere sie skizziert haben.

Eine solche Perspektive verfolgt zum Beispiel auch Sophie Toupin. Sie forscht an der Schnittstelle von Technologie, Feminismus und Aktivismus und hat vergangenes Jahr eine Mikrogeschichte rund um den Begriff „Feminist Artifical Intelligence“ (FAI) veröffentlicht. Darin geht sie auf Adams’ Forschung sowie auf jüngere Ansätze wie den Data Feminism von Catherine D’Ignazio und Lauren Klein ein, die den Versuch unternehmen, eine neue Datenethik zu entwerfen. Darüber hinaus stellt sie Beispiele aus der Praxis vor, etwa feministisch programmierte Chatbots oder Apps. (8)

Rund um das, was Toupin unter dem Begriff der FAI zusammenfasst, existiert ein großer diskursiver Apparat, dessen Autor*innen aus einem reichhaltigen philosophischen Fundus schöpfen – von Donna Haraway bis Bruno Latour, von bell hooks bis Karen Barad. Hinzu kommen zahlreiche Projekte an der Schnittstelle von Technologie, Aktivismus und Kunst, wozu auch feministische Hacking Spaces zählen. (9) Ein wichtiges Vorbild für viele davon ist die in den späten 1990er-Jahren in Erscheinung getretene cyberfeministische Allianz des „Old Boys Network“, zu deren Vordenkerinnen Cornelia Sollfrank und Yvonne Volkert zählten. Doch werden diese Ansätze und das gesamte Diskursfeld der FAI stets nur an den Rändern der Kulturkritik verhandelt. In einer Gegenwart, in der sich neue Autoritätsgefüge ganz wesentlich durch Technologien wie KI entfalten, sollten Publikationen wie Adams’ Artificial Knowing jedoch zur Pflichtlektüre werden. Das neue Tech-Patriarchat stattet sich mittels KI gerade mit erheblicher Macht aus. Einen Gegenentwurf dazu kann nur eine intersektionale technofeministische Perspektive liefern.

 

1 Alison Adam, Artificial Knowing: Gender and the Thinking Machine. Routledge 1998.

2 Artificial Intelligence’s White Guy Problem, in: The New York Times, 25.6.2016, https://www.nytimes.com/2016/06/26/opinion/sunday/artificial-intelligences-white-guy-problem.html

3 Mark Zuckerberg wants more ‚masculine energy‘ and less diversity policy, in: Le Monde, 4.2.2025, https://www.lemonde.fr/en/economy/article/2025/01/12/mark-zuckerberg-wants-more-masculine-energy-and-less-diversity-policy_6736961_19.html

4 Vgl. Judy Wajcman/Erin Young, Feminism Confronts AI: The Gender Relations of Digitalisation, in: Jude Browne at al. (Hg.), Feminist AI: Critical Perspectives on Algorithms, Data, and Intelligent Machines. Oxford University Press 2023.

5 Vgl. Ruha Benjamin, Race After Technology: Abolitionist Tools for the New Jim Code. Polity Press 2019.

6 The Problem With Sam Altman Suggesting to Change the Social Contract, in: The Wire, 3.2.2025, https://thewire.in/tech/the-problem-with-sam-altman-suggesting-to-change-the-social-contract

7 Meredith Whittaker on AI, Tech Power and Surveillance. Gespräch mit Anna Katsman und Thomas Gegenhuber, The New Institute, 2024, https://thenew.institute/en/media/meredith-whittaker-on-ai-tech-power-and-surveillance. Vgl. auch Yannick Fritz, Intelligenz als Machtkonzentration, in: springerin 1/2024, englische Version auf https://www.springerin.at/en/2024/1/intelligenz-als-machtkonzentration/

8 Sophie Toupin, Shaping feminist artificial intelligence, in: New Media & Society, Vol. 26, Heft 1, Januar 2024, S. 580–595, https://journals.sagepub.com/doi/epub/10.1177/14614448221150776

9 Vgl. www.feministhacking.org