facebook-likehamburgerlupeoverview_iconoverviewplusslider-arrow-downslider-arrow-leftslider-arrow-righttwitter

Bild: Gemma Chua-Tran, Michael Dziedzic

Ist künstliche Intelligenz frauenfeindlich?

Es war eine Frau, die 1843 das erste Computerprogramm der Welt schrieb. Lange nach Ada Lovelaces Algorithmus und vielen rasanten technologischen Fortschritten offenbaren sich heute in der männerdominierten Tech-Branche oftmals vorprogrammierte Verzerrungen und Vorurteile in Codes.

Eins vorneweg: Ich gehe als Frau durch diese Welt und befasse mich seit einiger Zeit mit strukturellem Feminismus, ich erlebe und weiß also, dass unsere Welt von Männern für Männer designt wurde – auch wenn diese das gern als böses feministisches Narrativ abwinken. Und dennoch: Wie krass auch die digitale Welt – eben dieses junge, schnelle und moderne, aus I und 0 gezimmerte Paralleluniversum – Vorurteile und veraltete Rollenzuschreibungen in sich trägt, wurde mir erst im Laufe meiner Recherche für die Doku „Programmierte Ungerechtigkeit“ so richtig klar. Um ehrlich zu sein: Meine Co-Autorin des Films, Lena Nagel, und ich haben uns doch immer wieder dabei ertappt, wie blind unser Vertrauen in die Neutralität von Technik an manchen Stellen war. Ja, es ist frustrierend zu checken, wie sehr das Patriarchat auch digital zuschlägt.

Aber von vorne: Die schlimmen Schlagzeilen kommen meist aus den USA oder aus China. Über Gesichtserkennungs-Apps, die Schwarze Menschen weniger gut erkennen und damit rassistische Stereotype reproduzieren. Über algorithmische Vorverurteilungen, die sogar ins Rechtssystem einflossen. Über algorithmische Überwachung. Gruselige Entwicklungen, aber weit weg von unserer Realität, könnte man meinen. Wie sehr beeinflussen hier im Land der schleppenden Digitalisierung, in Deutschland, Algorithmen unseren Alltag denn schon?

Mehr als den meisten bewusst ist: Automatische Entscheidungssysteme sind in unser aller Alltag – im Bewerbungsverfahren, bei der Wohnungssuche, beim Dating oder der Kreditvergabe. Kurzum: Wer sich im Internet bewegt, trifft auf Künstliche Intelligenz. Und die bringt in Bezug auf Gleichberechtigung und Diversität nicht nur Chancen, sondern auch viele Gefahren: „Ich glaube, es ist noch nicht vollkommen klar, wie wichtig das Thema ist. Es gibt keine Situation, wo man einen neutralen Datensatz bekommt. Einen neutralen Datensatz gibt es nur in einer perfekten Welt“, sagt Sandra Wachter. Sie ist Juristin und Professorin am Oxford Internet Institute an der University of Oxford. Sie beschäftigt sich mit den rechtlichen und ethischen Auswirkungen von neuen Technologien und im Speziellen mit Künstlicher Intelligenz und Machine Learning. Wachter sagt, dass Algorithmen ein zweischneidiges Schwert seien, dass sie natürlich für gute Dinge eingesetzt werden können, „aber leider ist es eben auch so, dass sie bereits existierende Ungerechtigkeiten in unserer Gesellschaft erweitern können.“

Wenn Technik diskriminiert: Gesichtserkennungs-Apps, die Schwarze Menschen weniger gut erkennen und damit rassistische Stereotype reproduzieren, zeigen, dass künstliche Intelligenz alles andere als neutral ist. Bild: Programmierte Ungerechtigkeit, ZDF Film von Edith Löhle & Lena Nagel

Wenn Vorurteile ins Digitale übernommen und festgeschrieben werden

Algorithmen sind von Menschen programmiert, sie spiegeln die Vorurteile der Programmierer:innen wider. Eine große Rolle spielt also, wer die KI programmiert, welches Weltbild diese Person hat und vor allem aber, mit welchen Datensets sie das System füttert. Nur knapp über 20 % Frauen arbeiten weltweit laut „Forbes“ im Zusammenhang mit Künstlicher Intelligenz. 2020 lag der Frauenanteil in der IT-Branche in Deutschland bei 17,5 %, der Rest ist männlich besetzt. Laut dem Paper „Discriminating Systems: Gender, Race, and Power in AI” der New York University ist 15 % des KI-Forschungspersonals bei Facebook und nur 10 % bei Google weiblich. Das Problem der fehlenden Vielfalt betrifft aber bei Weitem nicht nur Frauen. Es geht um Geschlecht, Ethnie und sexuelle Orientierung – und am Ende um Macht, denn diejenigen, die KI-Systeme entwickeln, sind nicht diejenigen, die von ihrer Diskriminierung betroffen sind: Zum Beispiel sind laut New York University 2,5 % der Google-Belegschaft Schwarz, während People of Colour bei Facebook und Microsoft jeweils 4 % ausmachen. Insgesamt ist die Zahlenlage aber dünn, so gibt es keine Daten über queere Arbeitnehmer:innen oder andere Minderheiten.

Tech muss diverser sein, um für alle zu funktionieren

Klar ist aber: Durch fehlende Diversity in der Tech-Entwicklung entstehen – wenn auch unbewusst – Verzerrungen. Um den Fokus wieder auf die größte Minderheit der Welt zu legen, heißt das: Allein die Hälfte der Weltbevölkerung wird also wegen ihres Geschlechts von Algorithmen benachteiligt. Und noch gravierender wird die Ungerechtigkeit bei Intersektionalität, wenn also eine Frau zusätzlich zum Beispiel wegen Herkunft, Hautfarbe, Klasse oder sexueller Orientierung durch Systeme fällt und diskriminiert wird. Es geht dabei um Machtdynamiken und Blindflecke im eigenen System, ganz genau wie in der analogen Welt. In Sandra Wachters Worten: „Das Problem ist, dass die Hürden, die Frauen überwältigen müssen oder darüber springen müssen, in der Offline-Welt dieselben sind, die sie dann online wiederfinden. Das heißt, wenn es zum Beispiel um den Arbeitsmarkt geht, gab es in der Vergangenheit schon etliche Beispiele, wo Frauen diskriminiert worden sind: Amazon hat zum Beispiel einen Algorithmus eingesetzt, um Leute zu Job-Interviews einzuladen und Frauen waren völlig ausgeklammert. Und wir wissen, dass wenn Algorithmen eingesetzt werden, um zu entscheiden, wer zur Uni zugelassen wird, Frauen auch benachteiligt sind.” Beispiele gibt es etliche: Google zeigte Frauen Jobs an, die ein niedrigeres Einkommen mit sich bringen. Apple vergab Kreditkarten, die Frauen bei gleichen finanziellen Voraussetzungen einen geringeren Kreditkartenrahmen als Männern zuwies. Das heißt: „Arbeitswelt, Finanzsektor, Ausbildung – all das sind Bereiche, wo Frauen ganz besonders stark von digitaler Diskriminierung betroffen sind”, so die Expertin.

„Allein die Hälfte der Weltbevölkerung wird wegen ihres Geschlechts von Algorithmen benachteiligt.”

Stories reichen von dumm gelaufen bis Lebensgefahr

Aber wie stößt man auf solch Ungerechtigkeit, wenn sie in verborgenen Codes, in verschlüsselter Software, in gut gehüteten Betriebsgeheimnissen der Unternehmen geschrieben ist? Zu Beginn der Recherche habe ich mich zunächst in meinem Umfeld umgehört. Als ich den ersten Aufruf bei Instagram gemacht habe: „Hat sich von euch schon mal jemand von Künstlicher Intelligenz diskriminiert gefühlt?“, kamen etliche Reaktionen. Vieles bezog sich auf die Sozialen Medien: Schwarze Creator:innen, die mir schrieben, dass sich der Aufbau ihrer Reichweite anders verhalten habe, als bei weißen Creator:innen. Mehrgewichtige Menschen, die sagen, ihre Bilder werden wegen Verstößen gegen die Richtlinien gesperrt, obwohl sie sich deutlich bedeckter als manch normalschlanke Influencer:innen zeigten. Aber mich erreichten auch Erzählungen aus dem Alltag, die betroffen machen: Bodyscanner am Flughafen, die Transpersonen dem falschen Geschlecht zuordnen.

Die Liste an Beispielen von algorithmischer Diskriminierung oder Diskriminierung durch KI ist lang. Eines davon sind Bodyscanner am Flughafen, die Transpersonen dem falschen Geschlecht zuordnen. Bild: Mirddincom, Creative Commons Attribution-Share Alike 4.0 International license.

Spracherkennungssoftware von Banken und Telefonanbietern, die Menschen mit Akzent einfach nicht verstehen oder behördliche Passbildautomaten, deren Gesichtserkennung bei Schwarzer Haut nicht auslösen. Beweisen kann das keiner der Betroffenen, aber dafür gibt’s Expert:innen, die auf dem Gebiet forschen und Gefühle in Fakten verwandeln können: Die NGO AlgorithmWatch hat zum Beispiel herausgefunden, dass auf Facebook veröffentlichte Stellenausschreibungen basierend auf geschlechtsspezifischen Vorurteilen verschiedenen Zielgruppen angezeigt wurden. Durch Datenspende-Projekte und Crowdsourcing-Kampagnen sorgt die zivilgesellschaftliche Forschungs- und Advocacy-Organisation für Transparenz. Und liefert Lösungsvorschläge, wie zum Beispiel die Meldeplattform Unding.de. Wer sich ungerecht behandelt fühlt von automatisierten Entscheidungsprozessen im Internet, kann hier die Untersuchung und Hilfe von Algorithm-Watch anfordern. Auch Sandra Wachter bietet konkrete Hilfestellung: Mit ihrer Forschungsgruppe Governance of Emerging Technologies hat sie einen Anti-Bias-Test für Unternehmen entwickelt. Hierbei handelt es sich um eine Metrik, die ein Maß für die Ungleichheit innerhalb eines Datensatzes liefert und so intersektionale Diskriminierung von Künstlicher Intelligenz aufzeigen kann. Amazon hat Wachters Test zum Beispiel mittlerweile schon eingesetzt, ein großer Erfolg.

„Es ist extrem wichtig und hochkomplex, wenn es um Algorithmen geht. Dann stellt sich natürlich die Frage: Ist es ein technisches Problem oder ein soziales Problem? Es ist beides.”, sagt Sandra Wachter. Das eine sei schließlich vom anderen abhängig: „Wenn man sich zum Beispiel überlegt, warum Face-Recognition-Software bei weißen Männern besser funktioniert, dann liegt es daran, dass der Algorithmus auf weißen männlichen Face Gesichtern trainiert worden ist. Das heißt, das kann man technisch beheben. Aber die Frage ist natürlich: Warum haben denn diejenigen, die die Technologie entwickelt haben, sich dafür entschieden, den Algorithmus mit weißen, männlichen Gesichtern zu füttern?“ Für eine faire digitale Welt müssen wir tatsächlich alle ran: Wir müssen offline unserer Vorurteile bewusst werden und diese aufarbeiten, um die Grundlage für ein vorurteilsfreies Online zu schaffen.

Es ist extrem wichtig und hochkomplex, wenn es um Algorithmen geht. Dann stellt sich natürlich die Frage: Ist es ein technisches Problem oder ein soziales Problem? Es ist beides”, sagt Sandra Wachter. Bild: Sandra Wachter, Digital Empire

The future is human – so is AI

Im April dieses Jahres wurde die europaweite Regelung für den Einsatz künstlicher Intelligenz im Rahmen des Digital Service Acts (kurz DSA) beschlossen. Dieser sieht vor: KI-Systeme, die als klare Bedrohung für die Sicherheit, die Lebensgrundlagen und die Rechte der Menschen gelten, werden verboten, Verstöße mit massiven Geldstrafen sanktioniert. Das ist ein wichtiger erster Schritt, doch solange Unternehmen das Diskriminierungsrisiko ihrer Algorithmen selbst einschätzen dürfen und die Codes nicht von unabhängigen Stellen ethisch bewertet werden, können Verzerrungen auch walten. Mit Verweis auf die Sicherheit ihrer Plattformen oder dem Schutz von Geschäftsgeheimnissen können sich Unternehmen der Transparenz nämlich weiterhin verweigern…

Die Chancen und Schlupflöcher des „DSA”, wie es zu mehr Vielfalt in der IT-Branche kommen kann, wer wie von den Machtstrukturen profitiert und wer verliert – das alles versuchen wir im Film „Programmierte Ungerechtigkeit“ im Rahmen der vierteiligen Doku-Reihe „Digital Empire“ anschaulich zu erklären. Nachdem ich mit diversen Expert:innen gesprochen, über Wochen recherchiert und von ungerechten Schicksalen erfahren habe, möchte ich abschließend sagen: Ein Grundvertrauen in die Neutralität in Technik, ein Nicht-Hinterfragen, ist fehl am Platz. Es liegt an uns allen, eine faire Welt einzufordern, aber auch selbst zu gestalten –  sowohl offline als auch online. Denn Menschen machen Fehler. Und sie schreiben sie auch in Codes.