Diskriminierung durch Künstliche Intelligenz

Die Diskriminierung durch Künstliche Intelligenz (KI) hat in den letzten Jahren vermehrt Aufmerksamkeit erregt. Praktische Beispiele zeigen, dass KI-Systeme oftmals geschlechterbezogene Verzerrungen aufweisen. Ein häufig genanntes Beispiel ist die Übersetzung von Begriffen, etwa der Ausdruck „the doctor said“, der in vielen Übersetzungen als „der Arzt sagte“ interpretiert wird, während die weibliche Form „die Ärztin sagte“ nicht berücksichtigt wird. Darüber hinaus hat der von Amazon entwickelte Recruiting-Algorithmus Bewerbungen von Frauen systematisch als weniger geeignet eingestuft, basierend auf einem Lernprozess aus Daten, die vorrangig männliche Bewerbungen enthielten. Auch bei der Gesichtserkennung zeigen sich erhebliche Unterschiede: Major IT-Firmen haben festgestellt, dass ihre Programme bei weißen Männern deutlich besser funktionieren als bei Schwarzen Frauen. Diese Tendenzen verstärken bestehende soziale Ungleichheiten und werfen ein kritisches Licht auf die Technologien, die mittlerweile in vielen Lebensbereichen eingesetzt werden.

Ursachen des Gender Bias in der KI

Die fundamentalen Gründe für diese Ungleichheiten liegen oft in den Trainingsdaten der KI-Modelle. Diese Daten, aus denen KI-Systeme lernen, sind häufig belastet mit gesellschaftlichen Vorurteilen, die sich sowohl in der Sprache als auch in Bildern und Bewerbungsprofilen manifestieren. Hierbei gilt die Maxime „garbage in – garbage out“, welche verdeutlicht, dass fehlerhafte oder voreingenommene Daten unvermeidbar zu fehlerhaften Ergebnissen führen. Ein zusätzliches Problem ist der „Gender Data Gap“, der dazu führt, dass weibliche Perspektiven in vielen Datensätzen erheblich unterrepräsentiert sind. Darüber hinaus ist die Entwicklungslandschaft der KI oft wenig divers. Wenn vornehmlich Männer an der Entwicklung von KI-Systemen arbeiten, bleiben zahlreiche Sichtweisen und Erfahrungen unberücksichtigt. Diskriminierung in KI bleibt häufig unsichtbar, da diese Technologien oft als objektiv und neutral wahrgenommen werden – ein Irrtum, wie die aufgezeigten Beispiele eindrucksvoll verdeutlichen.

Politische und technologische Maßnahmen gegen Gender Bias

Um den Gender Bias in der KI zu bekämpfen, gibt es zahlreiche Forderungen und Vorschläge. Ein zentraler Ansatz ist der EU-AI-Act, welcher vorsieht, dass Systeme mit hohem Risiko auf Verzerrungen hin überprüft werden müssen. Weitere Empfehlungen beziehen sich auf die Bildung vielfältiger Teams während der Entwicklung, den Einsatz gendersensibler Datensätze sowie die Implementierung transparenter und erklärbarer Systeme, die als „Explainable AI“ bezeichnet werden. Testgruppen mit einer diversen Zusammensetzung können dabei helfen, diskriminierende Muster frühzeitig zu identifizieren. Zudem sollten während des gesamten Lebenszyklus eines KI-Systems Folgenabschätzungen in Bezug auf Menschenrechte durchgeführt werden, um sicherzustellen, dass potenzielle Diskriminierungen von Anfang an adressiert werden.

Rolle der KI-Entwickler und -Anbieter

Im europäischen Raum existieren verschiedene Tools zur Bewertung und Identifikation von Bias in KI-Systemen. Eines der EU-geförderten Projekte ist das BIAS-Projekt, das offene Softwareentwicklungen fördert, die gezielt auf Bias und Unfairness in KI-Modellen abzielen. Ebenfalls wird das Open-Source-Tool Aequitas empfohlen, welches dazu dient, Bias im Output von KI-Systemen zu erkennen und zu bewerten. Der Fokus liegt dabei nicht nur auf einem einzelnen Ergebnis, sondern auf dem allgemeinen Verhalten des Modells. Diese Tools richten sich insbesondere an Anbieter von KI-Technologie und bieten wertvolle Unterstützung bei der Identifikation und Minimierung des Bias.

Beteiligung der Nutzer und Potenziale der Technik

Auch die Nutzerinnen und Nutzer von KI-Systemen haben die Möglichkeit, Einfluss auszuüben. Bei der Verwendung von KI-Anwendungen, wie etwa Übersetzungs- oder Bildgenerierungssoftware, sollten präzise und inklusive Formulierungen verwendet werden, um Diskriminierungen zu vermeiden. Wenn das Geschlecht in einem Kontext relevant ist, bietet es sich an, Begriffe wie „female doctor“ statt „doctor“ zu nutzen. Darüber hinaus sollten KI-generierte Inhalte kritisch hinterfragt und gegebenenfalls nachbearbeitet werden. Viele Systeme erlauben es den Anwender:innen, Feedback zu geben. Diese Möglichkeit sollte aktiv genutzt werden, um auf offensichtliche Verzerrungen zu reagieren und Verbesserungen anzustoßen. Eine innovative Methode zur Minimierung von Verzerrungen ist das sogenannte „De-Biasing durch Prompting“, das in Workshops diskutiert wird und darauf abzielt, KI-Tools zur Selbstkorrektur zu bewegen.

Fazit: Perspektiven für eine gerechtere KI

Die Diskussion um die Genderfragen in der KI zeigt, wie wichtig es ist, gesellschaftliche Vorurteile in den Entwicklungsprozess von KI-Systemen zu integrieren. Durch kritische Reflexion und gendersensible Didaktik können Bildungseinrichtungen dazu beitragen, diskriminierende Muster aufzubrechen und ein umfassenderes Bewusstsein für die Wirkung von KI zu schaffen. Indem die strukturelle Verankerung von Gendergerechtigkeit in Bildungseinrichtungen gefördert wird, können Lehrende und Lernende gemeinsam den Herausforderungen und Chancen, die KI bietet, begegnen. Ein zentraler Ausgangspunkt für die eigene Bildungsarbeit könnte die Frage sein, wer in KI-generierten Inhalten erscheint und auf welche Weise dies geschieht.