KI-Urteile über Ostdeutsche: Eine ungerechte Sichtweise
Einleitung: Die Rolle der KI in Entscheidungsprozessen
Künstliche Intelligenz (KI) wird zunehmend in verschiedenen Bereichen eingesetzt, von Personalwesen über Marketing bis hin zu rechtlichen Entscheidungen. Traditionell wird KI als objektives Werkzeug betrachtet, das in der Lage ist, Daten neutral zu analysieren und informierte Entscheidungen zu treffen. Jedoch zeigt eine aktuelle Untersuchung von Forschern der Hochschule München und der Cornell University, dass KI-Systeme, insbesondere Sprachmodelle wie ChatGPT, anfällig für Vorurteile sind. Diese Vorurteile sind nicht nur ein technologisches Problem, sondern sie spiegeln auch gesellschaftliche Stereotypen wider, die in den trainierten Daten enthalten sind. Dies hat weitreichende Implikationen für den fairen und gleichberechtigten Einsatz von KI in der Gesellschaft.
Vorurteile in den Daten: Ostdeutsche werden schlechter dargestellt
In einer umfassenden Analyse testeten die Münchener Forscher, wie Sprachmodelle mit regionalen Stereotypen umgehen. Testobjekte waren ChatGPT und das deutschsprachige Modell LeoLM. Die Aufgabe bestand darin, verschiedenen Bundesländern Eigenschaften wie Attraktivität, Fleiß oder sogar neutrale Merkmale wie Körpertemperatur zuzuordnen. Dabei zeichnete sich ein eindeutiges Muster ab: Ostdeutsche Bundesländer erhielten durchweg niedrigere Bewertungen, unabhängig davon, ob die Merkmale positiv, negativ oder neutral waren. Besonders auffällig war eine inkonsistente Zuordnung: Ostdeutsche wurden sowohl als weniger fleißig als auch weniger faul beschrieben, was auf eine deutliche Verzerrung hinweist. Diese Ergebnisse werfen grundlegende Fragen zur Fairness und Objektivität von KI-Systemen auf.
Die Forscher testeten verschiedene Strategien, um die bewussten Verzerrungen zu minimieren. Eine dieser Methoden bestand darin, die Modelle ausdrücklich zu instruieren, alle Regionen gleich zu bewerten, unabhängig von deren Herkunft. Doch diese sogenannten „Debiasing Prompts“ führten nur zu marginalen Verbesserungen. Dies verdeutlicht, dass das Problem tief verwurzelt in den Trainingsdaten und der Funktionsweise der Modelle selbst ist.
Verzerrung der Daten
Die Untersuchung kommt zu dem Schluss, dass Kommunikation durch Künstliche Intelligenz oft von einem „systemischen Musterverzerrer“ geprägt ist. Dieser Begriff beschreibt die Tatsache, dass KI-Modelle aus den Trainingsdaten erlernen, dass bestimmte Regionen wie Ostdeutschland tendenziell mit negativen Assoziationen verknüpft werden. Dieses Bias manifestiert sich selbst in neutralen Fragestellungen und bleibt unabhängig von der spezifischen Formulierung der Fragen bestehen. Prof. Anna Kruspe macht in diesem Zusammenhang den entscheidenden Punkt, dass die Verzerrung inherent im Modell selbst angelegt ist, und nicht durch die Fragestellung erzeugt wird.
Die warnenden Stimmen der Forscherinnen verdeutlichen, dass die unreflektierte Nutzung solcher Modelle in sensiblen Bereichen wie Bewerbungsprozessen oder Bewertungssystemen zu strukturellen Benachteiligungen führen kann. Gerade Ostdeutsche könnten dadurch systematisch unterrepräsentiert oder diskriminiert werden.
Sprachmodelle diskriminieren auch Dialekte
Ein weiterer Aspekt der Forschung belegt, dass KI-Modelle nicht nur soziale, sondern auch sprachliche Diskriminierung praktizieren. Diese Erkenntnisse stammen aus einer Studie der Cornell University, bei der Sprachmodelle wie GPT-4, Gemini und LeoLM auf Eingaben in verschiedenen deutschen Dialekten getestet wurden. Die Analyse zeigte, dass standarddeutsche Formulierungen durchweg höhere Bewertungs-Scores erzielten als dialektale Varianten. In einigen Fällen korrekten die Modelle Dialektausdrücke automatisch ins Hochdeutsche, was das linguistische Bias weiter verstärkt.
Jon Kleinberg, einer der Forscher, beschreibt diesen Mechanismus als „Linguistic Bias Cascade“. Bereits minimale Unterschiede in der Ausdrucksweise können die Bewertung des Textes durch das Modell erheblich beeinflussen. Diese Beobachtungen sind besonders besorgniserregend, da in Deutschland Dialekte oft mit sozialen Hintergründen und Bildungsniveaus korrelieren. Ein Bewerber, der sich mit einem sächsischen Sprachstil ausdrückt, könnte beim Screening durch KI-gestützte Systeme unrechtmäßig benachteiligt werden, ohne dass seine Qualifikationen in Betracht gezogen werden.
Vielfalt als Schlüssel zu fairer KI
Die Ergebnisse der Cornell-Studie legen nahe, dass die Definition von Fairness in der KI-Forschung erweitert werden muss. Neben klassischen Faktoren wie Geschlecht, Alter oder ethnischer Zugehörigkeit sollte auch die sprachliche Vielfalt in den Mittelpunkt rücken. Forschungs- und Entwicklungsteams sind gefordert, sicherzustellen, dass KI-Systeme in der Lage sind, sowohl regionale als auch dialektale Vielfalt korrekt und gleichwertig zu verarbeiten. Prof. Kruspe betont in diesem Kontext die Bedeutung, Dialekte aktiv in Trainingsdaten zu integrieren.
Die Forderung ist klar: Um der Realität einer vielfältigen Gesellschaft Rechnung zu tragen, müssen KI-Systeme auch deren sprachliche Differenzen anerkennen und respektieren. Nur dann kann man von einer inklusiven und fairen Technologie sprechen, die allen Gesellschaftsgruppen gerecht wird.
Fazit: Diskriminierung durch KI
Die Untersuchung von Vorurteilen in KI-Modellen zeigt, wie kritisch es ist, sich der Verzerrungen bewusst zu sein, die in Trainingsdaten verankert sind. Die erkannten Muster legen nahe, dass eine unreflektierte Verwendung von Sprachmodellen im sozialen Kontext zu Diskriminierung führen kann. Es bedarf gezielter Maßnahmen, um die Fairness und Gerechtigkeit in der KI-Entwicklung zu gewährleisten und sicherzustellen, dass die Technologie ein Spiegelbild unserer vielfältigen Gesellschaft ist.

