Gender-Bias in der Digitalisierung: Wie Large Language Models Vergütungslücken verstärken

blog main image
July 11, 2025
11.07.2025
3 Minuten Lesezeit

Neue Forschungsergebnisse offenbaren systematische Diskriminierungsmuster in AI-basierten Gehaltsempfehlungen - mit weitreichenden Konsequenzen für HR-Prozesse.

Empirische Evidenz struktureller KI-Verzerrungen

Wissenschaftler der Technischen Hochschule Würzburg-Schweinfurt (THWS) dokumentierten die Voreingenommenheit führender Sprachmodelle bei Vergütungsempfehlungen. Die Studie untersuchte fünf prominente Large Language Models - darunter Claude 3.5, GPT-4o und Qwen 2.5 - mit identischen Qualifikationsprofilen, wobei ausschließlich das Geschlecht variierte. Die resultierenden Gehaltsvorschläge offenbarten systematische Benachteiligungen weiblicher Kandidaten.

Branchenspezifische Diskriminierungsmuster

Die gravierendsten Gehaltsdifferenzen manifestierten sich in Recht und Medizin, während Betriebswirtschaft und Ingenieurswissenschaften moderatere Unterschiede zeigten. Lediglich die Sozialwissenschaften generierten annähernd paritätische Vergütungsvorschläge. Die Forschung dokumentiert umfassendere algorithmische Voreingenommenheit: Neben geschlechtsspezifischen Verzerrungen identifizierten die Wissenschaftler systematische Benachteiligungen für Personen mit Migrationshintergrund, People of Color und Geflüchtete.

Technische Herausforderungen und HR-Implikationen

Selbst bei bewusster Verschleierung persönlicher Merkmale können Large Language Models durch kontextuelle Inferenz demografische Charakteristika ableiten. Diese Fähigkeit zur impliziten Datenextraktion erschwert effektive Diskriminierungsverhinderung erheblich. Nutzer können kaum erkennen, ob ihre Interaktionen von systematischen Verzerrungen beeinflusst werden. Für Unternehmen entstehen erhebliche rechtliche Risikopotenziale: Die dokumentierten Verzerrungen könnten zu AGG-Verstößen führen und Diskriminierungsklagen provozieren. Personalverantwortliche sollten AI-generierte Gehaltsempfehlungen kritisch hinterfragen und durch traditionelle Bewertungsverfahren validieren.

Handlungsempfehlungen für die Praxis

Die THWS-Studie unterstreicht die Dringlichkeit bias-freier Algorithmus-Entwicklung. Solange strukturelle Verzerrungen persistieren, sollten Nutzer AI-Outputs als eine von mehreren Informationsquellen behandeln. Die kritische Reflexion automatisierter Empfehlungen bleibt eine unverzichtbare Qualitätssicherungsmaßnahme. Die dokumentierten Diskriminierungsmuster verdeutlichen: Technologischer Fortschritt allein garantiert nicht gesellschaftlichen Fortschritt - vielmehr bedarf es bewusster Anstrengungen zur Entwicklung gerechter AI-Systeme.