Wie KI bestehende Bias-Strukturen verstärkt
Im Experiment ließ das Forschungsteam ChatGPT rund 34.500 Lebensläufe für 54 Berufe generieren. Das Ergebnis: Frauen wurden systematisch jünger und weniger erfahren dargestellt als Männer, obwohl die Ausgangsdaten identisch waren. In der anschließenden Bewertung erhielten ältere Männer die besten Noten, ältere Frauen dagegen die schlechtesten.
Die Verzerrungen sind erklärbar: Analysen von rund 1,4 Millionen Bildern und Videos auf Plattformen wie Google, Wikipedia und Youtube zeigen, dass Frauen dort deutlich jünger dargestellt werden. Solche Darstellungen fließen in die Trainingsdaten generativer KI ein und verstärken bestehende Ungleichheiten.
Die Modelle verzerren Realität oft unbemerkt, warnen die Autorinnen und Autoren der Studie. Filtermechanismen, mit denen KI-Anbieter problematische Inhalte ausblenden wollen, greifen zu kurz. Statt Symptombekämpfung fordern die Forschenden strukturelle Lösungen: mehr Transparenz bei Trainingsdaten, vielfältigere Datensätze und ethische Standards für den Einsatz generativer KI.
Für Governance, Compliance und HR bedeutet das: Vorsicht bei automatisierten Bewerbungs- oder Bewertungssystemen. Ohne klare Kontrollmechanismen kann KI unbewusst diskriminieren.
Weitere Infos zur Studie hat die Stanford University hier veröffentlicht.
ChatGPT in der Unternehmenspraxisvon Wolfhart FabariusDer Einsatz von Künstlicher Intelligenz revolutioniert die Arbeitswelt und mit ChatGPT steht hierbei ein besonders vielseitig nutzbares Anwendungstool zur Verfügung. Wie Sie als Governance-Verantwortlicher den Chatbot sinnvoll einsetzen können, zeigen die Praxisbeispiele in diesem Buch mit thematischen Schwerpunkten wie Nachhaltigkeit, Cybersicherheit, Datenschutz und Überwachung von Lieferketten. |
Programmbereich: Management und Wirtschaft