Sie haben folgende Möglichkeiten:
  1. zum Login.
  2. zur Navigation.
  3. zum Inhalt der Seite.

Die KI-Sprachmodelle verzerren Realität oft unbemerkt. (Grafik: PB.Studio.Photo/stock.adobe.com)
Künstliche Intelligenz

Wie KI bestehende Bias-Strukturen verstärkt

ESV-Redaktion Management und Wirtschaft
06.11.2025
Eine neue Studie legt offen, wie tief Vorurteile über Alter und Geschlecht in Künstlicher Intelligenz verankert sind. Forschende der Stanford University, UC Berkeley und der Universität Oxford zeigen: Sprachmodelle wie ChatGPT reproduzieren stereotype Bilder und benachteiligen insbesondere ältere Frauen.

Im Experiment ließ das Forschungsteam ChatGPT rund 34.500 Lebensläufe für 54 Berufe generieren. Das Ergebnis: Frauen wurden systematisch jünger und weniger erfahren dargestellt als Männer, obwohl die Ausgangsdaten identisch waren. In der anschließenden Bewertung erhielten ältere Männer die besten Noten, ältere Frauen dagegen die schlechtesten.

Die Verzerrungen sind erklärbar: Analysen von rund 1,4 Millionen Bildern und Videos auf Plattformen wie Google, Wikipedia und Youtube zeigen, dass Frauen dort deutlich jünger dargestellt werden. Solche Darstellungen fließen in die Trainingsdaten generativer KI ein und verstärken bestehende Ungleichheiten.

Die Modelle verzerren Realität oft unbemerkt, warnen die Autorinnen und Autoren der Studie. Filtermechanismen, mit denen KI-Anbieter problematische Inhalte ausblenden wollen, greifen zu kurz. Statt Symptombekämpfung fordern die Forschenden strukturelle Lösungen: mehr Transparenz bei Trainingsdaten, vielfältigere Datensätze und ethische Standards für den Einsatz generativer KI.

Für Governance, Compliance und HR bedeutet das: Vorsicht bei automatisierten Bewerbungs- oder Bewertungssystemen. Ohne klare Kontrollmechanismen kann KI unbewusst diskriminieren.

Weitere Infos zur Studie hat die Stanford University hier veröffentlicht.

ChatGPT in der Unternehmenspraxis

von Wolfhart Fabarius

Der Einsatz von Künstlicher Intelligenz revolutioniert die Arbeitswelt und mit ChatGPT steht hierbei ein besonders vielseitig nutzbares Anwendungstool zur Verfügung. Wie Sie als Governance-Verantwortlicher den Chatbot sinnvoll einsetzen können, zeigen die Praxisbeispiele in diesem Buch mit thematischen Schwerpunkten wie Nachhaltigkeit, Cybersicherheit, Datenschutz und Überwachung von Lieferketten.

Neben den Stärken von ChatGPT werden auch die Risiken der KI aufgezeigt, die vor allem aufgrund von fehlerhaften und subjektiv gefärbten Antworten des Chatbots bestehen. Es wird verdeutlicht, dass sich ChatGPT zwar als Arbeitshilfe eignet. Die Verantwortung bei der Nutzung von KI-generierten Informationen bleibt jedoch bei den anwendenden Personen.

Eine erstmalige Zusammenstellung praktischer KI-Anwendungsbeispiele für Risikomanagement, Controlling und Compliance – leicht verständlich sowohl für Governance-Profis als auch Nutzerinnen und Nutzer ohne große Vorkenntnisse.

Hören Sie hier den Interview-Podcast Der Einsatz von ChatGPT in Unternehmen – Bernd Preiß mit seinem Gast: Wolfhart Fabarius

Programmbereich: Management und Wirtschaft