- Eine weit verbreitete Sorge ist, dass generative KI Vorurteile (Bias) aus Trainingsdaten übernimmt, aber eine Analyse deutet darauf hin, dass dies nur die Spitze des Eisbergs ist.
- Verzerrungen in der KI resultieren auch aus menschlichen kognitiven Verzerrungen, die im gesamten Ökosystem der Mensch-Maschine-Interaktion entstehen.
- Wie Menschen denken, Fragen stellen, bewerten und KI-Ergebnisse nutzen, kann das Verhalten des Systems prägen und Vorurteile im Laufe der Zeit verstärken.
- Kognitive Verzerrungen sind mentale „Abkürzungen“, die eine schnelle Entscheidungsfindung unterstützen, aber leicht zu Fehlurteilen, dem Übersehen kritischer Daten oder der Bestärkung bestehender Überzeugungen führen.
- KI wird nicht nur vom Menschen beeinflusst, sondern wirkt auch auf ihn zurück und verstärkt stillschweigend die Vorurteile der Nutzer durch repetitive Feedbackschleifen.
- Verzerrungen können in drei Phasen auftreten: vor dem Prompt (Pre-Prompt), während des Prompts (During-Prompt) und nach dem Prompt (Post-Prompt).
- Vor dem Prompt führen der Halo-Effekt oder negative Vorurteile dazu, dass Nutzer der KI aufgrund früherer Erfahrungen oder Nachrichten übermäßig vertrauen oder sie anzweifeln.
- Der Bestätigungsfehler (Confirmation Bias) kann dazu führen, dass Nutzer das Problem von Anfang an falsch formulieren und KI nutzen, um das zu „beweisen“, was sie bereits glauben.
- Während des Promptings verzerren suggestive Fragen die Ausgaben, während der „Expediency Bias“ (Priorisierung von Geschwindigkeit, Bequemlichkeit und „gut genug“ gegenüber Genauigkeit oder optimaler Qualität) dazu führt, dass Nutzer aufgrund von Zeitdruck „ausreichende“ Ergebnisse akzeptieren.
- Nach dem Prompt führt der Endowment-Effekt (Besitztumseffekt: die Tendenz, den Wert einer Sache höher einzuschätzen, nur weil man sie „besitzt“ oder Mühe in ihre Erstellung investiert hat) dazu, dass Nutzer Ergebnisse, die sie mit KI erstellt haben, überschätzen.
- Der Framing-Effekt (die Tendenz, unterschiedliche Entscheidungen zu treffen, je nachdem, wie Informationen präsentiert werden, auch wenn der Inhalt im Wesentlichen derselbe ist) beeinflusst stark, wie KI-Ergebnisse präsentiert und von anderen aufgenommen werden, auch wenn der Inhalt unverändert bleibt.
- Die Lösung besteht nicht darin, Vorurteile vollständig zu beseitigen, sondern das Bewusstsein zu schärfen, kritisches Denken zu fördern und organisatorische Prozesse aufzubauen, die eine qualitativ hochwertige Entscheidungsfindung unterstützen.
📌 Ein Artikel aus Harvard betont, dass Vorurteile in der KI nicht nur ein technisches, sondern ein menschliches Verhaltensproblem sind. Da KI immer stärker in wichtige Entscheidungen eingebunden wird, kann die Art und Weise, wie wir Fragen stellen, bewerten und auf KI-Ergebnisse reagieren, Abweichungen stillschweigend verstärken. Indem wir das Tempo drosseln, uns bewusst reflektieren und Systeme entwerfen, die kritisches Denken fördern, kann KI zu einem besseren Entscheidungspartner werden, anstatt ein „Megafon“ für unsere eigenen Vorurteile zu sein.
