- Eine Studie mit 27.491 Personen zeigt, dass Werke, die als KI-generiert gekennzeichnet sind, immer schlechter bewertet werden, selbst wenn der Inhalt identisch ist.
- Das Experiment umfasste 16 verschiedene Studien zu Lyrik, Kurzgeschichten und diversen Stilen, doch die Ergebnisse blieben konsistent: Die KI wird „abgestraft“.
- Wenn Leser wissen, dass ein Text von einer KI geschrieben wurde, bewerten sie Qualität, Kreativität und Gefallen niedriger.
- Dieser Effekt ist unabhängig vom Inhalt, vom Genre oder von der Erzählperspektive (Erste Person, Dritte Person …).
- Selbst wenn nach logischen, objektiven Kriterien anstatt nach emotionalen bewertet wird, schneidet die KI schlechter ab.
- Die „Humanisierung“ der KI (Namensgebung, emotionale Beschreibung) oder die Erklärung ihrer hohen Leistungsfähigkeit verringert die Voreingenommenheit nicht.
- Nutzer empfinden keine „gemischten Gefühle“, sondern bewerten einfach negativer, sobald die KI-Herkunft bekannt ist.
- Selbst wenn gesagt wird, dass Menschen die KI als Hilfswerkzeug genutzt haben, wird das Werk so niedrig bewertet, als hätte die KI es allein geschrieben.
- Die Hauptursache ist die wahrgenommene „mangelnde Authentizität“ (authenticity) des KI-Produkts.
- Dieses Phänomen ist sehr „robust“ und schwer zu ändern, trotz verschiedener psychologischer Interventionsversuche.
📌 Auch wenn die KI so menschenähnlich schreiben kann, dass sie ununterscheidbar wird, bleibt die menschliche Psychologie fest mit dem Wert der „Authentizität“ verknüpft. Mit über 27.000 Teilnehmern und 16 Experimenten zeigen die Ergebnisse, dass allein das Wissen um die KI-Herkunft die Bewertung deutlich sinken lässt. Dies zeigt, dass die größte Hürde für die KI nicht die Technologie ist, sondern die gesellschaftliche Wahrnehmung, in der Menschen Kreativität mit menschlicher Note immer noch den Maschinen vorziehen.

