- Eine Studie mit mehr als 1.300 Amerikanern (18–84 Jahre) zeigt, dass die Mehrheit nicht glaubt, dass persönliche Nachrichten von KI erstellt werden könnten, selbst wenn sie KI regelmäßig nutzen.
- Das Experiment teilte die Teilnehmer in 4 Gruppen ein: Quelle unbekannt, von einem Menschen geschrieben, von einer KI geschrieben oder Herkunft unsicher.
- Wenn bekannt war, dass eine Nachricht von einer KI geschrieben wurde, bewerteten die Leser sie negativer als „faul“, „unaufrichtig“ oder „wenig bemüht“.
- Im Gegenteil wurde derselbe Inhalt, wenn man dachte, er sei von einem Menschen geschrieben, als „aufrichtig“, „aufmerksam“ und „dankbar“ bewertet.
- Bemerkenswert ist, dass Leser ohne Quellenangabe standardmäßig davon ausgingen, dass der Verfasser ein Mensch sei, und entsprechend positive Bewertungen abgaben.
- Regelmäßige KI-Nutzer schnitten bei der Erkennung nicht besser ab; sie reduzierten lediglich die negative Bewertung leicht, wenn sie von der KI erfuhren.
- Das Phänomen des „AI Disclosure Penalty“ zeigt, dass die Offenlegung der KI-Nutzung die Glaubwürdigkeit verringert, während die stille Nutzung unbemerkt bleibt.
- Dies schafft ein ethisches Paradoxon: Ehrlichkeit wird bestraft, während Verheimlichung einen Vorteil bietet.
- Dieser Trend könnte dazu führen, dass Personalverantwortliche den Wert von Anschreiben mindern und stattdessen auf persönliche Beziehungen oder persönliche Treffen setzen.
📌 Die Forschung zeigt, dass Menschen gegenüber KI-generierten Inhalten fast „blind“ sind, wobei über 1.300 Teilnehmer standardmäßig glauben, dass Texte von Menschen geschrieben wurden. Wenn dies jedoch offengelegt wird, sinkt die Bewertung deutlich, was ein Paradoxon zwischen Ehrlichkeit und Nutzen schafft. Dies könnte die Art und Weise verändern, wie die Gesellschaft schriftliche Kommunikation bewertet, was zu einem Vertrauensverlust in Texte führt und die Rolle der direkten Interaktion im Berufs- und Privatleben stärkt.

