- 对 1,300 多名美国人(18-84 岁)的研究显示,大多数人不认为个人消息是由 AI 生成的,即使他们经常使用 AI。
- 实验将参与者分为四组:来源不明、已知人类撰写、已知 AI 撰写或来源不确定。
- 当得知消息由 AI 编写时,读者的评价更负面,如“懒惰”、“不真诚”、“不努力”。
- 相反,同样的内容如果被认为是人类编写的,则被评价为“真诚”、“周到”和“充满感激”。
- 值得注意的是,在没有来源信息的情况下,读者默认相信作者是人类,并给出同样的积极评价。
- 经常使用 AI 的人检测能力也并没更好,只是在得知是 AI 时负面评价程度略有降低。
- “AI 披露惩罚”现象表明,披露使用 AI 会降低可信度,而默默使用则不会被发现。
- 这造成了一个道德悖论:诚实反遭低评,隐瞒反而有利。
- 这一趋势可能导致招聘人员降低求职信的价值,转而通过个人关系或面对面会谈进行评估。
📌 研究显示,人类对 AI 生成的内容几乎是“盲目”的,1,300 多名参与者仍默认文本为人类撰写。然而,一旦披露,评价便显著下降,造成了诚实与利益之间的悖论。这可能会改变社会评估书面交流的方式,导致对文本的信任下降,并增加面对面互动在工作和生活中的作用。
