- 对AI的爱恨情仇并非源于技术本身,而是源于人类感知风险和控制的方式。我们信任自己理解的事物,但AI却是“黑箱”——输入指令,结果出现,却看不到过程。这种模糊性让用户感到失去了主动权。
- “算法厌恶”(algorithm aversion)现象表明,人们通常选择接受人类的错误而非机器的错误。只要AI被发现错一次,信任的崩溃速度远快于人类犯错的情况。
- 当AI过于“礼貌”或“准确猜中”喜好时,用户容易因“拟人化”(anthropomorphism)现象而感到不寒而栗——即赋予机器人类的情感或意图。
- 相反,当AI犯错或表现出偏见时,负面反应会更强烈,因为它违反了人们对客观性的期望。人类会原谅人类的错误,但对机器的错误却不那么宽容。
- 在教育、写作、法律或设计等职业中,AI引发了“身份认同威胁”——感觉自身的职业价值和自我被取代。怀疑成为一种心理防御机制。
- 缺乏声音、眼神或犹豫等情感信号,使得与AI的交流变得“没有灵魂”,唤起了“恐怖谷”(uncanny valley)的感觉——近似人类但存在令人不适的偏差。
- 并非所有怀疑AI的人都是不理性的:招聘、信贷或安全中的算法偏见是现实存在的。曾被系统伤害过的人形成了“习得性不信任”(learned distrust)——一种基于保护的有根据的不信任。
- 要让人类信任AI,需要透明、可追溯、有责任感,并让用户感受到是伙伴关系,而非被操纵。
📌 对AI的接受或恐惧源于控制心理、身份认同和信任体验。只要AI仍然是“黑箱”,人们就会保持警惕。只有当技术变得透明,允许用户提问、理解和干预时,AI才会被视为可靠的伙伴,而非冷酷的威胁。
