- 一个普遍的担忧是生成式 AI 会从训练数据中继承偏见,但分析认为这只是冰山一角。
- AI 中的偏见还源于人类的认知偏见,形成于人机交互的整个生态系统中。
- 人类思考、提问、评估和使用 AI 结果的方式可以塑造系统的行为,并随着时间的推移放大偏见。
- 认知偏见是帮助快速决策的思维“捷径”,但容易导致误判、遗漏关键数据或强化既有信念。
- AI 不仅受到人类的影响,反过来也会影响人类,通过重复的反馈循环暗中强化用户的偏见。
- 偏见可能出现在三个阶段:提示前(pre-prompt)、提示中(during-prompt)和提示后(post-prompt)。
- 在提示前,光环效应(halo effect)或负面成见会导致用户根据以往的经验或新闻过分信任或怀疑 AI。
- 确认偏误(confirmation bias)可能导致用户从一开始就错误地设定问题,利用 AI 来“证明”他们已经相信的事情。
- 在提示过程中,诱导性问题会扭曲输出,而权宜偏见(expediency bias,即优先考虑速度、便利和“够用”,而非准确性或最佳质量)会导致用户因时间压力而接受“够用”的结果。
- 在提示后,禀赋效应(endowment effect,即仅仅因为自己“拥有”或付出了努力而高估某物价值的倾向)会导致用户高估自己与 AI 共同生成的结果。
- 框架效应(framing effect,即根据信息的呈现方式做出不同决定的倾向,即使内容本质相同)会强烈影响 AI 结果的呈现方式和他人的接收方式,即使实际内容不变。
- 解决方案不是完全消除偏见,而是提高意识,培养批判性思维,并建立支持高质量决策的组织流程。
📌 哈佛大学的一篇文章强调,AI 中的偏见不仅是技术问题,更是人类行为问题。随着 AI 越来越多地参与重要决策,我们提问、评估和根据 AI 结果采取行动的方式可能会暗中放大偏差。通过放慢速度、进行有意识的反思并设计鼓励批判性思维的系统,AI 可以成为更好的决策合作伙伴,而不是我们自身偏见的“扩音器”。
