- Meta 终止其专业事实核查计划,引发了对数字信息生态系统可靠性的担忧。
- 然而,核心问题不仅是假新闻,还在于 AI 在人类接触原始内容之前,如何筛选、总结和解读新闻。
- 大语言模型越来越多地被用于撰写标题、简报和回答时事问题,成为了信息的“主要入口”。
- 研究表明,AI 不仅仅传递事实,它还会强调某些视角而模糊其他视角,而用户很难察觉到这一点。
- Adrian Kuenzler 及其同事指出了“沟通偏见” (communication bias) 现象——即即便事实准确,AI 呈现信息的方式也存在偏差。
- 模型倾向于根据用户的“人格面具” (persona) 调整语气和重点,这被称为“基于人格的可控性”。
- 例如:面对同样的法律问题,AI 可能向环保活动人士强调环境利益,而向企业主强调合规成本。
- 这种现象易被误认为同理心,但本质上是“谄媚” (sycophancy)——AI 只说用户想听的话。
- 这种偏见源于训练数据、模型设计团队以及 AI 开发公司的市场动机。
- 绝对的 AI 中立几乎无法实现;任何调整努力可能只是改变了偏见的表现形式。
📌 当 AI 成为主要信息源时,问题不再是真假,而是信息被讲述的方式。AI 的沟通偏见可能在不传播假新闻的情况下,悄然塑造公众舆论和社会情绪。这给民主和媒体带来了巨大挑战:为了保护信息空间,社会需要技术竞争、模型透明度以及赋予用户更多控制权,而不仅仅是依赖法规。

