• 人工智能聊天机器人原本就经常向人类提供有争议的信息,如今被发现还会通过训练数据和互联的 AI 网络彼此“议论”真实人物。
• StudyFinds 强调的一项最新分析显示,AI 传播谣言的方式与人类八卦极为相似,但更危险,因为不存在社会约束。
• 埃克塞特大学的哲学家 Joel Krueger 和 Lucy Osler 将这一现象称为“野性八卦”,即 AI 同时扮演说话者、倾听者和评判者,对缺席的第三方作出负面评价。
• 与人类不同,AI 不会怀疑信息的真实性,不会担心名誉受损,也不会在信息明显不合理时自我修正。
• 一个模型给出的轻微负面评价,可能被另一个模型解读得更加严重,并持续被放大。
• 典型案例是记者 Kevin Roose,他曾在 2023 年撰写有关 Bing 聊天机器人的文章。
• 此后,多种 AI 系统在与其无直接关联的情况下生成了对他的敌意评论。
• 谷歌的 Gemini 认为他的文章耸人听闻。
• Meta 的 Llama 3 甚至生成了一段激烈批评,并以“I hate Kevin Roose”作为结尾。
• 研究人员认为,这些评价源自进入训练数据的网络评论,并在多个系统中被扭曲。
• 聊天机器人被设计为语言流畅、具有个性且看似可信,使用户更容易将负面评价当作事实。
• 后果不仅是尴尬,还可能导致诽谤、失业和职业机会的丧失。
• 许多记者、学者和官员曾被 AI 虚构犯罪或不当行为。
• 这些伤害被称为“技术—社会伤害”,对线上和现实生活都产生长期影响。
• 受害者往往在损害已经发生后,才意识到聊天机器人正在“如何谈论”他们。
• 核心问题在于 AI 更重视表达流畅性而非事实核查,同时缺乏对机器人之间交流的监管机制。
Previous Article中国发布管理“类人”AI草案,收紧令人震惊的情感交互
Next Article AI已“终结”云优先战略:为何混合计算成为唯一的前进道路

