- 研究表明,即时信息错误,用户也倾向于信任 ChatGPT、Gemini 或 Claude 等 AI。
- 根据 BBC 此前的一项研究,AI 聊天机器人在 45% 的情况下会给出错误答案。
- 在实验中,超过 50% 的参与者即使在非强制的情况下也选择使用 ChatGPT。
- 当用户让 AI 代替自己做决定时,就会出现“认知投降”(cognitive surrender)现象。
- 在 359 人的受试小组中,他们在 AI 正确时有 92.7% 的时间遵循 AI 的建议。
- 令人担忧的是,当 AI 错误时,他们仍有 79.8% 的时间选择遵循 AI。
- 用户不仅盲从,而且对 AI 提供的答案表现出更高的自信度。
- AI 正在导致人类“思维外包”(outsourcing thinking)——将思考任务移交给机器。
- 这削弱了批判性思维和验证信息的能力。
- 随着 AI 进一步融入生活,依赖程度将日益增加。
- 风险不仅来自更智能的 AI,还来自人类更深程度的依赖。
- 与其他技术对比:正如空调或汽车减少了体力活动,AI 可能会减少思维活动。
📌 结论: 研究揭示了一个令人担忧的现实:近 80% 的人即使在 AI 错误时仍选择相信并追随它,反映了“认知投降”现象。尽管错误率高达 45%,AI 仍未达到绝对可靠,但正在逐渐取代人类的思考过程。如果这一趋势持续下去,人类可能会丧失批判性思维能力——这是在 AI 时代进行决策和生存的核心技能。
