- 新研究表明,ChatGPT、Claude、Gemini、Grok、Mistral和DeepSeek等大语言模型倾向于给出雷同的战略建议,更偏向于现代管理“术语(buzzwords)”,而非分析企业的具体背景。研究人员将这种现象称为“trendslop”。
- 研究团队测试了7个常见的战略矛盾:探索与利用、集权与分权、短期与长期、竞争与合作、颠覆性创新与改进、差异化与商品化,以及自动化与人类增强。
- 在数千次模拟中,AI模型经常选择同一侧:优先考虑差异化、通过AI增强人类、合作、长期思维和分权。无论企业背景如何,这些选择几乎都会出现。
- 对GPT-5进行的15,000多次测试表明,“更好的提示词(prompts)”几乎无法消除偏见。一个强力影响因素是选项顺序:仅调整选项顺序就能使结果改变约19%。
- 提供详细背景(如科技初创公司、银行、医院或非营利组织)仅能减少约11%的偏见,但无法消除。
- 原因在于训练数据:大语言模型从互联网学习,在那里,“创新”、“合作”或“差异化”等概念被视为积极的,而“商品化”或“集权”通常被视为过时的。
- 另一个风险是“混合陷阱”:当被允许时,AI经常建议结合两种矛盾的战略,如同时进行差异化和成本领先,传统战略理论认为这容易让企业“卡在中间”。
📌 研究表明,大语言模型并非许多领导者所认为的中立战略顾问。在数千次测试和对GPT-5的15,000多次模拟中,AI不断推荐差异化、合作和长期思维等“时髦”战略,而无视企业背景。这种给出雷同战略建议、偏向现代管理术语而非具体背景分析的趋势,被研究人员称为“trendslop”。这源于AI学习的互联网数据和现代管理文化。因此,大语言模型应用于产生想法和分析选项,但最终的战略决策仍必须由人类负责。

