- 云优先(Cloud-first)战略曾主导了十多年,但AI的爆发正迫使企业重新评估云端和本地部署(on-premises)的角色。
- 根据德勤(Deloitte)的分析,随着模型、智能体(agents)和推理量的激增,为云优先构建的基础设施已不再适合“AI经济”。
- 云成本的不断攀升是最大的问题:尽管AI代币(token)成本在两年内下降了280倍,但许多企业每月的云账单仍高达数千万美元。
- 德勤指出了一个“引爆点”,即当云成本超过同等本地系统总成本的60-70%时,资本投资(CAPEX)变得比运营成本(OPEX)更具吸引力。
- 延迟是一个严重的障碍:需要低于10毫秒响应时间的AI应用很难接受完全在云端处理。
- 持久性和抗中断能力使得本地部署在关键AI任务中备受推崇,这些任务在云连接丢失时不能停止运行。
- 数据主权促使许多企业将基础设施“回流”,以避免完全依赖司法管辖区以外的供应商。
- 德勤提出了三层模型:云用于灵活性,本地部署用于成本和稳定性能,边缘计算(edge)用于实时决策。
- 系统架构师认为,混合模式允许利用云进行测试,同时将敏感数据和低延迟工作负载保留在本地。
📌 AI正在逆转曾经被视为默认的云优先思维。随着成本上升、低延迟要求、数据主权和系统耐用性等问题的出现,混合模式作为一种平衡的解决方案正在兴起。云对于测试和扩展仍然很重要,但本地部署和边缘计算正在重新成为大规模生产级AI的中心。企业若想优化投资回报率,AI迫使其设计灵活的基础设施,而不是依赖单一的选择。

