• Lennox 数据中心解决方案的数据显示:到 2030 年,专用 AI 机架的功耗可能高达 1MW,这个水平曾是一个完整数据中心的用电量。与此同时,普通机架的功耗仅逐渐增加到 30-50kW。
  • 这意味着 AI 机架将比传统机架消耗多 20-30 倍的能源,对供电和冷却系统造成巨大压力。
  • Lennox 总监 Ted Pulfer 强调:冷却已成为行业的中心,不再仅仅是辅助基础设施。液体冷却等方法被视为战略重点。
  • 事实上,行业正在比以往任何时候都更加紧密地合作:制造商、工程师和客户正在实验室和实际部署中测试新解决方案,以应对散热难题。
  • 新趋势:用高压直流电(HVDC)(+/-400V) 代替传统的低压交流电(AC),这有助于减少电能损耗和电缆截面积。中央配电单元(CDU)协调液体流向机架,然后导向直接安装在最热组件上的散热板(cold plates)。
  • Microsoft 正在试验微流控技术(microfluidics)——在芯片背面蚀刻微小通道,让冷却剂直接流经硅片。结果:散热效率比冷板高 3 倍,GPU 温升降低 65%。结合 AI 监测热点,冷却剂的分配更加精确。
  • 尽管超大规模数据中心运营商(如 Microsoft、Google、Amazon)处于领先地位,但 Pulfer 认为小型运营商仍有机会,因为市场变化迅速,大订单造成供应链瓶颈,为更灵活的参与者打开了大门。
  • 数字基础设施行业的重点已经转变:不再仅仅是计算性能,而是持续运行的散热能力。

📌 预测到 2030 年,每个 AI 机架可能达到 1MW,比普通机架(30-50kW)高 20-30 倍。最大的挑战不仅是计算能力,还有能源和散热。微流控等新技术有助于将效率提高 3 倍,GPU 温度降低 65%。数字基础设施的竞争现在取决于配电和散热的能力,这将决定全球数据中心的未来。

Share.
联系方式
© 2025 Vietmetric
Exit mobile version