“`html
单机架Exaflop时代:AI算力狂飙突进与未来隐忧
Nvidia GTC大会上,一款单机架服务器系统——基于Blackwell GPU的GB200 NVL72——实现了每秒一千万亿亿次浮点运算(Exaflops)的惊人算力。这标志着计算密度、能效和架构设计的巨大飞跃。想想看,仅仅三年前,橡树岭国家实验室的“Frontier”超级计算机,需要74个机架才能达到Exaflops级别!Nvidia的新系统性能密度提升了约73倍,年均性能增长率高达三倍。
然而,需要注意的是,Nvidia系统与Frontier的侧重点不同。前者采用低精度计算(4位和8位浮点运算),更适合AI训练和大型语言模型(LLM)等对速度优先于精度的应用;而后者则使用64位双精度计算,追求科学模拟所需的极高精度。这就好比,一个是追求速度的赛车,另一个是追求精准的航天器。

从我早年使用DEC KL 1090(每秒180万条指令,MIPS)的经历来看,如今的算力提升简直难以置信。那时,CRT显示器、硬线连接、1200bps的调制解调器……与如今的Exaflops相比,简直是天壤之别。虽然MIPS和FLOPS并非完全可比,但新系统性能大约是DEC KL 1090的5000亿倍!
Nvidia的路线图显示,下一代基于“Vera Rubin”超算架构的全机架系统,性能将是Blackwell的14倍,达到14-15 Exaflops。这不仅意味着算力的爆炸式增长,也意味着更高的能效和更小的空间占用。然而,如此庞大的算力需求,也带来了新的挑战。
5000亿美元的“星门计划”——在美国建设20个大型AI数据中心——便是这种需求的体现。但与此同时,一些分析师开始担忧AI数据中心产能过剩。DeepSeek的R1模型以更低的算力需求打破了这一趋势,微软取消部分数据中心租赁合同也引发了业界猜测。
然而,这或许并非单纯的产能过剩,而是现有基础设施难以满足下一代AI系统对电力和冷却的需求。中国一些数据中心因设计缺陷而面临困境,便是明证。推理模型(如DeepSeek-R1)在运行时(推理)消耗大量资源,驱动着各种高性能应用,包括深度研究助手和新型智能体AI系统。Nvidia CEO黄仁勋也指出,推理AI的计算需求是普通AI的100倍。
OpenAI的400亿美元融资,再次印证了AI领域的资本狂潮。这不仅关乎竞争,更关乎国家安全,以及AI带来的巨额利润(麦肯锡预测,AI每年可为企业增加4.4万亿美元利润)。
未来:变革与挑战并存
从Fortran编写的急救车调度系统到COBOL构建的学生成绩报告工具,再到如今的AI药物研发,信息系统始终致力于简化复杂性。而如今,强大的AI或许将帮助我们解决以往无法企及的难题。
GPT-4o的惊艳图像生成能力,Gemini 2.5 Pro的先进推理能力,Runway的突破性视频生成技术……这些进展预示着AI领域的快速发展。未来,AI能否真正造福人类,抑或带来新的风险?这仍是一个未知数。但可以肯定的是,算力的指数级增长将带来前所未有的创新,同时也需要我们认真思考责任、监管和约束。
作者:Gary Grossman,Edelman科技业务执行副总裁兼Edelman AI卓越中心全球负责人
“`
