
当地时间1月5日,英伟达首席执行官黄仁勋在CES 2026上发表主题演讲,系统阐述了AI尤其是物理AI的未来趋势,并带来了其新一代AI计算平台的重磅消息。其中最引人注目的宣布是,代号为“Vera Rubin”的下一代AI服务器平台现已全面投入生产,这标志着AI基础算力即将迎来又一次巨大跃升。
黄仁勋首先强调了当前AI计算的疯狂需求。他指出,模型参数规模每年增长10倍,这本质上是一个极致的计算难题,必须依靠每年持续飞跃的计算技术来支撑。正是在此背景下,Vera Rubin平台应运而生,其目标正是为了应对指数级增长的训练与推理需求。
具体而言,Vera Rubin平台是一个集成了六款核心部件的协同设计系统,包括全新的Vera CPU、Rubin GPU、NVLink 6交换机等。其中,每颗Rubin GPU配备了8个HBM4显存堆栈,提供高达288GB的容量和22TB/s的带宽,为海量参数模型提供了强大的内存基础。这一全栈式设计旨在大幅缩短训练时间并降低推理成本。
尤为关键的是其革命性的性能提升。根据黄仁勋展示的数据,与上一代Blackwell平台相比,Rubin实现了多维度跨越。其组装时间从两小时锐减至五分钟,且80%部件采用液冷散热。在关键的性能指标上,Rubin的数据吞吐量约为Blackwell的10倍,而处理相同任务的代币成本仅为其十分之一。具体而言,在一个月内训练100万亿代币的测试中,所需GPU数量仅为Blackwell的四分之一。此外,其推理与训练性能分别达到Blackwell GB200的5倍和3.5倍。
与此同时,黄仁勋也概述了英伟达在自动驾驶、工业AI等物理AI领域的最新进展,包括开源Alpamayo自动驾驶模型以及与西门子的深度合作。这些应用层面的突破,恰恰依赖于Vera Rubin这类超级计算平台所提供的底层动力。Rubin的全面投产,不仅是为解决当下的计算难题,更是为下一波AI应用的爆发铺设了坚实的算力基石,预示着AI大规模部署的成本与效率将进入全新阶段。
原创文章,作者:柠萌,如若转载,请注明出处:https://www.kejixun.co/article/743011.html