英伟达首席执行官黄仁勋在GTC开发者大会上再次引爆行业关注,宣布其新一代AI超级计算机“Vera Rubin”将提前投入市场。与上一代Blackwell架构初期遭遇的产能瓶颈不同,Vera Rubin的生产流程异常顺利,首批系统已率先部署在微软Azure云端。这一进展远超分析师此前预测的2026年第三季度上市时间表,显示出英伟达在供应链管理和芯片良率控制上的显著突破。
黄仁勋在圣何塞的舞台上透露,台积电(TSMC)的芯片流片(Tape-out)过程比预期更为顺畅,大幅降低了废品率。这意味着客户在量产初期就能获得充足的芯片供应。Vera Rubin并非单一处理器,而是一个包含七种芯片类型和五个计算模块的完整系统。据英伟达测算,该系统每秒可生成高达7亿个AI令牌(Tokens),而2022年推出的Hopper架构仅能达到约200万,这意味着Hopper架构在四年后已显经济过时。
英伟达的战略正从单纯的芯片供应商向全栈平台构建者转变。通过推出完全自研的88核“Vera”CPU,英伟达摆脱了对英特尔或AMD传统服务器的依赖。结合其专有的NVLink 72网络技术和存储方案,英伟达能够像拼搭乐高积木一样,将CPU、GPU、网络加速器等模块无缝整合。这种垂直整合不仅消除了对传统线缆连接的依赖,更将数据中心重新定义为“AI工厂”——其核心任务不再是存储文件,而是高效生产AI令牌。
在能效方面,英伟达宣称新系统每瓦特算力较前代提升35倍,这在电力成本日益成为AI扩张瓶颈的背景下至关重要。为此,英伟达首次集成了从初创公司Groq收购团队并授权的“语言处理单元(LPU)”芯片。LPU专为低延迟的AI推理任务设计,与负责高吞吐量的Rubin GPU形成互补。黄仁勋指出,高吞吐量与低延迟传统上被视为互斥的“敌人”,而新架构通过Vera CPU的调度,首次实现了两者的兼顾。
展望未来,英伟达将目光投向了“物理AI”领域,即在GTC展会上展示的百余款机器人。通过与比亚迪、现代、日产等车企的新合作,英伟达正推动AI从数字世界走向现实世界,控制自动驾驶汽车和工业机器人。黄仁勋认为,当AI开始操控实体机器时,算力需求将呈指数级增长。他预测,未来几年AI算力市场规模有望达到每年1万亿美元,甚至提出了利用太空太阳能供电的数据中心概念。
对于中国AI产业而言,英伟达通过全栈自研和软硬一体架构大幅降低能耗、提升效率的做法,为国内算力基础设施建设提供了重要参考,特别是在应对电力瓶颈和追求**推理速度的场景下,模块化、专用化的芯片设计思路值得深入借鉴。