英伟达GTC2026发布全栈服务器

发布时间:2026-03-20 14:42  点击:1次

在刚刚于圣何塞开幕的GTC 2026大会上,人工智能芯片霸主英伟达(Nvidia)正式宣布战略升级:不再满足于仅向服务器制造商出售加速芯片,而是直接提供“交钥匙”式的完整AI服务器解决方案。英伟达创始人兼CEO黄仁勋在演讲中展示了一系列专为超大规模数据中心和大型企业设计的预配置服务器,并呼吁客户尽快采购,以优化AI项目的成本与效率。

此次发布的核心在于构建一套完整的硬件生态。除了延续高端的DGX NVL-72机柜(现升级为搭载Rubin GPU、Vera处理器及NVLink-6交换机),英伟达还推出了LPX推理服务器、Vera应用服务器、STX存储机柜以及SPX布线机柜。这些设备共同构成了一个标准化的MGX机架系统,该系统允许混合部署不同功能的模块。传统服务器厂商如戴尔、HPE、联想等若想生产兼容设备,必须购买英伟达的授权许可,甚至可以直接采购英伟达的主板并贴上自己的品牌。

在技术架构上,最引人注目的创新是LPX服务器集群。该集群集成了八颗来自Groq的LPU(语言处理单元)。英伟达在去年收购了Groq团队后,将其技术融入自身生态,用于分担推理任务中的“解码”环节。具体流程为:由搭载Rubin GPU的DGX服务器负责计算量巨大的“预填充”阶段,随后将任务通过以太网转交给LPX服务器。Groq芯片采用片上SRAM缓存,速度高达150TB/s,远超Rubin GPU的22TB/s,从而极大降低了推理延迟。尽管单颗芯片缓存容量较小,但通过集群化部署(如256颗芯片组合),可轻松容纳大型语言模型(LLM)的全部数据。

此外,英伟达还发布了仅搭载Vera处理器的服务器集群,专为AI应用运行设计。Vera是基于ARM架构的处理器,内置88个Olympus核心,其内存总线带宽达到1.2TB/s,是传统x86架构的三倍,同时能耗降低一半。这种设计旨在满足AI应用对高并发、低延迟及低功耗的严苛需求。英伟达强调,其软件栈(包括CUDA、Nemo等)与Vera处理器深度绑定,只有在其全栈硬件上才能发挥**性能。目前,Ubuntu和Red Hat等操作系统已针对Vera架构及Kubernetes容器编排进行了深度优化。

在硬件标准方面,英伟达推出了全新的MGX机架格式,要求合作伙伴遵循。该格式采用21英寸宽(符合OCP标准),支持液冷散热,并采用800伏特高压供电以支撑兆瓦级功耗。交换机接口也进行了革新,推出了NVL-8和ETL-256等新规格,分别支持NVLink和基于Spectrum-X协议的以太网连接。最后,黄仁勋还展示了名为“Kyber”的垂直刀片式服务器设计,可在单柜内集成144颗Rubin GPU和72颗Vera处理器,进一步提升了空间利用率。

对于中国AI行业从业者而言,英伟达此举标志着AI基础设施竞争已从单一芯片性能比拼转向全栈软硬一体化解决方案的较量。虽然美国对高端芯片的出口管制可能影响部分硬件的获取,但英伟达构建的封闭生态和标准化接口(如MGX、Spectrum-X)为行业树立了新的**,提示中国企业在推进国产算力建设时,需同步重视软件栈优化、异构计算调度及液冷等基础设施的标准化布局。

北京源深佳创科技有限公司

联系人:
周源深(先生)
电话:
010-66173488
地址:
北京市西城区刘海胡同7号
邮件:
ysjc@vip.sina.com
gtc2026新闻
拨打电话 请卖家联系我