核心要点👉
- 💡 Rubin GPU采用3纳米制程,集成336亿晶体管
- ⚡ 推理算力提升5倍,达50 petaflops
- 🏗️ NVL72系统提供3.6 exaflops推理算力
- 🔒 首次实现全机架级机密计算
- 🤝 合作伙伴包括AWS、Google等,预计2026年部署
数智朋克讯,在拉斯维加斯举办的国际消费电子展上,NVIDIA揭开了其下一代人工智能计算平台Rubin的神秘面纱。这一全新架构包含六款协同设计的芯片,标志着人工智能硬件开发进入系统级优化新阶段。
该平台的核心组件包括采用3纳米制程的Rubin图形处理器,其采用双芯片封装设计,每个芯片集成336亿个晶体管。新一代Transformer引擎支持自适应压缩技术,在NVFP4精度下可提供50 petaflops的推理算力,较前代产品提升达五倍。与之配套的Vera中央处理器采用88个定制化Olympus核心,支持Armv9.2架构,通过NVLink-C2C互联技术实现1.8TB/s的传输带宽。
互联技术方面,第六代NVLink将GPU间通信带宽提升至3.6TB/s,其交换芯片采用400Gbps SerDes技术,需要液冷散热解决方案。存储子系统配备288GB HBM4内存,提供22TB/s的带宽表现,相比前代提升2.8倍。平台还支持1.5TB LPDDR5X内存,采用可更换的SOCAMM模块设计。
在系统架构层面,Vera Rubin NVL72机架系统整合72个GPU和36个CPU,总算力达到3.6 exaflops(推理)和2.5 exaflops(训练)。通过全模块化设计,系统组装时间从100分钟缩短至6分钟,大幅提升部署效率。该平台还首次实现全机架级机密计算,为CPU、GPU和NVLink域提供完整的数据安全保护。
网络连接由ConnectX-9超级网卡和BlueField-4数据处理单元提供支持,分别实现1.6Tbps和800Gbps的网络带宽。Spectrum-6以太网交换机采用共封装光学技术,提供409.6Tbps聚合带宽,在能效和可靠性方面均有显著提升。
为优化大规模推理工作负载,NVIDIA推出了推理上下文存储平台,通过键值缓存技术实现上下文数据的共享和重用。该解决方案可提升五倍推理吞吐量,同时改善能效表现。
行业合作伙伴包括AWS、谷歌云、微软和Oracle等云服务提供商,预计在2026年下半年开始提供基于Rubin平台的服务实例。硬件合作伙伴戴尔、惠普、联想和超微等厂商将推出相应的服务器产品。
人工智能研究机构如OpenAI、Anthropic、Meta和xAI等都计划采用该平台训练更大规模的模型,并降低长上下文、多模态系统的部署成本。红帽公司也宣布为其提供全栈软件支持,包括企业级Linux和OpenShift平台。
NVIDIA通过年度更新节奏持续推动人工智能计算性能边界,Rubin平台的出现将进一步降低大规模模型训练和推理的总体拥有成本,加速人工智能技术的普及应用。







粤公网安备44030002001270号