• 高门大户网高门大户网

    黄仁勋CES2026最新演讲:三个关键话题,一台“芯片怪兽”

    \u003cdiv class=\"rich_media_content\"\u003e\u003c!--VIDEO_0--\u003e\u003cspan style=\"text-align: center;font-size: 13px;color: rgb(136, 136, 136); line-height: 14px;margin-bottom: 22px;margin-top: 8px; display: block;\"\u003e\u003c!--NO_READ_BEGIN--\u003e黄仁勋2026 CES演讲全程视频(AI字幕版)\u003c!--NO_READ_END--\u003e\u003c/span\u003e\u003cp\u003e\u003cstrong\u003e\u003cspan style=\"font-size: 18px\"\u003e文丨李海伦 苏扬\u003c/span\u003e\u003c/strong\u003e\u003c/p\u003e\u003cp\u003e\u003cstrong\u003e\u003cspan style=\"font-size: 18px\"\u003e编辑丨徐青阳\u003c/span\u003e\u003c/strong\u003e\u003c/p\u003e\u003cp\u003e\u003cspan style=\"font-size: 18px\"\u003e北京时间1月6日,英伟达CEO黄仁勋身着标志性皮衣再次站在CES2026的主舞台上。\u003c/span\u003e\u003c/p\u003e\u003cp\u003e\u003cspan style=\"font-size: 18px\"\u003e2025年CES,英伟达展示了量产的Blackwell芯片和完整的物理AI技术栈。在会上,黄仁勋强调,一个“物理AI时代”正在开启。 他描绘了一个充满想象力的未来:自动驾驶汽车具备推理能力,机器人能够理解并思考,AI Agent(智能体)可以处理百万级 token 的长上下文任务。\u003c/span\u003e\u003c/p\u003e\u003cp\u003e\u003cspan style=\"font-size: 18px\"\u003e转眼一年过去,AI行业经历了巨大的变革演进。黄仁勋在发布会上回顾这一年的变化时,重点提到了开源模型。\u003c/span\u003e\u003c/p\u003e\u003cp\u003e\u003cspan style=\"font-size: 18px\"\u003e他说,\u003c/span\u003e\u003cstrong\u003e\u003cspan style=\"font-size: 18px\"\u003e像\u003c!--VERTICAL_CARD_BEGIN_0--\u003eDeepSeek R1\u003c!--VERTICAL_CARD_END_0--\u003e这样的开源推理模型,让整个行业意识到:当开放、全球协作真正启动后,AI 的扩散速度会极快\u003c/span\u003e\u003c/strong\u003e\u003cspan style=\"font-size: 18px\"\u003e。尽管开源模型在整体能力上仍比最前沿模型慢大约半年,但每隔六个月就会追近一次,而且下载量和使用量已经呈爆发式增长。\u003c/span\u003e\u003c/p\u003e\u003cdiv data-exeditor-arbitrary-box=\"image-box\"\u003e\u003c!--IMG_0--\u003e\u003c/div\u003e\u003cp\u003e\u003cspan style=\"font-size: 18px\"\u003e相比2025年更多展示愿景与可能性,这一次英伟达开始系统性地希望解决“如何实现”的问题:\u003c/span\u003e\u003cstrong\u003e\u003cspan style=\"font-size: 18px\"\u003e围绕推理型AI,补齐长期运行所需的算力、网络与存储基础设施,显著压低推理成本,并将这些能力直接嵌入自动驾驶和机器人等真实场景\u003c/span\u003e\u003c/strong\u003e\u003cspan style=\"font-size: 18px\"\u003e。\u003c/span\u003e\u003c/p\u003e\u003cp\u003e\u003cspan style=\"font-size: 18px\"\u003e在本次黄仁勋在CES上的演讲,围绕三条主线展开:\u003c/span\u003e\u003c/p\u003e\u003cul class=\"nonUnicode-list-style-type\" data-list-style-type=\"circle\" classname=\"ex-list\" data-ex-list=\"ul\" style=\"--ul-list-style-type: \u0026#39;\\25EF\u0026#39;\"\u003e\u003cli\u003e\u003cp\u003e\u003cspan style=\"font-size: 18px\"\u003e在系统与基础设施层面,英伟达\u003c/span\u003e\u003cstrong\u003e\u003cspan style=\"font-size: 18px\"\u003e围绕长期推理需求重构了算力、网络与存储架构\u003c/span\u003e\u003c/strong\u003e\u003cspan style=\"font-size: 18px\"\u003e。以 Rubin 平台、NVLink 6、Spectrum-X 以太网和推理上下文内存存储平台为核心,这些更新直指推理成本高、上下文难以持续和规模化受限等瓶颈,\u003c/span\u003e\u003cstrong\u003e\u003cspan style=\"font-size: 18px\"\u003e解决AI多想一会、算得起、跑得久的问题。\u003c/span\u003e\u003c/strong\u003e\u003c/p\u003e\u003c/li\u003e\u003cli\u003e\u003cp\u003e\u003cspan style=\"font-size: 18px\"\u003e在模型层面,\u003c!--SECURE_LINK_BEGIN_0--\u003e英伟达\u003c!--SECURE_LINK_END_0--\u003e将\u003c/span\u003e\u003cstrong\u003e\u003cspan style=\"font-size: 18px\"\u003e推理型 AI(Reasoning / Agentic AI)置于核心位置\u003c/span\u003e\u003c/strong\u003e\u003cspan style=\"font-size: 18px\"\u003e。通过Alpamayo、Nemotron、Cosmos Reason 等模型与工具,推动 AI 从“生成内容”迈向能够持续思考、从“一次性响应的模型”转向“可以长期工作的智能体”。\u003c/span\u003e\u003c/p\u003e\u003c/li\u003e\u003cli\u003e\u003cp\u003e\u003cspan style=\"font-size: 18px\"\u003e在应用与落地层面,这些\u003c/span\u003e\u003cstrong\u003e\u003cspan style=\"font-size: 18px\"\u003e能力被直接引入自动驾驶和机器人等物理 AI 场景\u003c/span\u003e\u003c/strong\u003e\u003cspan style=\"font-size: 18px\"\u003e。无论是 Alpamayo 驱动的自动驾驶体系,还是 GR00T 与 Jetson 的机器人生态,都在通过云厂商和企业级平台合作,推动规模化部署。\u003c/span\u003e\u003c/p\u003e\u003c/li\u003e\u003c/ul\u003e\u003cdiv data-exeditor-arbitrary-box=\"image-box\"\u003e\u003c!--IMG_1--\u003e\u003c/div\u003e\u003ch2\u003e\u003c!--HPOS_0--\u003e\u003cspan style=\"font-size: 18px\"\u003e01 从路线图到量产:Rubin首次完整披露性能数据\u003c/span\u003e\u003c/h2\u003e\u003cp\u003e\u003cspan style=\"font-size: 18px\"\u003e\u003c!--AIPOS_0--\u003e在本次CES上,英伟达首次完整披露了Rubin架构的技术细节。\u003c/span\u003e\u003c/p\u003e\u003cp\u003e\u003cspan style=\"font-size: 18px\"\u003e演讲中,\u003c!--SECURE_LINK_BEGIN_1--\u003e黄仁勋\u003c!--SECURE_LINK_END_1--\u003e从\u003c/span\u003e\u003cstrong\u003e\u003cspan style=\"font-size: 18px\"\u003eTest-time Scaling(推理时扩展)开始铺垫,\u003c/span\u003e\u003c/strong\u003e\u003cspan style=\"font-size: 18px\"\u003e这个概念可以理解为,想要AI变聪明,不再只是让它“多努力读书”,而是靠“遇到问题时多想一会儿”。\u003c/span\u003e\u003c/p\u003e\u003cp\u003e\u003cspan style=\"font-size: 18px\"\u003e过去,AI 能力的提升主要靠训练阶段砸更多算力,把模型越做越大;而现在,新的变化是哪怕模型不再继续变大,只要在每次使用时给它多一点时间和算力去思考,结果也能明显变好。\u003c/span\u003e\u003c/p\u003e\u003cp\u003e\u003cspan style=\"font-size: 18px\"\u003e如何让“AI多思考一会儿”变得经济可行?Rubin架构的新一代AI计算平台就是来解决这个问题。\u003c/span\u003e\u003c/p\u003e\u003cp\u003e\u003cspan style=\"font-size: 18px\"\u003e黄仁勋介绍,这是一套完整的下一代AI计算系统,\u003c/span\u003e\u003cstrong\u003e\u003cspan style=\"font-size: 18px\"\u003e通过Vera CPU、Rubin GPU、NVLink 6、ConnectX-9、BlueField-4、Spectrum-6的协同设计,以此实现推理成本的革命性下降。\u003c/span\u003e\u003c/strong\u003e\u003c/p\u003e\u003cdiv data-exeditor-arbitrary-box=\"image-box\"\u003e\u003c!--IMG_2--\u003e\u003c/div\u003e\u003cp\u003e\u003cspan style=\"font-size: 18px\"\u003e英伟达Rubin GPU 是 Rubin 架构中负责 AI 计算的核心芯片,目标是显著降低推理与训练的单位成本。\u003c/span\u003e\u003c/p\u003e\u003cp\u003e\u003cspan style=\"font-size: 18px\"\u003e说白了,\u003c/span\u003e\u003cstrong\u003e\u003cspan style=\"font-size: 18px\"\u003eRubin GPU 核心任务是“让 AI 用起来更省、更聪明”。\u003c/span\u003e\u003c/strong\u003e\u003c/p\u003e\u003cp\u003e\u003cspan style=\"font-size: 18px\"\u003eRubin GPU 的核心能力在于:同一块 GPU 能干更多活。它一次能处理更多推理任务、记住更长的上下文,和其他 GPU 之间的沟通也更快,这意味着很多原本要靠“多卡硬堆”的场景,现在可以用更少的 GPU 完成。\u003c/span\u003e\u003c/p\u003e\u003cp\u003e\u003cspan style=\"font-size: 18px\"\u003e结果就是,\u003c/span\u003e\u003cstrong\u003e\u003cspan style=\"font-size: 18px\"\u003e推理不但更快了,而且明显更便宜。\u003c/span\u003e\u003c/strong\u003e\u003c/p\u003e\u003cp\u003e\u003cspan style=\"font-size: 18px\"\u003e黄仁勋现场给大家复习了Rubin架构的NVL72硬件参数:包含220万亿\u003c!--SECURE_LINK_BEGIN_2--\u003e晶体管\u003c!--SECURE_LINK_END_2--\u003e,带宽260 TB/秒,\u003c/span\u003e\u003cstrong\u003e\u003cspan style=\"font-size: 18px\"\u003e是业界首个支持机架规模机密计算的平台。\u003c/span\u003e\u003c/strong\u003e\u003c/p\u003e\u003cdiv data-exeditor-arbitrary-box=\"image-box\"\u003e\u003c!--IMG_3--\u003e\u003c/div\u003e\u003cp\u003e\u003cspan style=\"font-size: 18px\"\u003e整体来看,相比 Blackwell,Rubin GPU 在关键指标上实现跨代跃升:\u003c/span\u003e\u003cstrong\u003e\u003cspan style=\"font-size: 18px\"\u003eNVFP4 推理性能提升至 50 PFLOPS(5 倍)、训练性能提升至 35 PFLOPS(3.5 倍),HBM4 内存带宽提升至 22 TB/s(2.8 倍),单 GPU 的 NVLink 互连带宽翻倍至 3.6 TB/s。\u003c/span\u003e\u003c/strong\u003e\u003c/p\u003e\u003cp\u003e\u003cspan style=\"font-size: 18px\"\u003e这些提升共同作用,使单个 GPU 能处理更多推理任务与更长上下文,从根本上减少对 GPU 数量的依赖。\u003c/span\u003e\u003c/p\u003e\u003cdiv data-exeditor-arbitrary-box=\"image-box\"\u003e\u003c!--IMG_4--\u003e\u003c/div\u003e\u003cp\u003e\u003cspan style=\"font-size: 18px\"\u003eVera CPU是专为数据移动和Agentic处理设计的核心组件,采用88个英伟达自研Olympus核心,配备1.5 TB系统内存(是上代Grace CPU的3倍),通过1.8 TB/s的NVLink-C2C技术实现CPU与GPU之间的一致性内存访问。\u003c/span\u003e\u003c/p\u003e\u003cp\u003e\u003cstrong\u003e\u003cspan style=\"font-size: 18px\"\u003e与传统通用CPU不同,Vera专注于AI推理场景中的数据调度和多步骤推理逻辑处理,本质上是让“AI多想一会儿”得以高效运行的系统协调者。\u003c/span\u003e\u003c/strong\u003e\u003c/p\u003e\u003cp\u003e\u003cstrong\u003e\u003cspan style=\"font-size: 18px\"\u003eNVLink 6通过3.6 TB/s的带宽和网络内计算能力\u003c/span\u003e\u003c/strong\u003e\u003cspan style=\"font-size: 18px\"\u003e,让Rubin架构中的72个GPU能像一个超级GPU一样协同工作,这\u003c/span\u003e\u003cstrong\u003e\u003cspan style=\"font-size: 18px\"\u003e是实现“推理成本降至1/7”的关键基础设施\u003c/span\u003e\u003c/strong\u003e\u003cspan style=\"font-size: 18px\"\u003e。\u003c/span\u003e\u003c/p\u003e\u003cp\u003e\u003cspan style=\"font-size: 18px\"\u003e这样一来,AI 在推理时需要的数据和中间结果可以迅速在 GPU 之间流转,不用反复等待、拷贝或重算。\u003c/span\u003e\u003c/p\u003e\u003cdiv data-exeditor-arbitrary-box=\"image-box\"\u003e\u003c!--IMG_5--\u003e\u003c/div\u003e\u003cdiv data-exeditor-arbitrary-box=\"image-box\"\u003e\u003c!--IMG_6--\u003e\u003c/div\u003e\u003cp\u003e\u003cspan style=\"font-size: 18px\"\u003e在 Rubin 架构中,\u003c/span\u003e\u003cstrong\u003e\u003cspan style=\"font-size: 18px\"\u003eNVLink-6 负责 GPU 内部协同计算,BlueField-4 负责上下文与数据调度,而 ConnectX-9 则承担系统对外的高速网络连接\u003c/span\u003e\u003c/strong\u003e\u003cspan style=\"font-size: 18px\"\u003e。它确保 Rubin 系统能够与其他机架、数据中心和云平台高效通信,是大规模训练和推理任务顺利运行的前提条件。\u003c/span\u003e\u003c/p\u003e\u003cp style=\"line-height: 1.3; margin: 3pt 0pt; text-align: justify\"\u003e\u003c/p\u003e\u003cp data-exeditor-arbitrary-box=\"image-box\" style=\"text-align: center\"\u003e\u003c!--IMG_7--\u003e\u003c/p\u003e\u003cp\u003e\u003cspan style=\"font-size: 18px\"\u003e相比上一代架构,英伟达也给出具体直观的数据:相比 NVIDIA Blackwell 平台,可将推理阶段的 token 成本最高降低10倍,并将训练混合专家模型(MoE)所需的 GPU 数量减少至原来的1/4。\u003c/span\u003e\u003c/p\u003e\u003cp\u003e\u003cspan style=\"font-size: 18px\"\u003e英伟达官方表示,\u003c/span\u003e\u003cstrong\u003e\u003cspan style=\"font-size: 18px\"\u003e目前微软已承诺在下一代Fairwater AI超级工厂中部署数十万Vera Rubin芯片\u003c/span\u003e\u003c/strong\u003e\u003cspan style=\"font-size: 18px\"\u003e,CoreWeave等云服务商将在2026年下半年提供Rubin实例,这套“让AI多想一会儿”的基础设施正在从技术演示走向规模化商用。\u003c/span\u003e\u003c/p\u003e\u003cp\u003e\u003c/p\u003e\u003cp style=\"text-align: center\"\u003e\u003c!--IMG_8--\u003e\u003c/p\u003e\u003ch2\u003e\u003c!--HPOS_1--\u003e\u003cspan style=\"font-size: 18px\"\u003e02 “存储瓶颈”如何解决?\u003c/span\u003e\u003c/h2\u003e\u003cp\u003e\u003cspan style=\"font-size: 18px\"\u003e\u003c!--AIPOS_1--\u003e让AI“多想一会儿”还面临一个关键技术挑战:上下文数据该放在哪里?\u003c/span\u003e\u003c/p\u003e\u003cp\u003e\u003cspan style=\"font-size: 18px\"\u003e当AI处理需要多轮对话、多步推理的复杂任务时,会产生大量上下文数据(KV Cache)。传统架构要么把它们塞进昂贵且容量有限的GPU内存,要么放到普通存储里(访问太慢)。这个“存储瓶颈”如果不解决,再强的GPU也会被拖累。\u003c/span\u003e\u003c/p\u003e\u003cp\u003e\u003cspan style=\"font-size: 18px\"\u003e针对这个问题,英伟达在本次CES上首次完整披露了由BlueField-4驱动的\u003c/span\u003e\u003cstrong\u003e\u003cspan style=\"font-size: 18px\"\u003e推理上下文内存存储平台(Inference Context Memory Storage Platform)\u003c/span\u003e\u003c/strong\u003e\u003cspan style=\"font-size: 18px\"\u003e,核心目标是在GPU内存和传统存储之间创建一个“第三层”。既足够快,又有充足容量,还能支撑AI长期运行。\u003c/span\u003e\u003c/p\u003e\u003cp\u003e\u003cspan style=\"font-size: 18px\"\u003e从技术实现上看,这个平台并不是单一组件在发挥作用,而是一套协同设计的结果:\u003c/span\u003e\u003c/p\u003e\u003cul class=\"nonUnicode-list-style-type\" data-list-style-type=\"circle\" classname=\"ex-list\" data-ex-list=\"ul\" style=\"--ul-list-style-type: \u0026#39;\\25EF\u0026#39;\"\u003e\u003cli\u003e\u003cp\u003e\u003cspan style=\"font-size: 18px\"\u003eBlueField-4 负责在硬件层面加速上下文数据的管理与访问,减少数据搬移和系统开销;\u003c/span\u003e\u003c/p\u003e\u003c/li\u003e\u003cli\u003e\u003cp\u003e\u003cspan style=\"font-size: 18px\"\u003eSpectrum-X 以太网提供高性能网络,支持基于 RDMA 的高速数据共享;\u003c/span\u003e\u003c/p\u003e\u003c/li\u003e\u003cli\u003e\u003cp\u003e\u003cspan style=\"font-size: 18px\"\u003eDOCA、NIXL和Dynamo等软件组件,则负责在系统层面优化调度、降低延迟、提升整体吞吐。\u003c/span\u003e\u003c/p\u003e\u003c/li\u003e\u003c/ul\u003e\u003cp\u003e\u003cspan style=\"font-size: 18px\"\u003e我们可以理解为,\u003c/span\u003e\u003cstrong\u003e\u003cspan style=\"font-size: 18px\"\u003e这套平台的做法是,将原本只能放在GPU内存里的上下文数据,扩展到一个独立、高速、可共享的“记忆层”中。\u003c/span\u003e\u003c/strong\u003e\u003cspan style=\"font-size: 18px\"\u003e一方面释放 GPU 的压力,另一方面又能在多个节点、多个 AI 智能体之间快速共享这些上下文信息。\u003c/span\u003e\u003c/p\u003e\u003cp\u003e\u003cspan style=\"font-size: 18px\"\u003e在实际效果方面,英伟达官方给出的数据是:在特定场景下,这种方式可以让每秒处理的 token数提升最高达5倍,并实现同等水平的能效优化。\u003c/span\u003e\u003c/p\u003e\u003cp\u003e\u003cspan style=\"font-size: 18px\"\u003e黄仁勋在发布会中多次强调,AI 正在从“一次性对话的聊天机器人”,演进为真正的智能协作体:它们需要理解现实世界、持续推理、调用工具完成任务,并同时保留短期与长期记忆。这正是 Agentic AI 的核心特征。推理上下文内存存储平台,正是为这种长期运行、反复思考的 AI 形态而设计,通过扩大上下文容量、加快跨节点共享,让多轮对话和多智能体协作更加稳定,不再“越跑越慢”。\u003c/span\u003e\u003c!--MID_AD_0--\u003e\u003c!--EOP_0--\u003e\u003c/p\u003e\u003c!--PARAGRAPH_0--\u003e\u003ch2\u003e\u003c!--HPOS_2--\u003e\u003cspan style=\"font-size: 18px\"\u003e03 推出新一代DGX SuperPOD :让576个GPU协同工作\u003c/span\u003e\u003c/h2\u003e\u003cp\u003e\u003cspan style=\"font-size: 18px\"\u003e\u003c!--AIPOS_2--\u003e英伟达在本次CES上宣布推出基于Rubin架构的新一代DGX SuperPOD(超节点),将Rubin从单机架扩展到整个数据中心的完整方案。\u003c/span\u003e\u003c/p\u003e\u003cp\u003e\u003cspan style=\"font-size: 18px\"\u003e什么是DGX SuperPOD?\u003c/span\u003e\u003c/p\u003e\u003cp\u003e\u003cspan style=\"font-size: 18px\"\u003e如果说Rubin NVL72是一个装有72个GPU的“超级机架”,那么DGX SuperPOD就是把多个这样的机架连接起来,形成一个更大规模的AI计算集群。\u003c/span\u003e\u003cstrong\u003e\u003cspan style=\"font-size: 18px\"\u003e这次发布的版本由8个Vera Rubin NVL72机架组成,相当于576个GPU协同工作。\u003c/span\u003e\u003c/strong\u003e\u003c/p\u003e\u003cp\u003e\u003cspan style=\"font-size: 18px\"\u003e当AI任务规模继续扩大时,单个机架的576个GPU可能还不够。比如训练超大规模模型、同时服务数千个Agentic AI智能体、或者处理需要数百万token上下文的复杂任务。\u003c/span\u003e\u003cstrong\u003e\u003cspan style=\"font-size: 18px\"\u003e这时就需要多个机架协同工作,而DGX SuperPOD就是为这种场景设计的标准化方案。\u003c/span\u003e\u003c/strong\u003e\u003c/p\u003e\u003cp\u003e\u003cspan style=\"font-size: 18px\"\u003e对于企业和云服务商来说,DGX SuperPOD提供的是一个“开箱即用”的大规模AI基础设施方案。不需要自己研究如何把数百个GPU连接起来、如何配置网络、如何管理存储等问题。\u003c/span\u003e\u003c/p\u003e\u003cp\u003e\u003cspan style=\"font-size: 18px\"\u003e新一代DGX SuperPOD五大核心组件:\u003c/span\u003e\u003c/p\u003e\u003cul class=\"nonUnicode-list-style-type\" data-list-style-type=\"circle\" classname=\"ex-list\" data-ex-list=\"ul\" style=\"--ul-list-style-type: \u0026#39;\\25EF\u0026#39;\"\u003e\u003cli\u003e\u003cp\u003e\u003cspan style=\"font-size: 18px\"\u003e8个Vera Rubin NVL72机架 - 提供计算能力的核心,每个机架72个GPU,总共576个GPU\u003c/span\u003e\u003c/p\u003e\u003c/li\u003e\u003cli\u003e\u003cp\u003e\u003cspan style=\"font-size: 18px\"\u003eNVLink 6扩展网络 - 让这8个机架内的576个GPU能像一个超大GPU一样协同工作\u003c/span\u003e\u003c/p\u003e\u003c/li\u003e\u003cli\u003e\u003cp\u003e\u003cspan style=\"font-size: 18px\"\u003eSpectrum-X以太网扩展网络 - 连接不同的SuperPOD,以及连接到存储和外部网络\u003c/span\u003e\u003c/p\u003e\u003c/li\u003e\u003cli\u003e\u003cp\u003e\u003cspan style=\"font-size: 18px\"\u003e推理上下文内存存储平台 - 为长时间推理任务提供共享的上下文数据存储\u003c/span\u003e\u003c/p\u003e\u003c/li\u003e\u003cli\u003e\u003cp\u003e\u003cspan style=\"font-size: 18px\"\u003e英伟达Mission Control软件 - 管理整个系统的调度、监控和优化\u003c/span\u003e\u003c/p\u003e\u003c/li\u003e\u003c!--MID_AD_1--\u003e\u003c!--EOP_1--\u003e\u003c/ul\u003e\u003c!--PARAGRAPH_1--\u003e\u003cp\u003e\u003cspan style=\"font-size: 18px\"\u003e这一次的升级,SuperPOD的基础以DGX Vera Rubin NVL72机架级系统为核心。每一台 NVL72本身就是一台完整的AI超级计算机,内部通过NVLink 6 将72块Rubin GPU 连接在一起,能够在一个机架内完成大规模推理和训练任务。\u003c/span\u003e\u003cstrong\u003e\u003cspan style=\"font-size: 18px\"\u003e新的DGX SuperPOD,则由多台NVL72 组成,形成一个可以长期运行的系统级集群。\u003c/span\u003e\u003c/strong\u003e\u003c!--MID_AD_2--\u003e\u003c!--EOP_2--\u003e\u003c/p\u003e\u003c!--PARAGRAPH_2--\u003e\u003cp\u003e\u003cspan style=\"font-size: 18px\"\u003e当计算规模从“单机架”扩展到“多机架”后,新的瓶颈随之出现:如何在机架之间稳定、高效地传输海量数据。围绕这一问题,\u003c/span\u003e\u003cstrong\u003e\u003cspan style=\"font-size: 18px\"\u003e英伟达在本次 CES 上同步发布了基于 Spectrum-6 芯片的新一代以太网交换机,并首次引入“共封装光学”(CPO)技术\u003c/span\u003e\u003c/strong\u003e\u003cspan style=\"font-size: 18px\"\u003e。\u003c/span\u003e\u003c/p\u003e\u003cp\u003e\u003cspan style=\"font-size: 18px\"\u003e简单来说,就是将原本可插拔的光模块直接封装在交换芯片旁边,把信号传输距离从几米缩短到几毫米,从而显著降低功耗和延迟,也提升了系统整体的稳定性。\u003c/span\u003e\u003c/p\u003e\u003ch2\u003e\u003c!--HPOS_3--\u003e\u003cspan style=\"font-size: 18px\"\u003e04 英伟达开源AI“全家桶”:从数据到代码一应俱全\u003c/span\u003e\u003c/h2\u003e\u003cp\u003e\u003cspan style=\"font-size: 18px\"\u003e\u003c!--AIPOS_3--\u003e在本次CES上,黄仁勋宣布扩展其开源模型生态(Open Model Universe),新增和更新了一系列模型、数据集、代码库和工具。这个生态覆盖六大领域:生物医学AI(Clara)、AI物理模拟(Earth-2)、Agentic AI(Nemotron)、物理AI(Cosmos)、机器人(GR00T)和自动驾驶(Alpamayo)。\u003c/span\u003e\u003c!--MID_AD_3--\u003e\u003c!--EOP_3--\u003e\u003c/p\u003e\u003c!--PARAGRAPH_3--\u003e\u003cp\u003e\u003cspan style=\"font-size: 18px\"\u003e训练一个AI模型需要的不只是算力,还需要高质量数据集、预训练模型、训练代码、评估工具等一整套基础设施。对大多数企业和研究机构来说,从零开始搭建这些太耗时间。\u003c/span\u003e\u003c/p\u003e\u003cp\u003e\u003cspan style=\"font-size: 18px\"\u003e具体来说,英伟达开源了六个层次的内容:算力平台(DGX、HGX等)、各领域的训练数据集、预训练的基础模型、推理和训练代码库、完整的训练流程脚本,以及端到端的解决方案模板。\u003c/span\u003e\u003c/p\u003e\u003cp\u003e\u003cspan style=\"font-size: 18px\"\u003eNemotron系列是此次更新的重点,覆盖了四个应用方向。\u003c/span\u003e\u003c/p\u003e\u003cp\u003e\u003cspan style=\"font-size: 18px\"\u003e在推理方向,包括Nemotron 3 Nano、Nemotron 2 Nano VL等小型化推理模型,以及NeMo RL、NeMo Gym等强化学习训练工具。在RAG(检索增强生成)方向,提供了Nemotron Embed VL(向量嵌入模型)、Nemotron Rerank VL(重排序模型)、相关数据集和NeMo Retriever Library(检索库)。在安全方向,有Nemotron Content Safety内容安全模型及配套数据集、NeMo Guardrails护栏库。\u003c/span\u003e\u003c!--MID_AD_4--\u003e\u003c!--EOP_4--\u003e\u003c/p\u003e\u003c!--PARAGRAPH_4--\u003e\u003cp\u003e\u003cspan style=\"font-size: 18px\"\u003e在语音方向,则包含Nemotron ASR自动语音识别、Granary Dataset语音数据集和NeMo Library语音处理库。这意味着企业想做一个带RAG的AI客服系统,不需要自己训练嵌入模型和重排序模型,可以直接使用英伟达已经训练好并开源的代码。\u003c/span\u003e\u003c/p\u003e\u003ch2\u003e\u003c!--HPOS_4--\u003e\u003cspan style=\"font-size: 18px\"\u003e05 物理AI领域,走向商业化落地\u003c/span\u003e\u003c/h2\u003e\u003cp\u003e\u003cspan style=\"font-size: 18px\"\u003e\u003c!--AIPOS_4--\u003e物理AI领域同样有模型更新——用于理解和生成物理世界视频的Cosmos,机器人通用基础模型Isaac GR00T、自动驾驶视觉-语言-行动模型Alpamayo。\u003c/span\u003e\u003c/p\u003e\u003cp\u003e\u003c/p\u003e\u003cp data-exeditor-arbitrary-box=\"image-box\" style=\"text-align: center\"\u003e\u003c!--IMG_9--\u003e\u003c/p\u003e\u003cp\u003e\u003cspan style=\"font-size: 18px\"\u003e黄仁勋在CES上声称,物理AI的“ChatGPT时刻”快要来了,但面对挑战也很多:物理世界太复杂多变,采集真实数据又慢又贵,永远不够用。\u003c/span\u003e\u003c/p\u003e\u003cp\u003e\u003cspan style=\"font-size: 18px\"\u003e怎么办呢?合成数据是条路。于是英伟达推出了Cosmos。\u003c/span\u003e\u003c/p\u003e\u003cp\u003e\u003cspan style=\"font-size: 18px\"\u003e这是一个开源的物理AI世界基础模型,目前已经用海量视频、真实驾驶与机器人数据,以及3D模拟做过预训练。它能理解世界是怎么运行的,可以把语言、图像、3D和动作联系起来。\u003c/span\u003e\u003c/p\u003e\u003cp\u003e\u003cspan style=\"font-size: 18px\"\u003e黄仁勋表示,Cosmos能实现不少物理AI技能,比如生成内容、做推理、预测轨迹(哪怕只给它一张图)。它可以依据3D场景生成逼真的视频,根据驾驶数据生成符合物理规律的运动,还能从模拟器、多摄像头画面或文字描述生成全景视频。就连罕见场景,也能还原出来。\u003c/span\u003e\u003c/p\u003e\u003cp\u003e\u003c/p\u003e\u003cp data-exeditor-arbitrary-box=\"image-box\" style=\"text-align: center\"\u003e\u003c!--IMG_10--\u003e\u003c/p\u003e\u003cp\u003e\u003cspan style=\"font-size: 18px\"\u003e在演讲中,黄仁勋还正式发布了Alpamayo。Alpamayo是一个面向自动驾驶领域的开源工具链,也是首个开源的视觉-语言-行动(VLA)推理模型。与之前仅开源代码不同,\u003c/span\u003e\u003cstrong\u003e\u003cspan style=\"font-size: 18px\"\u003e英伟达这次开源了从数据到部署的完整开发资源。\u003c/span\u003e\u003c/strong\u003e\u003c/p\u003e\u003cp\u003e\u003cspan style=\"font-size: 18px\"\u003eAlpamayo最大的突破在于它是“推理型”自动驾驶模型。传统自动驾驶系统是“感知-规划-控制”的流水线架构,看到红灯就刹车,看到行人就减速,遵循预设规则。而Alpamayo引入了“推理”能力,理解复杂场景中的因果关系,预测其他车辆和行人的意图,甚至能处理需要多步思考的决策。\u003c/span\u003e\u003c/p\u003e\u003cp\u003e\u003cspan style=\"font-size: 18px\"\u003e比如在十字路口,它不只是识别出“前方有车”,而是能推理“那辆车可能要左转,所以我应该等它先过”。这种能力让自动驾驶从“按规则行驶”升级到“像人一样思考”。 \u003c/span\u003e\u003c/p\u003e\u003cp\u003e\u003cspan style=\"font-size: 18px\"\u003e黄仁勋宣布英伟达DRIVE系统正式进入量产阶段,首个应用是全新的梅赛德斯-奔驰CLA,计划2026年在美国上路。这款车将搭载L2++级自动驾驶系统,采用“端到端AI模型+传统流水线”的混合架构。\u003c/span\u003e\u003c/p\u003e\u003cp\u003e\u003cspan style=\"font-size: 18px\"\u003e机器人领域同样有实质性进展。\u003c/span\u003e\u003c/p\u003e\u003cp\u003e\u003cspan style=\"font-size: 18px\"\u003e黄仁勋表示包括Boston Dynamics、Franka Robotics、LEM Surgical、LG Electronics、Neura Robotics和XRlabs在内的全球机器人领军企业,正在基于英伟达Isaac平台和GR00T基础模型开发产品,覆盖了从工业机器人、手术机器人到人形机器人、消费级机器人的多个领域。\u003c/span\u003e\u003c/p\u003e\u003cp\u003e\u003c/p\u003e\u003cp data-exeditor-arbitrary-box=\"image-box\" style=\"text-align: center\"\u003e\u003c!--IMG_11--\u003e\u003c/p\u003e\u003cp\u003e\u003cspan style=\"font-size: 18px\"\u003e在发布会现场,黄仁勋背后站满了不同形态、不同用途的机器人,它们被集中展示在分层舞台上:从人形机器人、双足与轮式服务机器人,到工业机械臂、工程机械、无人机与手术辅助设备,展现出一幅“机器人生态图景”。\u003c/span\u003e\u003c/p\u003e\u003cp\u003e\u003cspan style=\"font-size: 18px\"\u003e从物理AI应用到RubinAI计算平台,再到推理上下文内存存储平台和开源AI“全家桶”。英伟达在CES上展示的这些动作,构成了英伟达对于推理时代AI基础设施的叙事。正如黄仁勋反复强调的那样,当物理 AI 需要持续思考、长期运行,并真正进入现实世界,问题已经不再只是算力够不够,而是谁能把整套系统真正搭起来。\u003c/span\u003e\u003c/p\u003e\u003cp\u003e\u003cspan style=\"font-size: 18px\"\u003eCES 2026 上,英伟达已经给出了一份答卷。\u003c/span\u003e\u003c/p\u003e\u003cdiv powered-by=\"qqnews_ex-editor\"\u003e\u003c/div\u003e\u003cstyle\u003e.rich_media_content{--news-tabel-th-night-color: #444444;--news-font-day-color: #333;--news-font-night-color: #d9d9d9;--news-bottom-distance: 22px}.rich_media_content p:not([data-exeditor-arbitrary-box=image-box]){letter-spacing:.5px;line-height:30px;margin-bottom:var(--news-bottom-distance);word-wrap:break-word}.rich_media_content .qn-editor-copy p:not([data-exeditor-arbitrary-box=image-box]){letter-spacing:unset;line-height:unset;margin-bottom:unset;word-wrap:unset}.rich_media_content{color:var(--news-font-day-color);font-size:18px}@media(prefers-color-scheme:dark){body:not([data-weui-theme=light]):not([dark-mode-disable=true]) .rich_media_content p:not([data-exeditor-arbitrary-box=image-box]){letter-spacing:.5px;line-height:30px;margin-bottom:var(--news-bottom-distance);word-wrap:break-word}body:not([data-weui-theme=light]):not([dark-mode-disable=true]) .rich_media_content .qn-editor-copy p:not([data-exeditor-arbitrary-box=image-box]):not(.qn-editor-copy){letter-spacing:unset;line-height:unset;margin-bottom:unset;word-wrap:unset}body:not([data-weui-theme=light]):not([dark-mode-disable=true]) .rich_media_content{color:var(--news-font-night-color)}}.data_color_scheme_dark .rich_media_content p:not([data-exeditor-arbitrary-box=image-box]){letter-spacing:.5px;line-height:30px;margin-bottom:var(--news-bottom-distance);word-wrap:break-word}.data_color_scheme_dark .rich_media_content .qn-editor-copy p:not([data-exeditor-arbitrary-box=image-box]){letter-spacing:unset;line-height:unset;margin-bottom:unset;word-wrap:unset}.data_color_scheme_dark .rich_media_content{color:var(--news-font-night-color)}.data_color_scheme_dark .rich_media_content{font-size:18px}.rich_media_content p[data-exeditor-arbitrary-box=image-box]{margin-bottom:11px}.rich_media_content\u003ediv:not(.qnt-video),.rich_media_content\u003esection{margin-bottom:var(--news-bottom-distance)}.rich_media_content hr{margin-bottom:var(--news-bottom-distance)}.rich_media_content .link_list{margin:0;margin-top:20px;min-height:0!important}.rich_media_content blockquote{background:#f9f9f9;border-left:6px solid #ccc;margin:1.5em 10px;padding:.5em 10px}.rich_media_content blockquote p{margin-bottom:0!important}.data_color_scheme_dark .rich_media_content blockquote{background:#323232}@media(prefers-color-scheme:dark){body:not([data-weui-theme=light]):not([dark-mode-disable=true]) .rich_media_content blockquote{background:#323232}}.rich_media_content ol[data-ex-list]{--ol-start: 1;--ol-list-style-type: decimal;list-style-type:none;counter-reset:olCounter calc(var(--ol-start,1) - 1);position:relative}.rich_media_content ol[data-ex-list]\u003eli\u003e:first-child::before{content:counter(olCounter,var(--ol-list-style-type)) '. ';counter-increment:olCounter;font-variant-numeric:tabular-nums;display:inline-block}.rich_media_content ul[data-ex-list]{--ul-list-style-type: circle;list-style-type:none;position:relative}.rich_media_content ul[data-ex-list].nonUnicode-list-style-type\u003eli\u003e:first-child::before{content:var(--ul-list-style-type) ' ';font-variant-numeric:tabular-nums;display:inline-block;transform:scale(0.5)}.rich_media_content ul[data-ex-list].unicode-list-style-type\u003eli\u003e:first-child::before{content:var(--ul-list-style-type) ' ';font-variant-numeric:tabular-nums;display:inline-block;transform:scale(0.8)}.rich_media_content ol:not([data-ex-list]){padding-left:revert}.rich_media_content ul:not([data-ex-list]){padding-left:revert}.rich_media_content table{display:table;border-collapse:collapse;margin-bottom:var(--news-bottom-distance)}.rich_media_content table th,.rich_media_content table td{word-wrap:break-word;border:1px solid #ddd;white-space:nowrap;padding:2px 5px}.rich_media_content table th{font-weight:700;background-color:#f0f0f0;text-align:left}.rich_media_content table p{margin-bottom:0!important}.data_color_scheme_dark .rich_media_content table th{background:var(--news-tabel-th-night-color)}@media(prefers-color-scheme:dark){body:not([data-weui-theme=light]):not([dark-mode-disable=true]) .rich_media_content table th{background:var(--news-tabel-th-night-color)}}.rich_media_content .qqnews_image_desc,.rich_media_content p[type=om-image-desc]{line-height:20px!important;text-align:center!important;font-size:14px!important;color:#666!important}.rich_media_content div[data-exeditor-arbitrary-box=wrap]:not([data-exeditor-arbitrary-box-special-style]){max-width:100%}.rich_media_content .qqnews-content{--wmfont: 0;--wmcolor: transparent;font-size:var(--wmfont);color:var(--wmcolor);line-height:var(--wmfont)!important;margin-bottom:var(--wmfont)!important}.rich_media_content .qqnews_sign_emphasis{background:#f7f7f7}.rich_media_content .qqnews_sign_emphasis ol{word-wrap:break-word;border:none;color:#5c5c5c;line-height:28px;list-style:none;margin:14px 0 6px;padding:16px 15px 4px}.rich_media_content .qqnews_sign_emphasis p{margin-bottom:12px!important}.rich_media_content .qqnews_sign_emphasis ol\u003eli\u003ep{padding-left:30px}.rich_media_content .qqnews_sign_emphasis ol\u003eli{list-style:none}.rich_media_content .qqnews_sign_emphasis ol\u003eli\u003ep:first-child::before{margin-left:-30px;content:counter(olCounter,decimal) ''!important;counter-increment:olCounter!important;font-variant-numeric:tabular-nums!important;background:#37f;border-radius:2px;color:#fff;font-size:15px;font-style:normal;text-align:center;line-height:18px;width:18px;height:18px;margin-right:12px;position:relative;top:-1px}.data_color_scheme_dark .rich_media_content .qqnews_sign_emphasis{background:#262626}.data_color_scheme_dark .rich_media_content .qqnews_sign_emphasis ol\u003eli\u003ep{color:#a9a9a9}@media(prefers-color-scheme:dark){body:not([data-weui-theme=light]):not([dark-mode-disable=true]) .rich_media_content .qqnews_sign_emphasis{background:#262626}body:not([data-weui-theme=light]):not([dark-mode-disable=true]) .rich_media_content .qqnews_sign_emphasis ol\u003eli\u003ep{color:#a9a9a9}}.rich_media_content h1,.rich_media_content h2,.rich_media_content h3,.rich_media_content h4,.rich_media_content h5,.rich_media_content h6{margin-bottom:var(--news-bottom-distance);font-weight:700}.rich_media_content h1{font-size:20px}.rich_media_content h2,.rich_media_content h3{font-size:19px}.rich_media_content h4,.rich_media_content h5,.rich_media_content h6{font-size:18px}.rich_media_content li:empty{display:none}.rich_media_content ul,.rich_media_content ol{margin-bottom:var(--news-bottom-distance)}.rich_media_content div\u003ep:only-child{margin-bottom:0!important}.rich_media_content .cms-cke-widget-title-wrap p{margin-bottom:0!important}\u003c/style\u003e\u003c/div\u003e
    赞(1327)
    未经允许不得转载:>高门大户网»黄仁勋CES2026最新演讲:三个关键话题,一台“芯片怪兽”