commentary AI 43% 2026-03-20

心智观察所|美国的“阳谋”:让英伟达充当AI基建的“小发改委”

观察者网 guancha
Document Text 3,126 characters
【文/观察者网专栏作者 心智观察所】 <br> 2026年3月17日凌晨,圣何塞SAP中心的灯光徐徐熄灭,空旷的场馆里响起一段乡村音乐。台下坐着一万八千名观众,屏幕前还有数百万人在等待同一个人——黄仁勋。 <br> 几分钟后,他穿着那件熟悉的黑色皮夹克走上舞台,没有惊喜,也不需要。这件夹克,已经成了一种符号:只要它出现在台上,就意味着未来一年全球AI产业的资源流向、技术路线,甚至地缘格局,都将被重新定义。 <br> 这并非夸张。回顾整场GTC 2026主题演讲,表面上看是琳琅满目的新品发布——DLSS 5、Vera CPU、Groq LPU、Vera Rubin NVL72、OpenClaw智能体操作系统、Nemotron联盟,甚至还有一个太空数据中心项目。但如果你只盯着这些产品,就很容易错过黄仁勋真正想说的话。他在演讲中反复使用一个词:工厂。数据中心不再是存放文件的地方,而是生产Token的工厂;Token是新时代的大宗商品;而英伟达,是这座工厂的总设计师、总包工头,也是调度中心。 <br> 英伟达在GTC 2026上展现的野心,从他在大会前一周写的那篇博客里就能看出。在那篇以第一性原理展开的长文里,他把AI产业比作一块“五层蛋糕”,从下到上分别是:能源、芯片、基础设施、模型、应用。这个分层方式本身就耐人寻味——芯片不是最底层,能源才是。用他的话来说,能源是AI基础设施的“第一性原理”,是决定系统能产出多少智能的“绝对约束条件”。 <br> 每一个Token的背后,都是电子的运动、热量的管理,是能量向计算的转化。这之下,再无抽象层。而蛋糕的最顶端是应用,黄仁勋说得很直白:每一个成功的应用,都会拉动它下面的所有层级,一路追溯到为它供电的发电厂。过去十年,英伟达的战略路径非常清晰——从一家GPU公司出发,逐层扩张,直到把这五层蛋糕全部纳入掌控。GTC 2026,正是这块蛋糕“封顶”的时刻。 <br> 先从第二层的芯片说起。这次最核心的硬件发布是Vera Rubin系统,但它更像一个“芯片联合国”。整套系统横跨五个机架,内部集成了七种不同的芯片:Vera CPU负责高单核性能的通用计算,Rubin GPU主打并行计算,Groq 3 LPU则专攻低延迟推理。这里值得多说一句Groq LPU的角色——黄仁勋花了不少时间解释“低延迟与高吞吐是天敌”这个命题。 <br> 传统架构下,你要么选高吞吐(一次处理大量请求,但每个请求等得久),要么选低延迟(响应快,但处理总量有限)。英伟达的解法是“解耦推理”:用Rubin GPU做高吞吐的批量推理,用Groq LPU做低延迟的实时响应,两者通过NVLink融合成一个系统。这不是简单地把两颗芯片拼在一起,而是一种全新的系统架构哲学。而这一哲学,正好呼应了他博客里提到的“实时生成智能”的需求:智能不再是预录好的,而是按需推理、即时生成的,因此芯片层的设计逻辑,必须彻底重构。 <br> 更值得玩味的是88核Vera CPU的发布。英伟达过去十几年一直被看作GPU公司,CPU市场是英特尔和AMD的地盘。但Vera CPU的出现,意味着英伟达不再满足于做“加速器”——它要做整台机器。黄仁勋在台上说,Vera CPU专为高单核性能设计,与机架配合用于智能体处理。翻译过来就是:未来英伟达的客户买一个完整的AI计算节点,不需要再去英特尔或AMD那里买CPU了。一个Vera Rubin机架里,256颗Vera CPU全部采用液冷,从处理器到散热方案,全是英伟达自己搞定。这是“垂直整合”最直白的宣言。 <br> 再往上看第三层——基础设施。黄仁勋在博客中对这一层的定义,远超传统认知:它不仅包括芯片,还包括土地、电力输送、散热系统、建筑施工、网络,以及将数万个处理器编排成一台机器的系统。他管这些叫“AI工厂”,设计目的不是存储信息,而是制造智能。在GTC现场,这一层的野心通过互联架构和系统设计展现得淋漓尽致。黄仁勋演示Rubin Ultra的NVLink架构时,用了一个比喻:计算单元在前,扩展互联架构在后。潜台词是,英伟达已经不把互联看作芯片的“附属品”,而是和芯片同等重要的独立产品线。 <br> 从NVLink到NVSwitch,再到未来Feynman系统中预告的Kyber,英伟达正在搭建一套由自己定义的数据中心内部“公路系统”。谁控制了芯片之间的通信协议和硬件,谁就控制了整个系统的扩展能力。这也是为什么黄仁勋敢在台上说“对比x86加Hopper架构,Vera Rubin的Token吞吐量是前者的350倍”——7亿Token每秒对200万Token每秒,差距不是来自单颗芯片的进步,而是来自整个基础设施层的代际跃迁。而英伟达的Omniverse平台,让它能与供应商虚拟会面、协同设计数据中心,目标是“不浪费一丝功耗”。这句话说得轻巧,但背后的意思是:英伟达已经在扮演整个AI工厂供应链的“总协调者”。 <br> 到了第四层的模型层面,英伟达的手也伸了过来。这次GTC宣布了Nemotron联盟,成员包括Black Forest Labs、Perplexity、Mistral、Cursor等一批当红AI公司。英伟达声称Nemotron 3 Ultra将成为全球最强基座模型,并为Nemotron 4组建联盟。黄仁勋在博客中写道,模型已经跨过了能在规模化层面真正发挥作用的门槛——语言模型只是其中一类,最具变革性的工作正发生在蛋白质AI、化学AI、物理模拟、机器人技术和自主系统领域。通过组建Nemotron联盟,英伟达可以确保这些AI公司的模型在英伟达硬件上得到最优适配,同时也确保它们深度绑定CUDA生态。黄仁勋在演讲中反复提到的CUDA“飞轮效应”——吸引开发者,开发者基于CUDA开发,更多人采用英伟达硬件,循环持续——在Nemotron联盟身上得到了最完美的体现。这不是简单的商业合作,这是一种产业组织行为。 <br> 五层蛋糕的最顶端是应用。黄仁勋在博客中说,应用层是经济价值被创造出来的地方——药物发现平台、工业机器人、法律辅助工具、自动驾驶汽车,“一辆自动驾驶汽车就是具身于机器中的一个AI应用”。GTC现场对此做了充分展示:110台机器人亮相,宣布与比亚迪、现代、日产的自动驾驶合作,与优步(Uber)在部分城市接入自动驾驶出租车网络。英伟达还发布了OpenClaw智能体操作系统,黄仁勋将其定义为“AI时代的Windows”——两行Shell命令就能启动一个AI智能体,NemoClaw则为企业提供安全框架。从云端的Token工厂到地面的自动驾驶出租车,英伟达正在把自己的触角从虚拟世界延伸到物理世界的每一个角落。 <br> 然而,最耐人寻味的,是黄仁勋把能源放在五层蛋糕的最底层。在博客中他写得很直白:能源是系统能产出多少智能的“绝对约束条件”。而在GTC现场,他用行动证明了这一点:英伟达正在研发名为“Vera Rubin Space-1”的太空数据中心系统。虽然目前仍处早期阶段,但这个信号极其重要——英伟达已经在考虑地球表面的电力和散热限制无法满足AI算力需求的那一天。与此同时,黄仁勋反复强调Vera Rubin每瓦性能提升50倍、成本降低35倍。 <br> 这些数字背后是一个严峻的现实:AI数据中心正在吞噬惊人的电力。英伟达不得不介入能源规划——从芯片架构的能效优化,到数据中心选址对电网的要求,再到太空数据中心这种终极方案。一家芯片公司在讨论电力规划和商业航天,这在十年前是不可想象的。但如果你理解了那块五层蛋糕的逻辑,就会明白:控制了最底层的能源约束,就控制了整栋大楼的高度。 <br> 1 <br> 2 <br> 下一页 <br> 余下全文
Metadata
Publisher 观察者网
Site guancha
Date 2026-03-20
CMS Category 媒体报道