原创 飙叔科技洞察 2025-05-24 18:10 广东
对于英伟达开放NVLink其一方面将倒逼全球AI基础设施标准化进程的加速,另一方面也是英伟达更为积极抢占全球AI基础设施标准的结果。
在刚刚结束的2025年台北国际电脑展上,“主角光环”萦绕的黄仁勋抛出一枚让业界震撼的消息——宣布开放NVLink Fusion技术授权,允许联发科、美满电子、富士通、高通等12家第三方企业接入其高速互连体系,预计带动AI服务器制造成本下降18%。遗憾的是,首批12家企业当中没有大陆厂商。
正当业界一片欢呼,以为可以在“技术共享”的名义之下“白嫖”英伟达NVLink技术的时候,实则暗藏着英伟达颠覆AI底层逻辑的战略深意。
众所周知,英伟达除了AI硬件、CUDA生态之外,NVLink 内存共享端口等技术也是其核心护城河之一。早在2014年,英伟达首次对外公布了NVLink协议,并于2016年在DGX - 1系统中首次采用NVLink 1.0,连接8个P100 GPU,正式将其投入实际应用,开创了多GPU系统协同工作的新局面。此后,NVLink历经多次技术迭代,到了2022年,NVLink 4.0在信号技术上从NRZ进化到PAM4,Hopper架构的GPU凭借18个NVLink 4.0链接,实现了900GB/s的总带宽。而在本次COMPUTEX 2025上,英伟达推出的第五代NVLink带宽更是提升至1.2TB/s,不断突破性能极限。
同时,随着技术的演进,NVLink的应用场景也不断拓展。在人工智能与深度学习领域,大语言模型等AI模型训练需要处理海量参数和数据,单GPU的内存和计算能力远远不足,NVLink允许多GPU共享统一内存池,加速模型训练。
因而,可以说英伟达之所以能够称霸全球AI训练市场,垄断全球高端GPU市场,NVLink技术构筑起的技术壁垒是其核心因素之一。根据实测数据,采用NVLink互联的千卡集群,参数同步效率提升2倍以上,整体算力利用率从60%跃升至90%量级。
当前,高效率运转的英伟达GPU遍布全球,深入各高算力领域,这也使得NVLink成为事实上的互联标准。这使得AMD的CXL联盟、UCIe联盟乃至中国本土芯片厂商的互联方案都面临两难的选择:要么加速兼容适配,要么被边缘化。
何况,英伟达的CUDA生态拥有超过500万的开发者,以及超过3000个以上的专业加速工具链,这是英伟达真正的“核心优势”。现在通过NVLink Fusion吸引第三方硬件接入,本质上是在扩大CUDA生态的"势力范围"。
因此,表面上看,开放NVLink英伟达正在放弃硬件闭环的既有优势,但深层次逻辑是完成从"卖铲人"到"修路者"的角色蜕变;也就是英伟达正在从单纯的硬件卖家演变为"技术标准输出+区域产能绑定"的模式。
这种模式之下,对AMD等巨头以及国产AI厂商的影响如何呢?
对于AMD,甚至英特尔等国际巨头而言,NVLink的开放近乎是“囚徒困境”。因为一旦拒绝接入,使用自有连接技术则意味着市场机会的丧失;但如果全面拥抱NVLink,不仅原来自有技术永无出头之日,最终或将沦为英伟达CUDA生态的附庸。
相比而言,国产AI厂商更为复杂。例如以华为昇腾系列芯片为例,其早在2年之前就已发布了CANN生态,如果接入NVLink可快速融入主流算力生态,甚至通过"国产GPU+NVLink兼容层"的组合方案,中国AI企业有望在规避出口管制的前提下,构建符合技术演进趋势的算力基础设施。但也可能再次陷入到“技术依赖”到“生态锁定”的陷阱。这类似于,此前国产智能手机厂商对于安卓操作系统的情况。
何况,美国对于中国AI产业的打压毫无理性,高度的“不确定性”也意味着国产厂商不敢也不能盲目信任所谓的“技术开放”。
因此,对于英伟达开放NVLink其一方面将倒逼全球AI基础设施标准化进程的加速,另一方面也是英伟达更为积极抢占全球AI基础设施标准的结果。这意味着,全球AI产业的竞争将从单纯的技术输出转变为AI生态和技术标准的争夺。