PPIO联合创始人兼CEO姚欣
2025世界人工智能大会(WAIC)期间,笔者见到PPIO联合创始人兼CEO姚欣时,他刚从美国回来不到两天,并且在白天与无数位客户、投资人、媒体、各级领导等介绍新产品与交流。
他的日程相当紧凑。姚欣告诉笔者,当天晚上还需要与一些投资人见面。最后,我们单独聊了不到1个小时。
笔者问他:日程排得这么满,是因为你的精力非常旺盛吗?
他笑着回答:“该旺盛旺盛,要能屈能伸,我上周刚从国外回来,前两天还在倒时差。”
姚欣是一位穿越多个科技周期,拥有丰富创业、投资经验的人:他曾是知名网络视频平台PPTV的创始人,最后公司卖给了苏宁;他还曾在蓝驰创投担任投资合伙人。
2018年,姚欣和王闻宇(PPIO公司联合创始人兼CTO)一起创立了PPIO,团队一直深耕边缘云计算服务,十分低调。
然而,随着ChatGPT、DeepSeek等大模型技术引爆全球AI热潮,带来GPU算力及AI推理需求激增,2023年,PPIO全面发力AI云计算服务,并且成为第一批适配DeepSeek的AI Infra公司,也是行业内极少数能对DeepSeek满血版运行的平台公司。因此,PPIO在AI Infra行业内的知名度和关注度瞬间暴增。
招股书披露,PPIO对DeepSeek-R1模型进行优化,采用PD分离等创新分布式计算技术,在提升通信效率的同时实现工作负载均衡。这种措施使吞吐量提高10倍以上,并将理论运营成本降低高达90%。通过算子融合、低精度量化及投机采样等技术,该公司将模型输出效率提高了7倍以上,并将理论运营成本降低85.7%。
据灼识咨询数据显示,按2024年收入计,PPIO是中国第七大边缘云计算服务提供商,在中国独立边缘云计算服务商中排名第一,市场份额为4.1%;按计算节点数计,PPIO派欧云运营着中国最大的算力网络。
而且,PPIO也是分布式云计算市场中最早提供AI云计算服务的参与者之一。其AI云计算服务增长迅速,日均token消耗量从2024年12月的271亿次,增至2025年6月的2000亿次,在中国独立AI云计算服务供应商中位列前两名。
今年6月,姚欣的PPIO(主体为PPLabs Technology Limited)正式向港交所提交上市招股书,启动IPO上市之路。
姚欣告诉笔者,提交招股书之后,大家非常关注PPIO公司,他需要见的投资人也变得更多了。
WAIC 2025期间,姚欣宣布,PPIO正式发布国内首个 Agentic AI 基础设施服务平台。其中,PPIO研发了国内首款兼容 E2B 接口的Agent沙箱,专为Agent执行任务设计,在云端环境运行,为Agent赋予安全可靠、高效敏捷的“手和脚”;同时,PPIO模型服务支持百款主流开源与定制AI模型的快速接入、弹性部署与高效调用,助力开发者与企业快速构建AI Agent应用,满足核心需求。
姚欣表示,PPIO将致力于从中国首款 Agent沙箱到模型服务,再到 AI 智能体平台全面布局,为开发者和企业打造 Agent 基础设施服务。
姚欣认为,AI要走向智能化,就需要Agentic AI基础设施服务平台,而MCP只是大厂的“羊毛”,无法解决根本性问题。
对于中美AI大模型,姚欣指出,他观察到,中国公司都开始加速“卷”开源模型,但OpenAI等美国公司就转成闭源模型,但他认为,开源模型对于AI行业发展更加有利,同时也让AI Infra公司有了更多的发展机遇。
姚欣表示,虽然模型技术还在不断更新,但很多企业还没找到一个合理的商业化方向。对于模型公司来说,这是一个赢者通吃的市场,大家做更好的模型技术,但模型本身无法实现商业化,更多是依靠生态实现盈利。而AI Infra基础设施领域只是一个非常低毛利、海量规模、长周期的市场。
“你想想,如果水、电、气、煤都成了暴利,这个行业能走多远吗?”姚欣称。
姚欣强调,国产算力卡的春天到了,未来AI算力需求都会转向推理端,很多国产卡和算力设施都将迎来新的发展机会。虽然中心化模型还能再保持10%、20%的增速,但未来更大的增长方向是分布式算力,尤其是边、端、侧算力爆发式增长。
“我一直希望PPIO做面向未来的新一代AI应用的云计算公司。”姚欣称。
以下是PPIO创始人兼CEO姚欣的独家对话整理(有一定删减):
问:最近中美AI模型之间发生了哪些新变化?
姚欣:我发现一个还挺有趣的观察是:中国公司开始卷开源模型,美国就变成闭源模型了,连Meta也开始走向闭源化。
之前,我一直关注开源这件事。我认为开源有两个方面的价值:
第一个,开源是一个非常好、低成本沟通市场的手段,打响品牌,能够促成大家关注的方式;
第二个,开源更开放,所以更容易建立生态,客户在使用开源模型时没有负担。
所以从这两点上来说,中国大模型厂商之所以想要赚更多的钱,是因为他们发现,想要从模型层面赚钱,并不是一件容易的事情。
国内大模型赛道实在很卷。而且实事求是讲,我们(中国)、美国最先进模型的性能相比,还是有差距的。
问:近期多个消息称,DeepSeek热度似乎消退,平台用户使用率已从年初 7.5% 的峰值明显回落,官网流量同期下滑近三成,其使用率由过年时 7.5%的高点下滑到如今的 3%。您认为,这个变化的原因是什么?这是否会影响很多Infra公司发展?
姚欣:DeepSeek还是很有机会的,DeepSeek这种开放性,尤其放弃了自己商业化机会,我觉得这是一件好事。
就像Linux一样,如果一开始要做成一家商业化公司,就不会有这么多人用Linux。正是因为Linux基金会做了一个价值观选择,用他的真心长期坚持,最终成功了。
今天对于这些公司,我还是非常尊重的,每一个创始人都有自己的选择,但毫无疑问今天大家都用自己的方式来推动模型世界的发展。正是因为有开源模型,才有 Infra公司的机会。所以,从我们立场来看,更愿意看到更先进的开源模型出来,甚至我们自己也在捐赠开源,提供代码贡献等。
无论是闭源模型,还是开源模型,基本上还是3-6个月周期的更迭,如果你赶不上这种迭代周期的话,就可能被卷出局了。“六小龙”卷出去,就是因为有的人跟不上了,国外也是如此,现在差不多也就那么4家了,甚至Meta扎克伯格也急了,上亿元挖硅谷工程师。
我认为,模型技术还在不断更新,但是大家仍在探索一个合理的商业化方向。
问:PPIO刚刚发布的国内首个Agentic AI基础设施服务平台,与公司定位的独立分布式云计算服务商有何关联和联系?
姚欣:首先,PPIO是一家独立分布式云计算服务商,这更多是一个定义。“独立”这个词,是一个很重要的客户市场划分,之前叫中立性运营服务。
事实上,大厂云业务可能会跟客户有一些竞争,客户在采购的时候会有一些顾虑,但我们不可能与大厂的云计算业务直接竞争,主要定位是一些大厂云不能服务的客户,可以考虑我们这种更加中立的第三方服务,所以大家提“独立”这个概念。这样对于客户来说,可以有选择的灵活性。
其次,相比公有云、混合云服务,我们专门做垂直细分领域的分布式云计算业务。同时,我的价值主张是,我们不会跟我的客户产生冲突。
因此,这两点其实是我们公司的优势。
PPIO落地的核心场景:一个是边缘云、另一个是AI云计算。
其中在边缘云方面,我们的技术实力和服务能力得到了业界的广泛认可。我们为众多国内外领先的科技公司(根据灼识咨询的数据,包括中国前十大互联网公司的大部分)、云计算公司以及“独角兽”初创公司提供了边缘云计算服务和AI云计算服务。而且,我们是在IaaS、PaaS、MaaS三层都具备相应技术能力的公司。
同时,不只是云计算,还有AI Infra优化和GPU资源利用率。如果企业有大量任务调度,只是服务一类需求,峰值会达到90%,但平时基本都是闲置。
一天24小时,服务器只跑两小时,剩下22小时都在闲置利用。
因此,这就要求有很强的调度能力、融合能力、模型优化、底层算子等技术能力,而PPIO都有很强的市场竞争力。
AI Infra过去一段时间做的是怎么把GPU用好、GPU利用率提升、GPU跟模型的适配做好等技术。而Infra再上升一层,核心将不再是GPU,而是AI运行框架。
问:Agentic AI基础设施服务平台的灵感来源于哪里?
姚欣:其实我们很早就看到了Agentic AI技术方向。大的背景是,我们一直在为 Manus的母公司Monica服务,关于这个想法,我们与肖弘曾在2023年有过交流。
我认为,今天AI要走向智能化,一定需要有一套所谓的虚拟电脑,在里面像仿真一样去访问所有信息源,这是一套通用且终极的解决方案,而不是MCP。
我认为,MCP就是大厂的羊毛。
问:为什么MCP是大厂的羊毛?
姚欣:这是行业观点。本质上,今天的MCP是把自己的数据开放给第三方调用,站在大厂的角度来讲,为什么开放?我最核心的数据能开放吗?
再比如,微信的朋友圈关系能开放吗?支付宝的支付记录能开放吗?抖音推荐算法能开放吗?这些都不可能开放的。而MCP开放的目的在于,要把用户引导回来。
问:您认为AI Infra公司属于赚钱的一方吗?
姚欣:Infra赚很薄的利润,但它的规模会很大。我一直认为,AI Infra基础设施领域应该是一个非常低毛利、海量规模、长周期的市场。你想想,如果水、电、气、煤都成了暴利,这个行业能走多远吗?
当然,国内Infra企业之间的定位都不太一样。如果不算公共基础设施,只要私有化部署的话,这类公司还是可以盈利的。
对于公有云的AI Infra,就是一个大规模、低毛利的产业。即便连英伟达,我认为它的毛利也会下降。
我的观点一直没变化。在训练时代,英伟达一家独大,但推理时代百花齐放。今天,不同类型的应用,不同类型的模型,不同类型的参数,使用的卡型也会不一样,英伟达在训练时壁垒和护城河特别强,但推理时代会面临巨大挑战。所以,随着竞争加剧,毛利率下降,这是一个必然。
如今从技术趋势来看,就是从AI算力训练,走向推理;从中心化架构到分布式的架构,推理计算卡百花齐放,需求不同、应用场景不同,百花齐放必然会导致行业的竞争加剧,自然也会带来毛利下降。这是我的完整逻辑。
问:国产算力卡目前还面临哪些挑战和机遇?
姚欣:首先,从此前的训练,到如今的推理,我认为国产卡的春天到了,特别是加了PD分离架构之后,很多专注于做推理任务的计算卡,未来空间机会还是很大的。
其次,另一个机会在于,国产GPU芯片两年迭代一次,这是一个稳步规划的方向。但这里面的挑战在于,国产卡与软硬件、模型之间的结合,因为模型的迭代速度还是很快的,比如去年MoE还不是主流,今年全都是MoE架构的模型。
为什么会有Wintel联盟,当年比尔·盖茨讲过一句话,每一代英特尔发布的芯片的高性能,都远远不够软件所吞吃掉的能力,本质上,Windows和英特尔芯片之间是一个互补关系。如今,今天这种硬件、软件之间的快速迭代、良性结合,会推动AI时代加速到来。
最后,要想做好硬件,就要懂软件;要想做好软件优化,就要了解底层硬件架构,这样的端到端垂直整合能力越来越重要,只做其中的一层是没戏的。大的技术趋势,主要还是由软件驱动硬件的迭代,或者说由模型架构的进步,去驱动硬件的性能迭代。而PPIO要做的就是最懂模型和应用的Infra公司。
问:英伟达H20恢复销售之后,国产卡是否将面临更多竞争压力?
姚欣:我觉得经过这次教训,大家都清楚AI芯片“卡脖子”,随时断供,即使能用,也要再找替代。不只是国产GPU公司,今天连所有依赖AI发展的互联网大厂都将面临算力卡国产化转型,做多卡融合、多卡兼容解决方案,这是一个普遍趋势。
今天,你不能捡着最好的用,一定是你有啥用啥,所以说,这种多卡融合是一个基础和必备的方向。
问:您认为中美AI算力还有多少差距?
姚欣:PPIO属于云计算层面。所以在我看来,对于算力底层来说,中美AI算力布局方式是不太一样的。
中国的AI底层是做算力网络、东数西算。虽然中国在最先进性能上面比不过英伟达最先进的GPU卡,但中国在各地建设这么多资源,做算力枢纽、调度和整合。在我们看来,算力调度、算力网络只有中国才能长出来,就像高铁网和电力调度网只有在中国才能发展起来,我们能做的算力核心在于,中国的网络基础设施已经足够领先了。
而美国的算力底层就不一样了。美国在做星际之门,堆20万张卡、拿核电站在发电,因为美国没有统一电网,每个州的电网都不通,电费计价都不一样。所以,美国在加大基础设施建设,逐步建公路、建电网,而美国的优势在于,卷高科技、卷核聚变,让数据中心与核电能源实现互通和整合。
然而,问题存在于,10万卡互联都有数据中心散热,但20万张、50万张卡的时候,光互联和散热能力无法解决,而且可能会带来很大的问题。当这个数据中心启动的时候,对于电网的冲击相当于在一瞬间增加了一个中小型城市的用电负荷。
所以,星际之门对于散热的挑战、能耗的挑战、电网的冲击、能源的冲突等都有一定的局限性,大家会质疑推理是否需要集中化。
在我看来,推理不需要集中。推理是典型的分布式,基础模型需要不断迭代,长期来看,智算中心的训推不会长期在一起的,训推一定是分离的。未来,训练集群和推理集群一定是两个集群,现在训推一体是为了训练削峰填谷,因为训练任务之间是不能够保证百分百衔接。
长期看,推理算力占比达到95%,训练只占据5%。所以,未来大量数据中心需要分布式以及海量的推理优化,如何把数十万张卡用好,其实是一个关键性的技术趋势。
问:近期,人形机器人赛道非常火爆,但机器人似乎不完全用云计算,您认为机器人或具身智能有非常强的算力需求吗?
姚欣:机器人、自动驾驶的实时计算,需要毫秒级的处理速度,这个就只能用本地化算力。未来机器人需要实时理解物理环境,作出自主决策和判断,那么各类感知,规划,空间交互中都需要消耗大量tokens,而且对时延敏感,那么就需要在网络边缘侧能够部署大量AI推理算力。
不同的算力结构都有它特定用途。
一般来说,机器人计算用常规端侧AI芯片就够用,但它需要更高性能的话,就要跑在低时延的云侧,这就是我们要做边缘云、AI推理云的意义所在。而且,如果运行包括复杂任务拆解、推理、形成代码等场景,至少需要30B参数规模,而且 Agent也会运行在云端。
所以,未来我们的边缘云、AI推理云两个业务会融合“会师”的,云、边、端各有各的需求。
问:PPIO的最终目标是什么?
姚欣:我一直希望做面向未来的新一代AI应用的云计算公司。
早在2018年我二次创业之前,我在蓝驰做投资,当时我就思考,机器人、自动驾驶、VR/AR这些技术未来都能实现。5年、10年、20年后,就像当年我们就用抖音、用微信一样,大家对于计算需求会成千上万倍提升。
同时,大家对于计算的需求,逐渐从中心化,再向云边端侧迁移,背后这个叫“数据引力效应”计算概念,就是随着数据处理下沉,计算也要逐步下沉,这是计算机的范式迁移。
如果把计算机的历史拉长一点。计算机就是20年中心化、20年分布式。
之前,从IBM大型机到PC机时代,后面互联网早期诞生时的核心是云计算。如今,计算走向分布式,所以,这是20年为周期的计算架构的范式转变。
如今,我认为中心化模式到了一个阶段性顶点,虽然它还能再保持10%、20%的增速,但更大的增长是分布式算力,尤其是边端侧算力爆发式增长。这就是2018年我们PPIO为什么要做分布式云、做边缘计算的原因,当时我们看到了新的趋势,未来自动驾驶、机器人等场景都将需要分布式的算力。
(本文首发于钛媒体App,作者|林志佳,编辑|盖虹达)
更多精彩内容,关注钛媒体微信号(ID:taimeiti),或者下载钛媒体App