180K 04月09日 17:54
Deepseek的利润率 + 开始卷infra(3月2日)
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_guoji1.html

 

Deepseek的Day6成果惊人,其利润率引发讨论。文章还涉及成本结构、与其他模型的对比、云计算相关问题及对行业的影响等。

Deepseek的R1模型利润率为85%,按v3定价会稍低

Deepseek是首个披露成本结构的大模型公司,Anthropic利润率可参考TD Cowen计算

探讨了通过调整计算成本来估算Anthropic利润率的不同情况

提到Deepseek开源及相关云计算、算力等问题及思考

原创 180k 2025-03-02 05:35 福建


A streamlined info flow

昨天Deepseek的Day6出来,非常炸裂

当然也引来不少标题党;;譬如下面的Bindu Reddy;

一些takeaways

关于利润率

1/ 关于deepseek利润率更加准确的表述,是R1模型的利润率是85%;按照(56-8.7)/56=85%走;deepseek知乎的那篇用是R1的定价,如果按照v3的定价,会再低一些,大概70%左右

2/Deepseek是第一个详细披露了自己成本结构的大模型公司;反观Open AI + Anthropic,其收入/利润经常是通过CNBC,NYT,the information进行捕风捉影;TD Cowen有一个计算Anthropic的拆分,算得比较合理;

3/ 我们姑且在有限的信息里面,相信TD Cowen的拆解;那么按照deepseek的口径,Anthropic24年的利润率应该为61%;按照(500-170-23)/500=61%走;

4/ 表格里面rev split w/aws的那行,代表了Anthropic给AWS的API收入提成(可以粗略理解为“租借算力的成本“);the information估算的云厂take rate是25-50%;这里TD Cowen是按照40%的中间值去计算(比微软和open ai的提成要更高);

5/ 如果我这里退一步,不用td cowen 的 40%,而是按照25%-40%的下端,25%来算(我们用这个方法来粗略地“剔除“AWS的云计算利润率,从而得到“比较现实“的计算成本);那么按照deepseek口径下,Anthropic24年的利润率可以达到74%;按照(500-425*25%-23)/500=74%走;这么对比起来,利润率差距就没有“标题党”说的那么可怕了

6/ 极端情况下,我们甚至可以按照AWS 50%的利润率,再把这个“计算成本”压低;425*25%*50%=53;那么我们就又有一个anthropic口径,利润率可以达到85%;按照(500-53-23)/500=85%走;

7/ 你可以简单理解为,虽然open ai + anthropic的成本端没有deepseek那么卷,但是他们的收入端,定价更高,客户目前也更加慷慨(之后的日子就不好说了);所以他们也能做到类似的高利润率(在 60%-85%中间摆动)

8/ 至于为什么有的地方经常出现OpenAI“亏大钱“的口径?因为在融资的时候,投资者经常看的是财务/会计角度的盈利亏损,而非大模型租赁角度的理论成本;这点在TD Cowen的表格里也说的很清晰了;模型训练成本 + 数据的Licensing Costs + 一些人员+宣传等opex,也经常被放进去做“盈利统计”;还有就是一些GPU折旧成本,这里就不特别展开了。

一些不成熟的思考 / 我还没想透的问题;

1/ 现在更加理解前两天deepseek夜间降价的新闻了;夜间GPU是低负载的;如果能跑满这段时间的GPU负载率,那么整体利润还能继续提高;有没有办法通过给跨时区的用户调用来解决?

2/ 当我们开始聊“跨时区”/“错峰段”的时候,就来到了云计算熟悉的领域(一开始云计算就是为了提高运算的负载率而诞生的);Amazon 在re:invent + 微软 CEO 前几天的podcast 都提到过,AI云计算和普通云计算,在思路/成本/结构/本质上/利润率,并没有太大的不同;所以云存在的问题它都存在;“低峰就聊闲置率”+“高峰就聊稳定性”;至于什么“优化资源池”+“预测弹性伸缩” + “减少故障率”,我相信各位产业界的老师们更懂;我就不好意思班门弄斧了。

3/ 虽然deepseek开源,也让各家云厂/“普通人家”去部署;在这样的infra差距之下,计算资源/成本差距可以如此之大;那么阿里管理层在业绩会提到的,之后70%-90%的推理可能跑在云上面,就更加有可信度了。这个情况,和“史前云计算”(AI来临之前的云计算)差很多,以前“公有云+私有云”混行,很多企业都选择自己去“DIY云计算”;在AI时代可能会不一样?云计算的利润率有提升空间

4/ deepseek的大集群规模效应 + 高并发利用率 带来了成本降低;超稀疏的MoE可能并不适合个人部署,也不适合“半桶水”的企业和 infra 团队去部署;小量级的 GPU似乎“人人“都能部署起来,但是成本分分钟数大厂的好几倍

5/ 看到有一个分析写的很好,引述“chengxd达达“

6/ 如果H800能跑出这样的效果;国产芯片的上限是不是能继续靠 infra 继续提升

7/大家对于deepseek 的调用有很大的容忍度,都能够体谅deepseek 在高水平模型表现下面的“服务器繁忙”;但是对于正常的app 应用/云计算服务,大家不会给相同的容忍度;所以普通云计算/AI 应用需要为高强度用户并发留出更多的空间,那么调用的利润率应该也要继续跌一些

8/ 如果按照这个逻辑看,拥有自身业务的云厂(阿里有夸克+钉钉+淘天+苹果,腾讯有元宝+微信+数不清的应用)会不会比没有自身业务的云厂更加具备成本优势?

9/会不会影响二级市场的算力逻辑?这个问题从 deepseek 出来后大家就每天讨论;barclays早在去年 6 月的时候,就算过26年业界的capex,足以支撑“12000+个 chatgpt 级别的应用);但是你不能只从chatbot/“聊天机器人”的角度去思考;

10/ 譬如在消费者行业(to c);我们主要还停留在“文字+对话式”的chatbot 时代,还没算真正踏入agent/机器人时代;也尚且没有大规模调用“图像”+“声音”+“视频”的tokens

11/ 譬如在企业端(to b);我们还在co-pilot 阶段挣扎,也没有到agent 或者更加深远的"ai员工”时代

12/ 周一如果有投资人/老板问你“deepseek这个新闻会不会影响算力需求”?很简单,别问,问就是“杰文斯悖论“;如果他继续追问,就和他说摩尔定律+煤矿时代+工业大革命;如果他再问,就让他来看我公众号

13/ 二级分析师的日子又要更卷了;现在不仅仅要考虑算力,还要考虑“有效算力”(算力 x 算力利用率);不仅仅要懂ai capex,还要懂ai infra;

14/ AI infra的从业者日子也要更卷了;投资人和老板们很容易对标deepseek的这个利润率,去卷大家的估值和KPI;换个角度看,整个行业/生态一起压榨算力;deepseek从模型开始卷(x小龙x小虎),现在轮到infra了(某种程度上来说,infra的重要程度提高,估值可能也可以?)。

15/ 梁总当时接受36kr采访的时候说过,

deepseek希望形成一种生态,就是业界直接使用我们的技术和产出;我们只负责基础模型和前沿的创新,然后其他公司在ds的基础上构建to b和to c业务;如果能形成完整的产业上下游,我们就没必要自己做应用;当然,如果需要,我们做应用也没障碍;但研究和技术创新永远是我们第一优先级;

现在回过头看,梁总真的一路把整个生态系统打通了;真心佩服

有兴趣关注的话可以点下面;差不多每天更新因为公众号是乱序推送,需要及时收到的朋友可以星标公众号,




阅读原文

跳转微信打开

Fish AI Reader

Fish AI Reader

AI辅助创作,多种专业模板,深度分析,高质量内容生成。从观点提取到深度思考,FishAI为您提供全方位的创作支持。新版本引入自定义参数,让您的创作更加个性化和精准。

FishAI

FishAI

鱼阅,AI 时代的下一个智能信息助手,助你摆脱信息焦虑

联系邮箱 441953276@qq.com

相关标签

Deepseek 利润率 云计算 算力 行业影响
相关文章