36氪 - AI相关文章 17小时前
大家都在用AI,程度远超你想象
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_guoji1.html

 

本文揭示了全球企业级AI推理用量呈指数级增长的现象,其商业变现能力远超预期。文章分析了谷歌、微软等科技巨头在AI推理方面的进展和数据,指出AI推理市场正在经历一场静默爆发的产业变革。从模型使用量、token消耗量到收入增长,都展现出AI推理市场的巨大潜力和发展前景。

📈 企业级AI推理用量激增:全球企业级AI推理API的使用量和收入增长迅猛,毛利率高达75%甚至更高,展现出强大的商业变现能力。

🗣️ 谷歌在AI领域取得显著进展:谷歌在I/O大会上展示了多模态模型、增强现实头显等,其AI平台处理的token数量正在飙升,月处理量迅速逼近1000万亿token,远超Common Crawl的存储量。

🚀 行业整体呈现爆发式增长:微软Azure AI服务本季度处理token量超过100万亿,同比增长5倍;OpenAI每日生成约1000亿个单词,显示出整个行业在AI推理方面的快速发展。

神译局是36氪旗下编译团队,关注科技、商业、职场、生活等领域,重点介绍国外的新技术、新观点、新风向。

编者按:当公众的目光都聚焦在AI模型迭代时,一场真正的革命已悄然发生:全球企业级AI推理用量正呈指数级飙升,其商业变现能力远超预期。本文用硬核数据揭示这场静默爆发的产业质变。文章来自编译。

很长时间以来,大多数AI服务(尤其是推理API)的使用量与收入的增长都极其迅猛。SemiAnalysis的Dylan Patel指出,这些API对企业来说利润非常高——毛利率有时候高达75%甚至更高。这在搞AI的人当中是众所周知的一个公开事实,但在新模型发布与功能炒作此起彼伏的喧嚣当中,广大公众反而可能忽视了这一点。

我认为向普通用户提供订阅服务也是盈利的,但重度用户很可能会成为AI公司的成本负担,再加上训练尖端模型还需要明显的资本支出。尽管如此,即便模型保持不变,其使用量也在呈指数级增长,而且其中很大一部分都在盈利范围内。

早在今年上半年我们看到整个行业取得诸多惊人进展之前,AI使用的极端(某些情况下是指数级)增长就已经发生了。推理模型将推理答案从几百个token扩展到有时数万个token,这会让使用量图走势限额更加陡峭。与此同时,这些模型通常按token收费,因此所有这些都将带来更多收入。

鉴于2025年整个行业表现出来的巨大热情与取得的进展,谷歌I/O大会的主题演讲堪称一场精彩的AI“国情咨文”,它跨越了模态、硬件形态以及任务展示了这一点。这场演讲非常值得一看。谷歌正试图在各个方面展开竞争。他们的定位是赢下几个特定应用场景,并在其他领域保持前三名。没有其他AI公司能接近这种全面性——我们将观察他们的产品文化如何适应。

I/O大会的亮点包括:谷歌对标OpenAI o1 Pro的产品Gemini Deep Think,谷歌新的多模态模型(如带音频功能的Veo 3——据我所知这是头部玩家的首次尝试),一款对标Meta和苹果的增强现实头显的现场演示,以及新版的Gemini 2.5 Flash——它将成为大多数客户与Gemini互动的基础。

主题演讲中有太多精彩案例,单独写出来意义不大。这些方向我们早已看到摆在面前,但谷歌及其伙伴推进的速度远超多数人预期。前沿语言模型评估大多已完全饱和。这就是为什么谷歌(以及最近其他公司)分享的宏观使用数据才是对的焦点。重点不在某个模型,而在于这场变革是实实在在发生的。

最能体现这点的幻灯片展示了谷歌所有AI平台处理的AI token数量(即包括所有模态),最近几个月这个数字正在飙升。

我在图表上标注了近似值:二月拐点时月处理总量约为160万亿(160T)token——Gemini 2.5 Pro发布于三月下旬,这个模型固然有贡献,但并非拐点的唯一原因。大致数字如下:

    2024年4月:9.7万亿 token

    2024年12月:90万亿 token

    2025年2月:160万亿 token

    2025年3月:300万亿 token

    2025年4月:480万亿+ token

月处理token数正迅速逼近1000万亿(1 quadrillion)。不是所有token的价值都一样,但这相当于每秒处理约1.5亿至2亿token。在全球谷歌年搜索量5万亿次(约合每秒10万次搜索)的背景下,每秒token数大致相当于每次搜索使用约1000个token(尽管计算资源分配方式绝非如此)。这些token数量令人难以置信。

谷歌的主要AI产品仍是基于Gemini模型的搜索概览功能,他们一再强调用户喜爱该功能,覆盖超十亿人群(我们只是不清楚具体服务方式,我怀疑同一代内容会用于数千用户)。

谷歌每月生成的token数量已超过Common Crawl的存储量——提醒一下,Common Crawl被称为“开放网络快照”的标准,也是AI预训练数据集的起点。利用Common Crawl进行预训练的RedPajama 2项目(由Together AI主导)估计,Common Crawl原始数据约含100万亿token,其中通常只有5至30万亿token用于预训练。可以预见,一两年内谷歌单日处理的token量就能达到这个规模。

这篇文章对互联网各领域数据量与Common Crawl等数据转储或谷歌Gemini等生成内容做出来一些估算。文章将谷歌每日token处理量描述为:相当于4小时内读取或生成了Google Books的所有数据,或者略超一个月处理完全球存储的所有即时消息。

以下是那篇文章举出的一些例子:

若以数据量计,互联网正被重构为AI优先的服务。人类生成的数据将迅速过时。

谷歌的数据令人印象深刻,但这绝非个例。整个行业正在腾飞。这是一个持续加速过程的一部分:基于前代模型的产品开始获得关注,同时新模型的面世又开启了新的增长周期。要估算这个增长周期的上限近乎不可能。

比方说,就在几周前的2025年第三季度财报会议上,微软CEO萨提亚·纳德拉(Satya Nadella)谈到了Azure AI服务的输出量:

我们本季度处理了超过100万亿token,同比增长5倍——仅上月就创纪录地处理了50万亿的token。

因此,谷歌的token处理量几乎是Azure的10倍,很多人会说,相较于微软早期与OpenAI合作托管其模型,谷歌起步较晚。

对其他服务(如ChatGPT)的估算则混乱得多(私营公司数据过时),但画出来的曲线都差不多。萨姆·阿尔特曼(Sam Altman)曾于2024年2月在X上发文:

openai现在每天生成约1000亿个单词。

整个地球上的人每天产生约100万亿单词。

根据经验法则(1个单词≈0.75个token),每日1000亿单词相当于每月约4万亿token。这大约是谷歌2024年4月数据的一半,这个数字既有趣又令人印象深刻。

我们需要更多信息来判断OpenAI的增长是否紧跟谷歌,但ChatGPT发展的许多基本背景都指向大趋势相同。ChatGPT的整体趋势是用户数增加、单用户发送消息增多、单条消息生成token量增大。我估计ChatGPT的token处理量比Azure大,但小于谷歌。

多模型API平台OpenRouter的排名也显示出相似趋势,近几个月处理量约为2万亿token——根据上述衡量方式,这与一年前的ChatGPT处于同一数量级。

不仅西方企业如此,像字节跳动或百度等中国公司也正进入每日1万亿token的量级。

当Anthropic或OpenAI等快速增长的公司分享看似难以置信的收入预测时,也许我们该多给予一点信任?

还有很多处在测试阶段的功能(主要是编码智能体)将推动这些数字飙升。我们一直在试用Claude Code、OpenAI的Codex、谷歌的Jules以及无数其他智能体,这些智能体每次运行几分钟就会消耗海量的文本token。我跟朋友估算过,一次深度研究查询会消耗约100万token进行推理。很快,单个任务将消耗约1000万、乃至1亿的token。而仅仅两年前,一次令人惊艳的ChatGPT查询也只消耗100-1000个token。

现在正是做token销售生意的好时机。这仅仅是个开始。

译者:boxi。

Fish AI Reader

Fish AI Reader

AI辅助创作,多种专业模板,深度分析,高质量内容生成。从观点提取到深度思考,FishAI为您提供全方位的创作支持。新版本引入自定义参数,让您的创作更加个性化和精准。

FishAI

FishAI

鱼阅,AI 时代的下一个智能信息助手,助你摆脱信息焦虑

联系邮箱 441953276@qq.com

相关标签

AI推理 token 谷歌
相关文章