钛媒体:引领未来商业与生活新知 02月18日
IDC预测算力规模两年翻番,规模法则正扩展到后训练和推理阶段
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_guoji1.html

 

DeepSeek以低价大模型打破了行业门槛,推动算力产业发展。IDC报告显示,中国智能算力规模在未来几年将高速增长,预计2025年达1037.3 EFLOPS,市场规模达259亿美元。DeepSeek的开源降低了大模型的使用门槛,促进了算力生态发展,增加了对算力总需求。其算法效率的提升并未抑制算力需求,反而推动了大模型普及和应用落地,重构产业创新范式。AI服务器市场也因此受益,询价量和订单量均有所提升,企业对AI算力的需求增量主要体现在智能算力方面。

🔥DeepSeek的开源降低了大模型门槛,吸引更多用户进入赛道,促进了算力生态发展,增加了对算力总需求,重构产业创新范式。

💡DeepSeek的算法突破,让大模型训练从堆叠GPU转向软硬件高效协同,用更少的算力打造更高性能的模型,降低了企业成本。

📈AI服务器市场因DeepSeek而受益,询价量和订单量均有所提升,表明企业对AI算力的需求增量主要体现在智能算力方面,市场前景广阔。

DeepSeek“砸碎”了大模型的门槛,让更多的企业以低价使用世界一流大模型,这也必将带动算力产业的发展与普适化。

国际数据公司(IDC)与浪潮信息联合发布的《2025年中国人工智能计算力发展评估报告》(简称《报告》)指出,未来两年,中国智能算力仍将保持高速增长。2025年,中国智能算力规模将达到1037.3 EFLOPS,较2024年增长43%;2026年,中国智能算力规模将达到1460.3 EFLOPS,为2024年的两倍。2025年中国人工智能算力市场规模将达到259亿美元,较2024年增长36.2%;2026年市场规模将达到 337亿美元,为2024年的1.77倍。

DeepSeek助力推理市场增长

年初,DeepSeek-R1模型火爆出圈,引发了蝴蝶效应,让业界开始思考AI发展的新思路。

DeepSeek的火爆也让众多美股科技股受到了短暂的冲击,从1月28日美股股价来看,英伟达跌超10%,市值蒸发超3500亿美元(约合人民币2.5万亿元)。台积电跌超8%、博通跌超11%、光刻机巨头阿斯麦(AMSL)跌超7%,微软甲骨文、Meta等也纷纷下跌。

但冲击仅是短暂的,DeepSeek的火爆虽然将大模型算力成本压低了很多,但也将企业应用大模型的门槛拉低。

基于杰文斯悖论的现象表明,DeepSeek带来的算法效率的提升并未抑制算力需求,反而因更多的用户和场景的加入,推动大模型普及与应用落地,重构产业创新范式,带动数据中心、边缘及端侧算力建设。

随着DeepSeek的开源,模型门槛降低已是必然的趋势,在IDC中国副总裁周震刚看来,DeepSeek开源以后,将大模型的门槛降低了很多,也让大模型这个赛道涌进了更多的用户,促进了算力生态的发展,进而也增加了对算力总需求的增加。“规模法则(Scaling Low)在当前人工智能发展中,仍然占据了主导地位,企业智算需求仍在告诉攀升。”周震刚强调。

在此基础上,《报告》中指出,规模法则正在从预训练阶段,扩展到后训练和推理阶段,“基于强化学习、思维链等算法创新在后训练和推理阶段更多的算力投入,可以进一步提升大模型的深度思考能力。”周震刚指出。

另一方面,DeepSeek的开源也带动了整个创新生态的发展,模型平台上的应用开发量也将逐渐增多,“一些开发平台上甚至已经接入了低代码的工具,模型开发平台正在进入一个普惠化的时代。”周震刚如是说。

AI服务器走俏

显然,DeepSeek的横空出世,不仅没有更算力市场带来负作用,还为算力市场注入了新的活力,据IDC数据显示,2024年全球人工智能服务器市场规模为1251亿美元,2025年将增至1587亿美元,2028年有望达到2227亿美元,其中生成式人工智能服务器占比将从2025年的29.6%提升至2028年的37.7%。

聚焦中国算力市场,IDC数据显示,2025年,中国智能算力规模将达到1037.3EFLOPS,预计2028年将达到2781.9EFLOPS;中国通用算力规模将达到85.8EFLOPS,预计2028年将达到140.1EFLOPS,对此,周震刚告诉钛媒体APP,从增加趋势上分析,2023-2028年,中国智能算力五年年复合增长率预计将达到46.2%,通用算力预计将达到18.8%,“从数据上不难看出,目前,用户对于算力的需求,绝大部分的增量将产生在智能算力方面。”周震刚强调。

DeepSeek带火AI服务器市场的趋势已经开始,从钛媒体APP对于服务器市场的观察发现,农历春节过后的短短半个月的时间内,AI服务器的询价量和订单量都有所提升,对此,浪潮信息高级副总裁刘军告诉钛媒体APP,很多用户在咨询能够完整运行DeepSeek-R1 671B模型的AI服务器,“就浪潮信息的订单量来看,近两周的询价量直线上升,”刘军指出,“无论企业是选择云的模式,还是本地部署的模式,都需要一个强大的AI服务器来支撑模型的推理,这也就为AI服务器市场带来了更大的活力。”

同时,在刘军看来,AI服务器市场的增加不会是“昙花一现”,而是会在一个长久的时间内,呈现出高速增长的趋势,“浪潮信息认为,用户会先经历自试用POC的阶段,通过试用选择出可以规模化应用的业务场景,从而进行规模化部署,”刘军进一步指出,“而真正需求的爆发将在企业选择好规模化部署的场景后。”

从“堆卡”到“追求高效”

在DeepSeek-R1问世之前,为了打造更大参数的模型,达到更高的性能,企业似乎只能通过堆叠GPU来实现。这个过程也是一个极度烧钱的过程,通过2024年一年就可以看出,已经有很多大模型企业“偃旗息鼓”,究其原因,不是其不想,而是确实烧不起了。

而DeepSeek-R1的问世让人们看到了通过算法的优化,突破算力瓶颈的可能。纵观行业,受到DeepSeek在算法方面带来的突破的影响,如今的大模型训练已经呈现出从原先的堆算力卡,向着追求软硬件高效协同,用更少的算力,打造更高性能的大模型产品的方向发展。

算法的革新也重新点燃了企业大模型训练和推理的热情,“在针对特定算力硬件系统下面,如何实现软硬件算法、算力协同优化,能够实现更好的模型训练达到能力的表现,将成为大模型接下来的研发方向,”刘军进一步指出,“在此背景下,我认为企业可能会在训练AI算力架构的探索方面,投入更多的精力和资源,从而推动大模型产业向前发展。”(本文首发于钛媒体APP,作者|张申宇,编辑丨盖虹达)

更多精彩内容,关注钛媒体微信号(ID:taimeiti),或者下载钛媒体App

Fish AI Reader

Fish AI Reader

AI辅助创作,多种专业模板,深度分析,高质量内容生成。从观点提取到深度思考,FishAI为您提供全方位的创作支持。新版本引入自定义参数,让您的创作更加个性化和精准。

FishAI

FishAI

鱼阅,AI 时代的下一个智能信息助手,助你摆脱信息焦虑

联系邮箱 441953276@qq.com

相关标签

DeepSeek 智能算力 AI服务器 大模型
相关文章