DeepSeek V3和R1模型发布后,其“开源+MOE”的发展模式对原有大厂的纯算力路径发起了挑战,引发市场对AI硬件设备需求的担忧。然而,当技术进步提高了使用资源的使用效率,成本的降低将“优先”导致需求增加,进一步加剧资源的消耗而非减少(“Jevon’s 悖论”),据Semi Analysis,自V3和R1发布以来,AWS H100、H200的租赁价格持续上涨。浙商证券认为,DeepSeek训练和推理成本大幅降低将带来企业和用户侧准入门槛的同步降低,在此背景下,推理环节的算力需求将得到激发。
数据来源:SemiAnalysis
针对DeepSeek模型,目前已有多家国产AI算力厂商宣布适配,东吴证券指出,过去训练卡主要由英伟达独供,而推理卡在国产12nm工艺平台上具有较强性价比。deepseek-R1模型的发布和开源,为推理侧的实际应用爆发打下了基础,AI投入的重心将从预训练转向推理。国内IC设计公司已经着手将推理卡移植在国产供应链,相关的国产供应链如先进封装等或受益。
通过“算法+硬件+系统”架构的协同优化,Deep SeekR1模型实现了推理成本的指数级下降,“蒸馏”后的小模型效果提升显著。国泰君安表示,随着蒸馏模型能力的提升,端侧AI要在有限的硬件资源下实现高效的计算和传输,将更加注重模型的本地部署和推理能力。方正证券认为,伴随着成本的下降,端侧模型的可用性明显提高,泛AI应用&包括手机、PC、智能车、机器人在内的泛端侧AI及其底层芯片/模组需求将迎来增长。
全文共2302字,以下为完整版解读:
更多精彩内容,关注钛媒体微信号(ID:taimeiti),或者下载钛媒体App