DeepSeek 性能表现几乎追平美国龙头 全球人工智能发展加速,中美差距缩小 开源和闭源竞争加剧 训练算力需求短期内降温 深度求索 (DeepSeek), 一家位于杭州的人工智能初创公司,发布了全新强化学习版本 DeepSeek 模型 DeepSeek R1 及相关应用程序,其性能几乎追平与现有领先 AI 模型,但成本却非常低,这引发市场对大规模算力部署和资金投入必要性的担忧。通过强化学习, R1 模型在数学、编码、自然语言推理等领域拥有卓越的表现。据 DeepSeek 介绍,其 V3 模型(R1 之前的模型)的训练成本估计仅为 Llama 3 或 GPT-4 的 8-9%左右。 重点关注股票: 我们建议关注国内算力股,包括中芯国际(981 HK/688981 CH, 优于大市/中性)、北方华创 (002371 CH,优 于 大 市 ) 、 中 微 (688012 CH, 优 于 大 市 ) 、 深 南 电 路(002916 CH, 优于大市)、中际旭创 (300308 CH, 优于大市)、寒武纪 (688256 CH, 未评级)、海光 (688041 CH, 未评级);服务器和数据中心供应商包括联想 (992 HK, 优于大市)、中兴通讯(763 HK/000063 CH, 优 于 大 市 / 优 于 大 市 ) 、 浪 潮 信 息(000977 CH, 未评级)、紫光股份 (000938 CH, 未评级)、工业富联 (601138 CH, 未评级)。 全球 AI 发展或进一步加速,边缘 AI 及应用将是下一轮竞争的焦点。 DeepSeek 的成功表明,通过使用强化学习和 MoE(专家混合模型)技术,训练过程可以更加高效和节省成本。当然,这需要更高水平的编码和工程设计。同时,它的推理能力几乎与GPT-o1 等现模型相当。在 MoE 下,数千亿个参数被分类为各个领域的数百名专家,因此在推理时只激活相关领域的某些专家,这大大提高了计算和推理效率,并降低了训练成本。考虑到OpenAI、 Meta、谷歌、微软等人工智能巨头拥有巨大的计算能力,这种 MoE 的成功使用可能会大大加速人工智能的发展。边缘 AI 一直备受关注,因为安全和隐私问题对于用户,尤其是企业和政府来说是不可忽视的。将人工智能模型从云端转移到边缘可以解决这一问题,但需要本地设备上更多的计算能力。自2023 年底以来, AI 电脑和 AI 智能手机已成为一种趋势。在 CES2025 上占据了焦点的 AI 眼镜也进入了战场。 开源与闭源的竞争愈演愈烈。 DeepSeek 是开源 AI 模型之一,其代码和模型结构对用户和社区开放,可供查看和编辑。大部分开源模型可以免费使用,但如果不支持云端使用,则可能需要一定的部署成本。 Meta 的 Llama 3.1 和 Gemma-7B 是两种开源模型。而 GPT 是一种闭源模型,其源代码和结构不公开,通常需要许可证才能使用,费用相对较高。其他闭源模型包括百度的文心一言、苹果的 Siri、快手的可灵等。开源与闭源之间的竞争可以追溯到几十年前,涉及许多领域,例如计算机操作系统中的Linux (开放)与 Windows (封闭)、智能手机操作系统中的Android (开放)与 iOS (封闭)、指令集中的 RISC-V (开放)与 x86(封闭)等。在 DeepSeek R1 之前,大语言模型的市场份额和性能主要由 GPT 等闭源模型主导。随着 DeepSeek R1 的表现追平同业龙头,开源模型和封闭模型之间的竞争可能会迅速升温。