IT之家 03月30日 15:52
李开复:零一万物正基于 DeepSeek,打造 AI 2.0 时代的 Windows
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_guoji1.html

 

零一万物CEO李开复在中关村论坛上表示,大模型推理成本正快速下降,为AI-First应用爆发创造条件。他认为2025年将是AI-First应用爆发元年,并指出预训练阶段的Scaling Law正在放缓,但慢思考Scaling Law带来了新的增长空间。李开复还提到,中国市场已经觉醒,AI将赋能千行百业。零一万物正致力于将DeepSeek模型转化为企业级部署解决方案,打造AI 2.0时代的Windows系统。

💡大模型推理成本快速下降:李开复指出,大模型的推理成本正以每年降低十倍的速度快速下降,这为AI-First应用的爆发提供了重要条件。两年前性能不足的模型现在已经足够好,推理成本也变得更低。

🚀Scaling Law从预训练转向推理阶段:预训练阶段的Scaling Law增长放缓,但新的慢思考Scaling Law出现了。模型思考时间更长,就能得出更优质的结果,模型性能的成长速度非常快。

📚模型训练的新方法:李开复将模型训练过程比作先训练“文科生”,让模型阅读所有书籍,再向“理科生”方向训练,最终得到“文理双全”的模型。

🌍中国市场觉醒与AI赋能:李开复认为,中国市场已经觉醒,这为AI-First应用的爆发扫清障碍。今年人工智能的焦点问题是让大模型真正赋能千行百业。

🛠️零一万物的战略调整:零一万物全面拥抱DeepSeek,并将大部分力量用于把DeepSeek优质基座模型转变为企业级DeepSeek部署定制解决方案,旨在打造AI 2.0时代的Windows系统。

3 月 30 日下午消息,在 2025 中关村论坛年会上,零一万物 CEO、创新工场董事长李开复表示,“大模型的推理成本正在以每年降低十倍的速度快速下降,这为 AI-First 应用爆发提供了非常重要的条件。”

“两年前模型性能不够好的模型,现在已经够好了;两年前推理成本太贵的模型,现在已经是‘白菜价’了。”李开复认为,“AI-First 应用很快将井喷,2025 年将会是 AI-First 应用爆发、大模型‘落地为王’的元年。”

他指出,因为模型训练所用的数据量已经触及瓶颈,以及算力方面也存在着客观制约因素,预训练阶段的 Scaling Law 正在放缓。好在行业内已经出现了新的曙光,Scaling Law(规模定律)正从预训练阶段转向推理阶段,也就是慢思考模式。过去,预训练阶段的 Scaling Law 指的是 —— 有更多的 GPU、更多的数据,模型就可以变得更聪明,但目前其增长趋势放缓了。而新的慢思考 Scaling Law 是 —— 模型思考的时间更长,就会得出更优质的结果。

“目前看来,慢思考 Scaling Law 下,模型性能的成长速度非常快,而且还有很大的增长空间。”李开复表示,“结合这些新的技术创新,现在模型训练的过程变得更像是先训练一个‘文科生’,让模型阅读所有书籍,然后再向‘理科生’方向训练,让模型能够证明数学题、会写代码,最终得到厉害的‘文理双全’模型。”

在李开复看来,随着现在企业和用户已经经过“DeepSeek Moment”的市场教育,中国市场真正觉醒了,这也为中国 AI-First 应用的爆发扫清了一大障碍。今年人工智能的一个焦点问题应该是:Make AI Work,让大模型真正赋能千行百业。

据他介绍,鉴于 DeepSeek 落地到企业生产力场景中仍存在许多需要克服的卡点困难。零一万物在过去几个月做了战略调整,已经全面拥抱 DeepSeek,并且把大部分力量用于把 DeepSeek 优质基座模型转变为企业级 DeepSeek 部署定制解决方案 —— 可以类比为零一万物在打造 AI 2.0 时代的 Windows 系统,而 DeepSeek 就是驱动 Windows 的内核。

Fish AI Reader

Fish AI Reader

AI辅助创作,多种专业模板,深度分析,高质量内容生成。从观点提取到深度思考,FishAI为您提供全方位的创作支持。新版本引入自定义参数,让您的创作更加个性化和精准。

FishAI

FishAI

鱼阅,AI 时代的下一个智能信息助手,助你摆脱信息焦虑

联系邮箱 441953276@qq.com

相关标签

李开复 AI-First应用 大模型 推理成本 DeepSeek
相关文章