IT之家 03月29日
李开复:DeepSeek 的成功证明闭源是“死路”,开源才有更大发展
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_guoji1.html

 

零一万物创始人兼CEO李开复在中关村论坛上指出,DeepSeek的成功证明开源的重要性,预示着AI领域更大的发展潜力。他认为,随着Scaling Law从预训练端向推理端转移,AI模型和应用将在今年迎来加速爆发。李开复分析了超大预训练模型价值降低的四个原因,并强调其价值将更多体现在“教师模型”的角色中。他认为,AI学习范式正在从“人教AI”转变为“AI教AI”,预示着行业的新变革。

💡李开复认为,DeepSeek的成功证明了闭源的局限性,开源模式将驱动AI领域更大的发展。

📈他预测,Scaling Law从预训练端向推理端转移,AI模型和应用将在今年加速爆发,行业口号是“Make AI Work”。

📉李开复分析了超大预训练模型价值降低的四个原因:数据不足、超大GPU群效率降低、价格昂贵、速度慢。他认为,超大预训练模型的价值正在转移。

🔄超大预训练模型的价值将更多体现在“教师模型”的角色中,成为大模型时代的基础设施。新学习范式将是“AI教AI”。

IT之家 3 月 29 日消息,综合界面新闻及新浪科技,在今日的中关村论坛人工智能日的主题演讲上,零一万物创始人兼 CEO 李开复表示,DeepSeek 的成功证明闭源是一条死路,开源才会有更大的发展。

他认为,随着 AI 的 Scaling Law 法则从预训练端转移到推理端上,AI 模型、AI 应用会在今年迎来新的加速爆发,今年的一个行业口号应该是“Make AI Work”(让 AI 变得有用)。他表示,随着 Scaling Law(慢思考)的放缓,超大预训练模型的直接商业价值在逐步降低。

IT之家获悉,李开复给出的四个理由是:数据不足导致传统预训练将终结;超大 GPU 群效率降低,容错问题等导致边际效应降低;超大预训练模型价格昂贵,速度缓慢;新推理 Scaling Law 将带来更高回报。超大预训练模型的价值正在转移,将进一步体现在“教师模型”的角色中,其本质也将更趋进于大模型时代的基础设施。旧学习范式是人教 AI,新学习范式是 AI 教 AI

Fish AI Reader

Fish AI Reader

AI辅助创作,多种专业模板,深度分析,高质量内容生成。从观点提取到深度思考,FishAI为您提供全方位的创作支持。新版本引入自定义参数,让您的创作更加个性化和精准。

FishAI

FishAI

鱼阅,AI 时代的下一个智能信息助手,助你摆脱信息焦虑

联系邮箱 441953276@qq.com

相关标签

李开复 零一万物 开源 AI 预训练模型
相关文章