韭研公社 07月20日 18:32
大模型新周期开始,25H2就是24H1
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_guoji1.html

 

本文探讨了GPT-5的预期发布及其在数学奥赛IMO金牌中的体现,同时分析了Scaling Law在模型预训练中的应用。

🔥大模型新周期开始,25H2就是24H1!(0720) 🌟海外GPT-5预期集中出现。1)路线还是Sam在2月讲的,是在推理/非推理/工具使用模型之间切换的统一系统。2)官方时间说“soon”。3)有些传闻说试用过GPT-5很强,但是没法证实/证伪。OpenAI实验性模型拿下最新数学奥赛IMO金牌是预热,相应技术「会用到GPT-5中」。 🌟IMO金牌再次全方位证明Scaling Law:1)「pre-training scaling」:模型是在不使用工具和联网的情况下实现的,纯靠预训练知识

Fish AI Reader

Fish AI Reader

AI辅助创作,多种专业模板,深度分析,高质量内容生成。从观点提取到深度思考,FishAI为您提供全方位的创作支持。新版本引入自定义参数,让您的创作更加个性化和精准。

FishAI

FishAI

鱼阅,AI 时代的下一个智能信息助手,助你摆脱信息焦虑

联系邮箱 441953276@qq.com

相关标签

大模型 GPT-5 Scaling Law 数学奥赛IMO 预训练
相关文章