刚刚,OpenAI开源模型疑似被手滑「泄露」?!\x0a\x0agpt-oss-20b 和 gpt-oss-120b!\x0a\x0a网友@apples_jimmy在这组模型上传Hugging Face后一分钟内就发现了。\x0a\x0a99%的概率这就是OpenAI的开源模型——\x0a\x0agpt属于OpenAI,oss代表开源软件,20b和120b代表了两个参数版本。\x0a\x0a幸运的是,在它被删除之前,Jimmy Apples保存了配置,在只有不到「1分钟」的时间窗口!\x0a\x0a他分享了一段LLM的配置文件,极有可能是OpenAI即将开源模型的详细参数。\x0a\x0a这组参数像是一个基于MoE(Mixture of Experts)混合专家架构的高容量模型,具备以下几个特点:\x0a\x0a· 36层Transformer,每层可能有MoE路由;\x0a· 大规模MoE设置(128个专家,每个token激活4个);\x0a· 词表超过20万,可能支持多语种或代码混合输入;\x0a· 上下文窗口为4096,但也有滑动窗口和扩展RoPE,表明模型可能具备处理更长上下文的能力;\x0a· 使用RoPE的NTK插值版本,这是许多模型扩展上下文的一种方式(如GPT-4 Turbo使用的方式);\x0a· 注意力头多达64个,但键/值头只有8个,意味着模型用的是是Multi-QueryAttention(MQA)。\x0a\x0a另一位网友@secemp9似乎验证了这次「泄露」的真实性。\x0a\x0a他不仅也在Hugging Face上发现这个模型,甚至还有一位OpenAI成员点赞了他的爆料推文。\x0a\x0a上传这个模型的组织叫做「yofo-happy-panda」,共有三名成员。\x0a\x0a其中,Dominik Kundel正是OpenAI的现任员工,目前负责开发者体验和SDK。\x0a\x0a有网友猜测,所谓的提前泄露,或许是GPT-5发布前的预热?\x0a\x0a如果真是这样的参数配置,你满意吗?
内容中包含的图片若涉及版权问题,请及时与我们联系删除