2025-08-0802ai门户网
刚刚,OpenAI开源模型疑似被手滑「泄露」?!gpt-oss-20b和gpt-oss-120b!网友@apples_jimmy在这组模型上传HuggingFace后一分钟内就发现了。99%的概率这就是OpenAI的开源模型——gpt属于OpenAI,oss代表开源软件,20b和120b代表了两个参数版本。
幸运的是,在它被删除之前,JimmyApples保存了配置,在只有不到「1分钟」的时间窗口!他分享了一段LLM的配置文件,极有可能是OpenAI即将开源模型的详细参数。这组参数像是一个基于MoE(MixtureofExperts)混合专家架构的高容量模型,具备以下几个特点:·36层Transformer,每层可能有MoE路由;·大规模MoE设置(128个专家,每个token激活4个);·词表超过20万,可能支持多语种或代码混合输入;·上下文窗口为4096,但也有滑动窗口和扩展RoPE,表明模型可能具备处理更长上下文的能力;·使用RoPE的NTK插值版本,这是许多模型扩展上下文的一种方式(如GPT-4Turbo使用的方式);
·注意力头多达64个,但键/值头只有8个,意味着模型用的是是Multi-QueryAttention(MQA)。另一位网友@secemp9似乎验证了这次「泄露」的真实性。他不仅也在HuggingFace上发现这个模型,甚至还有一位OpenAI成员点赞了他的爆料推文。
上传这个模型的组织叫做「yofo-happy-panda」,共有三名成员。其中,DominikKundel正是OpenAI的现任员工,目前负责开发者体验和SDK。有网友猜测,所谓的提前泄露,或许是GPT-5发布前的预热?如果真是这样的参数配置,你满意吗?
声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表本站立场。文章及其配图仅供学习分享之
新品榜/热门榜