OpenAI开源模型发布!

https://openai.com/index/introducing-gpt-oss

GitHub - openai/gpt-oss: gpt-oss-120b and gpt-oss-20b are two open-weight language models by OpenAI
两个变体,都是128k上下文, Apache 2.0 许可证,原生MXFP4精度120B版本需要80G显存,20B版本需要16G显存,和其它推理模型一样通过System Prompt设置推理强度。


终于端上来了,o3mini级,用工具能和o4mini差不多,不过有的跑分只给用工具的就让人比较担心

好家伙这钱给ds够用到r3了吧

26 个赞

o3 mini的水平?
那么看来oai的模型参数也不是很大诶

2 个赞

对的,o4-mini只有8-10b,o3只有200b

https://openai.com/open-models/

不会吧 那么小怎么可以做出这样的效果

1 个赞

come natively quantized in MXFP4

这算是全球第一个原生 FP4 模型吗?
老牌三巨头果然还有好料

等下,这是推理模型吗?这么猛????

这模型应该开源第一吧

20b干到o3mini也可以了啊, 试了下速度爆炸, 应该就是horizon, 感觉本地加claude code有戏了 :rofl:

2 个赞

这个 AIME 的图… 难绷+1。

这不会就是horizon alpha和beta吧

这个跑分感觉很高啊

预训练没中文???

我再看看。。。

主要是英文 写的是这个


还真是

2 个赞

可以期待o3-mini级的推理模型无限用啦 :smiling_face_with_three_hearts:

2 个赞

这120b 只激活5b参数 这跑分可以了 能用上的话接入cc试试

1 个赞

国内的平台可以部署么,好奇用在claude code上面怎么样 :lark_057:

1 个赞

这下真是openai了。

openai open了,我怎么会做这样的梦 :tieba_022:

17 个赞

太炸裂了

4 个赞