用codex玩openclaw 千万不要这样用

是这样的,前两天踩了巨坑,安装了小龙虾 之后 模型使用的是gpt5.3 codex 那家伙问一句答一句还没任何状态 坑死了看图吧佬们

今天使用了 gpt5.4 瞬间就好用了 让他干啥就干啥 特别好用

5 个赞

这玩样不是编码特化版本吗,怎么拿的来对话…

2 个赞

当时没想到 觉得编程模型应该是最牛逼的 :rofl:

模型没有全能牛逼一说,只有对应方向的牛逼,

1 个赞

是的 给自己整的 新鲜东西 给我用着极其难受 :rofl:

我也是今天换了5.4,灵光多了啊。。。

2 个赞

GPT-5.4:哈哈哈哈,你小子

1 个赞

其实根本不相关。。。。。这是你龙虾的问题

我自己的体验在openclaw中使用codex模型其实也没有很差,是不是添加模型没有设置上下文大小。
如果上下文小于40K,甚至启动的agent等markdown文件都加载不全,会直接切到fallback模型继续读取

我写了个强制 loop,等有空开源一下,什么模型都能持续工作

1 个赞

我也遇到这问题了,我切5.2/5.3/5.4 都不行 都是问一句答一句 根本不干活,你是怎么解决的 佬?改配置文件了吗?

佬开源了吗。想看看

我也发现这问题了……