是这样的,前两天踩了巨坑,安装了小龙虾 之后 模型使用的是gpt5.3 codex 那家伙问一句答一句还没任何状态 坑死了看图吧佬们
今天使用了 gpt5.4 瞬间就好用了 让他干啥就干啥 特别好用
这玩样不是编码特化版本吗,怎么拿的来对话…
当时没想到 觉得编程模型应该是最牛逼的 ![]()
模型没有全能牛逼一说,只有对应方向的牛逼,
是的 给自己整的 新鲜东西 给我用着极其难受 ![]()
我也是今天换了5.4,灵光多了啊。。。
GPT-5.4:哈哈哈哈,你小子
其实根本不相关。。。。。这是你龙虾的问题
我自己的体验在openclaw中使用codex模型其实也没有很差,是不是添加模型没有设置上下文大小。
如果上下文小于40K,甚至启动的agent等markdown文件都加载不全,会直接切到fallback模型继续读取
我写了个强制 loop,等有空开源一下,什么模型都能持续工作
我也遇到这问题了,我切5.2/5.3/5.4 都不行 都是问一句答一句 根本不干活,你是怎么解决的 佬?改配置文件了吗?
佬开源了吗。想看看
我也发现这问题了……