终于,我知道怎么让codex好用了

从很多角度来说,codex的体验都不如Claude code,一个是codex cli确实没有cc这么完善,另一个原因我想很大程度也是gpt系列模型的原因,gpt和Claude喜欢大量输出不同,gpt总是倾向于分点和精炼,这点同样延续到了gpt的代码特化模型上,最大的表现就是gpt-codex写代码非常偷懒。这同样有两面性,在有些场景里,这会体现为精准,它不会像Claude一样乱加功能,但另一方面,这会导致代码的可拓展性很差,很多都是一次性代码,导致维护和修改特别困难。

由于codex的价格和量实在比cc舒服,所以我也一直在想尝试让codex的体验接近cc。我试了很多的方法,包括提前写好文档、使用skills等等,但效果依旧不如人意,直到今天,我终于发现了一个神奇的方法

简单来说就是,
先写好doc,再用/plan,最后再build,每一次run都如此

这里面最重要的是前两步,先说doc的问题,这其实也是我之前就发现的,相较于直接给codex一个简短的命令,codex在有详细文档的情况下会表现的更加出色,在有足够多的信息,让codex能够有一个清晰的目标,接下来就是更重要的,/plan,这个在cc都算过时的东西在codex又展现出了新的实力,我认为这很大程度上得益于gpt模型本身的智力强悍,在配合文档的情况下,codex中的plan会不停的问你问题,而且很多问题是非常核心的,我一开始都没有想到的问题,二者结合,你会得到一个非常完整的plan,也很多程度上防止了codex偷懒。

但这个工作流并非没有弊端,如果你只想要的是存粹的vibe coding,这个工作流其实并不那么合适,因为很大程度上这个工作流需要你理解其中的技术,你需要提前预判codex会怎么做,你需要做出选择,而且不断的进行调研和文档的撰写修改会导致速度慢很多,相比之下,cc会省力很多。但如果你即想要codex的精准,又想要系统性的可拓展的高质量代码,你可以试试这个工作流。

一点点思考和实践,抛砖引玉,看看各位佬有没有更好的方法 :hand_with_index_finger_and_thumb_crossed:

116 个赞

感觉claude更偷懒,有时候完全。。。

23 个赞

让哈吉米写工作流给codex :bili_038:

14 个赞

请教,用gpt-5.2 还是 gpt-5.3-codex?

2 个赞

CC只会让你代码越来越臃肿不可维护,因为他学不会删代码。
CODEX的优点就是会删掉废弃代码。

我惯性依赖很强,没严重问题一般不想换环境,但是。
我现在想放弃CC了,已经陷入到了无法使用的地步。

CC现在就是装作自己很努力,用掉了你大量token然后干一个其他CLI只要十分之一token就能给达到的效果。

24 个赞

我也感觉Claude更容易偷懒,codex我用omx的autopilot,写好要求之后去喝茶就行了(

1 个赞

可以试试opencode的omo插件,先使用plan智能体,可以根据需求产出比较清晰的指令,然后/start work , 吧指令丢给codex工作

2 个赞

楼主给个示例来学习一下

2 个赞

这个确实,但你就说cc的代码多不多吧,每次审查代码都要我半条老命 :laughing:

3 个赞

我今天还在群里直播 claude opus 4.6对一个2000行的rust模块拆分。 哪怕是我亲自来,也就是把所有模块 复制粘贴出去然后逐个include!的事,结果他干掉了我800K+token,最后实现还错了。

换成codex 5.3 几个命令裁剪出去确定一下不到20K做完

5 个赞

其实从我个人的感觉上来说,5.2和5.3好像没什么区别,5.3只是会说更多话似乎,但大模型嘛,用新不用旧,我现在基本都是用5.3多

感觉简单任务还有分析这种就没必要用codex了,太慢了

我很同意这个说法,codex其实很听话的,会按你要求拆分代码,臃肿了也能很好维护,cc会给你加一堆冗余的东西

3 个赞

重构这种活还是让codex干比较好,codex比较精准

2 个赞

ui类比较丑

1 个赞

感觉claude code现在的提示词有问题,rust的拆分根本不用考虑外部和上下游,直接include就完事了,他非要读完整个项目万无一失之后开始计划,计划完之后压缩上下文就丢掉了我最初的指示。

2 个赞

codex确实不会写前端,可以考虑让哈基米来

2 个赞

mvp阶段使用其他工具把基本的UI定好,然后codex能给你保持很好的UI一致性。不要一开始让codex设计UI

2 个赞

搞个HA,先~plan 再exec就完事

个人觉得cc用于vibe更舒服。但cx更适合自己控制的方式写代码,指令遵循很好,自己把plan做好,实现很完美。

1 个赞