API形式接入的Codex VS Code插件和CLI如何用上gpt-5.1-codex-max和用回gpt-5/gpt-5-codex

【求助帖】如何在VScode 的 codex插件上选择 GPT-5.1-Codex-MAX 和 xhigh - 搞七捻三 - LINUX DO 好吧,我忍不住了,必须请教一下了,为什么我不能选择GPT-5.1-CODEX-MAX? - 开发调优 / 开发调优, Lv1 - LINUX DO继续:

现在苦恼有用了
有使用API方式接入的佬友希望在vscode插件里直接体验gpt-5.1-codex-max模型,这包括用中转站的和用cliproxy的,于是顺手改了一个:


其实因为我自己有些问题上更喜欢gpt-5的风格,然后我有Team所有根本不用gpt-5.1-codex-mini和gpt-5-codex-mini

具体的改动就是你把插件的webview/assets/index-ge9fmYMM.js换成下面这个就能实现我的效果,实际上就是个前端限制。
压缩一下:index-ge9fmYMM.zip (995.8 KB)

补充一下,如果你想调这里的列表顺序,查找DEFAULT_MODEL_ORDER找到类似下面这个:

DEFAULT_MODEL_ORDER=["gpt-5.1-codex","gpt-5-codex","gpt-5.1","gpt-5"]

然后这里是gpt-5.1-codex-max后面的模型的列表,自己随便玩吧

以及如果有人希望CLI里面也能切换gpt-5.1-codex-max和gpt-5/gpt-5-codex模型,构建了linux和windows版本(为什么codex默认macos是xlarge 我懒得改了):
Remove unused AuthMode import from tests · wendavid552/codex@5d505aa
然后在电脑里查找codex.exe或者codex的二进制(linux),找找npm里面的替换掉即可

29 个赞

感谢佬分享

1 个赞

感谢分享

2 个赞

‎‎‎‎

1 个赞

这么有行动力,我试了几下感觉这个模型的回复风格我不喜欢也就没管了(
开了xhigh以后还是惜字如金,openai个沟槽的还在国外社区发帖说他们炫耀他们通过提升token efficicy 帮大家提高了30%的对话次数,结果带来了这恶心人的惜字如金,不清楚的要追问多少遍:thinking:

2 个赞

感谢感谢,非常感谢

感谢,完美解决

感谢大佬

我的甚至不显示选项,改了还是没有 :smiling_face_with_tear:

收到,这就去试试 :saluting_face:

太帅了,佬

你这个要require openai auth 的那个 加到provider里面

看这个贴子, 解决Codex使用中转API时无法"动态切换模型"的问题 - 开发调优 - LINUX DO

完美解决

感谢大佬,解决问题了

有大佬知道web端应该怎么改么?好像没发现设置项

1 个赞

?web端你想咋改

codex的web端,我没发现该模型和推理深度的地方,我问它自己,他说是max

感谢佬分享

感谢佬的分享