1 个赞
换不是codex的模型试试
不要用(Responses)接口
1 个赞
这个跟接口也有关系啊,小白不知道 ![]()
想部署下一直没来得及 ![]()
主模型不要用 -codex 换成普通的 5.2 或 5.4 就好了
1 个赞
gpt要加compat,还有header。
配置供参考:
“api”: “openai-responses”,
“models”: [
{
“id”: “gpt-5.3-codex”,
“name”: “GPT-5.3 Codex”,
“api”: “openai-responses”,
“reasoning”: true,
“input”: [
“text”
],
“cost”: {
“input”: 0,
“output”: 0,
“cacheRead”: 0,
“cacheWrite”: 0
},
“contextWindow”: 128000,
“maxTokens”: 8192,
“compat”: {
“supportsStore”: true,
“supportsReasoningEffort”: true
}
}
],
“headers”: {
“User-Agent”: “Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36”
}
}
}
},
4 个赞
插一个眼
稳妥方法 换5.2或者5.4模型
非要用codex模型 就跟楼上说的一样家UA(之前看过佬友提到过,没测试过)
再用5.4模型 说了就做(反应有点慢)之前用5.3codex说了不干活。
2 个赞


