codex配置文件

关于codex使用公益站,可以使用以下配置:

config.toml

model_provider = "veloera"
model = "gpt-5"

[profiles.kilo]
model_provider = "kilo"
model = "openai/gpt-5"

[profiles.openrouter]
model_provider = "openrouter"
model = "openrouter/sonoma-sky-alpha"

[profiles.veloera]
model_provider = "veloera"
model = "gpt-5"


[model_providers.kilo]
name = "kilo"
base_url = "http://127.0.0.1:9000/v1"
wire_api = "chat"
model_reasoning_effort = "high"
http_headers = { "Authorization" = "Bearer your_api_key" }


[model_providers.openrouter]
name = "OpenRouter"
base_url = "https://openrouter.ai/api/v1"
wire_api = "chat"
http_headers = { "Authorization" = "Bearer your_api_key" }

[model_providers.veloera]
name = "veloera"
base_url = "https://zone.veloera.org/v1"
wire_api = "chat"
http_headers = { "Authorization" = "Bearer your_api_key" }

前述举例3家api提供商(kilo, openrouter, veloera(公益站:zone.veloera.org)),有以下注意点:

  • 命令行codex配合–profile 参数使用,可以快速选择不同的api提供商,例如
codex --profile veloera

需要配置多个api源的,需完成以下相应配置

[profiles.xxx]
[model_providers.xxx]
  • 在命令行窗口直接输入codex的(不使用–profile),适用以下默认参数:
model_provider = "veloera"
model = "gpt-5"

注意,上述model = "gpt-5"参数值,根据不同api供应商提供的模型名称为准。需要使用其他模型的,就修改这个参数,例如使用openrouter的sonoma-sky-alpha,参考设置如下:

model_provider = "openrouter"
model = "openrouter/sonoma-sky-alpha"
  • 以下提供最简单上手的配置:
model_provider = "veloera"
model = "gpt-5"

[model_providers.veloera]
name = "veloera"
base_url = "https://zone.veloera.org/v1"
wire_api = "chat"
http_headers = { "Authorization" = "Bearer your_api_key" }

因为veloera(公益站:zone.veloera.org)提供"gpt-5"模型,可以直接试下效果。另外,输入api key不要遗漏Bearer


2025年9月22日回复

统一回复下大家问题,关于codex的api源,鉴于各家公益站适配不一,可能存在使用体验区别,以下仅就官方kimi、deepseek、glm、openrouter等作实例。

  • 首先需要区分[model_providers.xxx][profiles.xxx]的关系。
    以openrouter为例,openrouter提供免费模型(x-ai/grok-4-fast:free)或收费模型(openai/gpt-5),则先配置openrouter作为provider:
[model_providers.openrouter]
name = "OpenRouter"
base_url = "https://openrouter.ai/api/v1"
wire_api = "chat"
http_headers = { "Authorization" = "Bearer sk-or-xxx" }
  • 至于具体模型,则配置
[profiles.gpt(可以取任意别称)]
model_provider = "openrouter"
model = "openai/gpt-5"(此处选择具体模型)

[profiles.grok(可以取任意别称)]
model_provider = "openrouter"
model = "x-ai/grok-4-fast:free"(此处选择具体模型)

以上两个配置的key[model_provider]均为"openrouter",具体模型key[model]可按需选择,例如"x-ai/grok-4-fast:free"或"openai/gpt-5"

  • [model_providers.xxx][profiles.xxx]配置后,在config.toml额外配置profile
profile = "grok"
或
profile = "gpt"

可以配置codex启动的默认模型。

101 个赞

感谢大佬,讲的很清楚了

1 个赞

感谢大佬。

1 个赞

感谢佬友

感谢佬~

感谢佬分享。

wire_api 是指的api端点吗 有哪些可选值

WooooOOOooooOOoooo,太好了,大佬动作真快,前面服务器都进不去了。

好东西.

这是codex配置文件解释

关于wire_api参数,仅有"chat", “responses"二值,默认是"chat”。应该和api最新协议有关。
如果是openai账户登录,可以选择"responses"。一般的公益站或自建api,大部分是采用兼容的openai协议,只能选择"chat"参数。测试了openrouter提供的gpt-5,貌似也不支持这个"responses"参数。
后续等大佬解答…

1 个赞

感谢解答~

感谢佬友教程

1 个赞

首先感谢佬友喂饭教程,本来因为配置文件没有自动生成,感觉麻烦没有配置codex的,看到佬帖子火速配置完了。


然后关于这个,我也好奇,于是做了些搜索(与印象里的新闻结合查询),得到了这个参数的详情:
这个是openai试图更新使用的 OpenAI Responses API,应该是想要用来替换现在使用的 v1/chat/completions的新标准。我觉得openrouter应该是有适配的,可能需要看看文档(openrouter太贵,我自己没有在用)

以下是openai的Responses API介绍:

OpenAI的Responses API是一个较新的API端点(于2024年5月发布,后续有更新),旨在简化构建代理(agents)和工具集成应用的开发过程。它结合了Chat Completions API和Assistants API的优势,提供了一个更流线型、异步且状态化的接口,支持处理复杂推理、工具调用和多模态输入(如文本、图像)。

新特性的主要内容

  • 状态化设计(Stateful Nature):Responses API会自动维护对话状态,包括上下文、推理过程和工具调用结果。这意味着你可以进行多轮对话,而无需像以前那样手动管理或重复发送历史消息。API通过响应ID(例如,使用previous_response_id参数)来链接后续交互,确保模型能访问先前的推理项(reasoning items),从而提升效率和智能性。
  • 无缝多轮交互(Seamless Multi-Turn Interactions):在单个API调用中,可以处理多个步骤的对话,包括工具调用(如web search、file search、code interpreter或image generation)和链式推理。模型能自动决定何时调用工具、何时直接响应,并保留跨轮次的上下文。这比旧API(如Chat Completions)更高效,后者需要多次往返调用。
  • 内置工具和扩展支持:集成如MCP(Model Context Protocol)服务器、图像生成(gpt-image-1模型,支持实时流式预览和多轮编辑)、文件搜索(支持多向量存储和属性过滤)等工具。这些工具在推理链中直接可用,提升了代理的可靠性和上下文丰富度。
  • 其他改进:支持后台模式(background mode)处理长任务、推理摘要(reasoning summaries)提供模型思考过程的可见性,以及加密推理项(encrypted reasoning items)以增强隐私。在无状态模式下(store=false或零数据保留时),你需手动包含加密推理项来保持上下文,但整体上简化了开发。
  • 与旧API的比较:它针对更先进的模型(如GPT-4o系列、o3/o4-mini)优化,支持在链式思考中直接调用工具,并保留推理令牌以降低成本和延迟。

与对话可持续性(Conversation Sustainability)的关系

是的,这个API直接与对话的可持续性(或持久性)相关。它解决了传统Chat Completions API的痛点:在旧API中,每一轮对话都需要开发者手动附加所有先前消息来维护上下文,这会导致令牌消耗增加、延迟更高,并限制长对话的处理能力。Responses API通过其状态化机制自动处理这些,确保上下文在多轮中持续可用,甚至允许从特定响应点分叉对话。这使得构建持久、上下文感知的应用(如聊天机器人或代理)更高效和可靠。

是否有新特性避免附加先前对话?

是的,这就是Responses API的核心创新之一。你不再需要每次调用时手动附加历史消息——API会通过响应ID和内部状态管理来处理。举例来说,在多轮对话中,你只需引用先前的响应ID,模型就能自动继承上下文和推理。这与Assistants API的线程(threads)类似,但更集成和灵活。如果你使用无状态模式,仍需处理部分上下文,但整体负担大大减轻。

有条件的可以用openai官方账号以获得最佳体验

1 个赞

怎么一下大家都转这个 :rofl:

感谢教程

1 个赞

感谢分享:+1:

感谢分享

佬,我按照教程配置了veloera,但是当我测试让它介绍我当前的项目的时候,就出现报错400,是什么问题啊?

我也遇到了这个 不知道咋解决