我在本机 Hermes 源码里确认到:
Hermes Agent 的 ACP 模型选择状态 构建时,走的是:
所以就会出现:
后端请求某个默认模型能工作
但 WebUI 模型下拉框只拿到默认模型
custom_providers.models 没有完整映射到 WebUI 下拉框
我查到的关键证据
Hermes Agent 本地源码
在 acp_adapter/server.py 里,模型状态是这样构建的:
curated_models_for_provider(normalized_provider)
然后生成 available_models
这说明 WebUI 的模型列表不是直接按你的 config.yaml 里的 models 全展开。
Hermes config/model_switch 代码
我也确认到:
custom_providers.models 确实会被 Hermes 读取
list 也会兼容转成 dict
/model 相关内部逻辑也会把这些模型纳入 provider 分组
也就是说:
Hermes 后端“知道你配了多个模型”
但:
WebUI 下拉框“未必按这个列表展示”
查到的 WebUI 相关 issue
搜索结果里已经有几个非常相关的信号:
Model dropdown shows hardcoded list — should fetch live...
Model dropdown ignores provider context
WebUI silently ignores provider/model selection when Hermes is ...
OpenRouter free-tier variants invisible...
Custom Model ID input has no provider selector — silent failure
这些都说明: 这个 WebUI 的模型选择器过去/现在确实存在 provider 和模型枚举方面的问题。
Hermes Agent 支持自定义 provider、多模型配置、默认模型切换
Hermes WebUI 对 custom:relay 这种自定义 provider 的模型下拉展示支持不完整
所以才会:
只能看到 gpt-5.4
改了 models 也没用
中转站明明支持多模型
我在本机 Hermes 源码里确认到:
Hermes Agent 的 ACP 模型选择状态 构建时,走的是:
这意味着模型选择器优先依赖:
对于这种:
它更像是一个自定义 provider,不是 Hermes 内置那种完整有 curated catalog 的官方 provider。
所以就会出现:
后端请求某个默认模型能工作
但 WebUI 模型下拉框只拿到默认模型
custom_providers.models 没有完整映射到 WebUI 下拉框
我查到的关键证据
Hermes Agent 本地源码
在 acp_adapter/server.py 里,模型状态是这样构建的:
curated_models_for_provider(normalized_provider)
然后生成 available_models
这说明 WebUI 的模型列表不是直接按你的 config.yaml 里的 models 全展开。
Hermes config/model_switch 代码
我也确认到:
custom_providers.models 确实会被 Hermes 读取
list 也会兼容转成 dict
/model 相关内部逻辑也会把这些模型纳入 provider 分组
也就是说:
Hermes 后端“知道你配了多个模型”
但:
WebUI 下拉框“未必按这个列表展示”
查到的 WebUI 相关 issue
搜索结果里已经有几个非常相关的信号:
Model dropdown shows hardcoded list — should fetch live...
Model dropdown ignores provider context
WebUI silently ignores provider/model selection when Hermes is ...
OpenRouter free-tier variants invisible...
Custom Model ID input has no provider selector — silent failure
这些都说明: 这个 WebUI 的模型选择器过去/现在确实存在 provider 和模型枚举方面的问题。
Hermes Agent 支持自定义 provider、多模型配置、默认模型切换
Hermes WebUI 对 custom:relay 这种自定义 provider 的模型下拉展示支持不完整
所以才会:
只能看到 gpt-5.4
改了 models 也没用
中转站明明支持多模型