为什么我想这么整?
我平时在 VS Code 里用学生优惠的 Copilot Pro,但发现每月调用大概只有 300 次,少的可怜。
正好最近看到像 Gemini 3 在编码辅助上的超强表现,而 Google 的 Gemini Code Assist 和Gemini Cli 用起来我还没有那么顺手。
所以就想,要是能在 Copilot 里随意使用gemini 3.0 pro,那就爽了。
经过几天高强度检索,终于找到了解决方法。
OAI Compatible Provider for Copilot:让 Copilot 支持「任意 OpenAI 兼容模型」
- 安装扩展:OAI Compatible Provider for Copilot
- GitHub 仓库,VS Code 拓展
- 按照它的教程在 VS Code 的设置里设置baseUrl和models:
"oaicopilot.baseUrl": "你的 API 入口,例如 https://api-inference.xxx/v1",
"oaicopilot.models": [
{
"id": "模型ID(如 Qwen3-Coder-480B-A35B-Instruct)",
"owned_by": "模型提供商",
"context_length": 256000,
"max_tokens": 8192,
"temperature": 0,
"top_p": 1
}
]
- 打开 Copilot Chat 界面 → 模型选择器 → “Manage Models…” → 选 “OAI Compatible” → 输入你的 API Key → 勾选模型就行。
- 现在就可以在Copilot接入第三方api和模型了。
如果你是用各个公益站的API,那么OAI Compatible Provider就足够了![]()
但我薅了CodeX和Gemini pro,总想把他们派上用场
,现在就要介绍另一个神器:CliProxyAPI
CliProxyAPI:为 CLI 提供 OpenAI/Gemini/Claude/Codex 兼容 API 接口的代理服务器
- 按照这个教程可以零成本部署,我是用ClawCloud Run部署的,教程里面有很多选择
- 部署好后,安装教程登录自己的CodeX、Gemini等,再将部署得到的base url添加到OAI Compatible Provider for Copilot,就可以在Copilot中畅享CodeX和Gemini了

