在 VS Code 的 GitHub Copilot 中接入自定义模型的方法分享 🎉

为什么我想这么整?

我平时在 VS Code 里用学生优惠的 Copilot Pro,但发现每月调用大概只有 300 次,少的可怜。
正好最近看到像 Gemini 3 在编码辅助上的超强表现,而 Google 的 Gemini Code Assist 和Gemini Cli 用起来我还没有那么顺手。
所以就想,要是能在 Copilot 里随意使用gemini 3.0 pro,那就爽了。
经过几天高强度检索,终于找到了解决方法。


OAI Compatible Provider for Copilot:让 Copilot 支持「任意 OpenAI 兼容模型」

  • 安装扩展:OAI Compatible Provider for Copilot
  • GitHub 仓库VS Code 拓展
  • 按照它的教程在 VS Code 的设置里设置baseUrl和models:
  "oaicopilot.baseUrl": "你的 API 入口,例如 https://api-inference.xxx/v1",
  "oaicopilot.models": [
    {
      "id": "模型ID(如 Qwen3-Coder-480B-A35B-Instruct)",
      "owned_by": "模型提供商",
      "context_length": 256000,
      "max_tokens": 8192,
      "temperature": 0,
      "top_p": 1
    }
  ]
  • 打开 Copilot Chat 界面 → 模型选择器 → “Manage Models…” → 选 “OAI Compatible” → 输入你的 API Key → 勾选模型就行。
  • 现在就可以在Copilot接入第三方api和模型了。

如果你是用各个公益站的API,那么OAI Compatible Provider就足够了:tada:
但我薅了CodeX和Gemini pro,总想把他们派上用场 :rofl:,现在就要介绍另一个神器:CliProxyAPI

CliProxyAPI:为 CLI 提供 OpenAI/Gemini/Claude/Codex 兼容 API 接口的代理服务器

  • 按照这个教程可以零成本部署,我是用ClawCloud Run部署的,教程里面有很多选择
  • 部署好后,安装教程登录自己的CodeX、Gemini等,再将部署得到的base url添加到OAI Compatible Provider for Copilot,就可以在Copilot中畅享CodeX和Gemini了
91 个赞

:distorted_face:
想起来之前那个ollama了

4 个赞

直接用roo code也行呀,是因为copilot可以tab补全吗?

1 个赞

嗯,另一种方法就是通过ollama的方式接入copilot,但都要部署, OAI Compatible Provider for Copilot通过安装插件就能实现第三方api的接入了

1 个赞

cline系列的代码索引基本都炸了

同步还是很舒服的

1 个赞

是的,插件设置可以同步 :bili_057:

不错不错,mark了

不错不错 用上了

先mark , 有时间再细细研究

感谢大佬

刚想睡觉就有佬友送枕头了,正需要呢!!!

mark,回公司试试

感谢分享

大佬,教教我怎么接codex的api。用这个agent老是只对话一次

oai-compatible-copilot
这是新方案??支持mcp嘛?

佬,jb系列会有么

Mark一下!

推荐个更好用的插件,为copilot chat配置第三方模型

  1. 支持主流模型平台 配置简单
  2. kimi coding plan, glm coding 能显示余额
21 个赞

支持newapi吗?