最近订阅了Copilot Pro Plus,可以使用很多模型,但缺点是只能在copilot中使用,于是发现了这个开源工具,
copilot-api,将copilot转为api供其他服务使用,这个开源项目干的事情很直接——在本地起一个代理服务,把 GitHub Copilot 的后端包装成标准的 OpenAI / Anthropic 兼容接口,让所有支持自定义 API 地址的 AI 工具都能无缝接入。
一、跑起来只需要一行命令
不需要 clone 仓库,不需要装任何额外依赖,有 Node.js 环境就够了:
npx copilot-api@latest start
第一次运行会触发 GitHub OAuth 登录流程,按提示在浏览器里授权即可。认证成功后,终端会显示本地服务地址(默认 http://localhost:4141),以及一个用量监控面板的链接。
Token 会持久化存储在本地,下次启动无需再次授权。
二、接入各种 AI 工具
1. 通用配置方式
服务跑起来后,把其他工具的 API 地址改成 http://localhost:4141 即可。API Key 可以填任意字符串(如 dummy),服务不校验。
支持的端点:
- OpenAI 兼容:
POST /v1/chat/completions、GET /v1/models、POST /v1/embeddings - Anthropic 兼容:
POST /v1/messages
2. 接入 Claude Code
这是目前最香的用法之一。copilot-api 内置了专门的 Claude Code 集成:
npx copilot-api@latest start --claude-code
加上 --claude-code 后,它会引导你选择主模型和快速模型,然后生成一条包含所有必要环境变量的启动命令,直接复制粘贴到新终端即可把 Claude Code 指向 Copilot 后端。
如果不想每次都走一遍交互流程,在项目根目录创建 .claude/settings.json:
{
"env": {
"ANTHROPIC_BASE_URL": "http://localhost:4141",
"ANTHROPIC_AUTH_TOKEN": "dummy",
"ANTHROPIC_MODEL": "claude-opus-4.6",
"ANTHROPIC_DEFAULT_SONNET_MODEL": "claude-opus-4.6",
"ANTHROPIC_SMALL_FAST_MODEL": "claude-sonnet-4.6",
"ANTHROPIC_DEFAULT_HAIKU_MODEL": "claude-sonnet-4.6",
"DISABLE_NON_ESSENTIAL_MODEL_CALLS": "1",
"CLAUDE_CODE_DISABLE_NONESSENTIAL_TRAFFIC": "1"
}
}
3. 接入 OpenClaw 等工具
在工具的设置里找到「自定义 API 地址」或「Base URL」,填入 http://localhost:4141,API Key 随便填。可用的模型列表通过 GET /v1/models 拉取,直接在工具里选即可。
三、查看用量
不想开浏览器的话,直接在终端看:
npx copilot-api@latest check-usage
或者访问服务启动时打印的 Dashboard 链接,里面有各模型的配额进度条和详细统计。
四、注意事项
频率控制是重点,这也是 GitHub 官方明确警告过的风险点:高频自动化请求可能触发滥用检测,轻则收到安全警告,重则临时封禁账号。
建议的启动姿势:
# 每次请求间隔至少 10 秒,超限时等待而非报错
npx copilot-api@latest start --rate-limit 10 --wait
--rate-limit <秒> 控制请求最小间隔,--wait 让客户端在超限时自动等待而不是收到 429 错误。如果你对请求更敏感,可以改用 --manual 手动审批每一条请求。
另外几点务必清楚:
- 这是逆向工程项目,GitHub 官方不提供支持,未来 Copilot API 更新后可能随时失效
- 仅供个人合理使用,不要挂到公网给多人使用,更不要拿来跑批量任务
- 企业/团队计划用户请加
--account-type business或--account-type enterprise,否则认证会失败 - 使用前请自行阅读 GitHub 可接受使用政策 和 Copilot 条款
