- Credentials(凭证)
- Config(配置)
- OpenCode Zen
- Directory(目录)
- Amazon Bedrock
- Anthropic
- 🌩️ Cloudflare AI Gateway
- 🧠 Cortecs
- 🔍 DeepSeek
- ⚡ Deep Infra
- 🎆 Fireworks AI
- 🧑💻 GitHub Copilot
- ☁️ Google Vertex AI
- 🚀 Groq
- 🤗 Hugging Face
- 📊 Helicone
- 🦙 llama.cpp(本地模型)
- 🌐 IO.NET
- 🖥️ LM Studio(本地模型)
- 🌙 Moonshot AI
- 🧪 MiniMax
- 🏭 Nebius Token Factory
- 🦙 Ollama(本地模型)
- ☁️ Ollama Cloud
- 🤖 OpenAI
- 🌟 OpenCode Zen
- 🌍 OpenRouter
- 🏢 SAP AI Core
- 🌐 OVHcloud AI Endpoints
- ⚙️ Scaleway
- 🤝 Together AI
- 🎭 Venice AI
- 🚦 Vercel AI Gateway
- 🧬 xAI
- 🧪 Z.AI
- 🧩 ZenMux
- 🧱 Custom provider(自定义 Provider)
- 🛠️ Troubleshooting(故障排查)
OpenCode 使用 AI SDK 和 Models.dev 来支持 75+ LLM providers(75+ 大模型服务商),同时也支持运行 local models(本地模型)。
要添加一个 provider,你需要:
- 使用
/connect命令添加该 provider 的 API keys。 - 在你的 OpenCode config 中配置该 provider。
Credentials(凭证)
当你通过 /connect 命令添加 provider 的 API keys 时,它们会被存储在:
~/.local/share/opencode/auth.json
Config(配置)
你可以在 OpenCode config 的 provider 区域自定义 providers。
Base URL
你可以通过设置 baseURL 选项来自定义任意 provider 的 base URL。
这在使用 proxy services(代理服务) 或 custom endpoints(自定义端点) 时非常有用。
{"$schema": "https://opencode.ai/config.json","provider": {"anthropic": {"options": {"baseURL": "https://api.anthropic.com/v1"}}}}
OpenCode Zen
OpenCode Zen 是由 OpenCode 团队提供的一组模型列表,这些模型已经过测试和验证,可以很好地与 OpenCode 一起工作。
使用步骤:
在 TUI 中运行
/connect命令,选择 opencode,然后跳转到 opencode.ai/auth。/connect
登录账号,添加你的 billing details(计费信息),并复制你的 API key。
粘贴你的 API key。
┌ API key││└ enter
在 TUI 中运行
/models,查看推荐的模型列表。/models
它的使用方式与 OpenCode 中的其他 provider 完全一致,并且是 可选(optional) 的。
Directory(目录)
下面我们详细介绍一些 providers。 如果你希望把某个 provider 添加到该列表,欢迎提交 PR(Pull Request)。
Amazon Bedrock
要在 OpenCode 中使用 Amazon Bedrock:
1. 申请模型访问权限
进入 Amazon Bedrock console 的 Model catalog,申请你想使用的模型访问权限。
2. 配置认证方式(Authentication)
可以使用以下方式之一进行认证:
Environment Variables(环境变量,快速开始)
运行 opencode 时设置以下任意一种环境变量:
# 方式 1:使用 AWS access keysAWS_ACCESS_KEY_ID=XXX AWS_SECRET_ACCESS_KEY=YYY opencode# 方式 2:使用命名的 AWS profileAWS_PROFILE=my-profile opencode# 方式 3:使用 Bedrock bearer tokenAWS_BEARER_TOKEN_BEDROCK=XXX opencode
或者把它们加入你的 bash profile:
export AWS_PROFILE=my-dev-profileexport AWS_REGION=us-east-1
Configuration File(配置文件,推荐)
对于项目级或长期配置,建议使用 opencode.json:
{"$schema": "https://opencode.ai/config.json","provider": {"amazon-bedrock": {"options": {"region": "us-east-1","profile": "my-aws-profile"}}}}
可用选项:
region— AWS 区域(例如us-east-1、eu-west-1)profile— 来自~/.aws/credentials的 AWS 命名 profileendpoint— 用于 VPC endpoints 的自定义 endpoint URL(等价于通用baseURL)
Advanced:VPC Endpoints
如果你使用的是 Bedrock 的 VPC endpoints:
{"$schema": "https://opencode.ai/config.json","provider": {"amazon-bedrock": {"options": {"region": "us-east-1","profile": "production","endpoint": "https://bedrock-runtime.us-east-1.vpce-xxxxx.amazonaws.com"}}}}
Authentication Methods(认证方式)
AWS_ACCESS_KEY_ID/AWS_SECRET_ACCESS_KEY:在 AWS Console 中创建 IAM user 并生成 access keysAWS_PROFILE:使用~/.aws/credentials中的命名 profile,可通过aws configure --profile my-profile或aws sso login配置AWS_BEARER_TOKEN_BEDROCK:在 Amazon Bedrock console 中生成长期 API keys
Authentication Precedence(认证优先级)
Amazon Bedrock 使用以下认证优先级:
- Bearer Token —
AWS_BEARER_TOKEN_BEDROCK环境变量或通过/connect保存的 token - AWS Credential Chain — profile、access keys、shared credentials、IAM roles、instance metadata
3. 选择模型
运行 /models 选择你需要的模型:
/models
Anthropic
推荐注册 Claude Pro 或 Max。
注册完成后,运行
/connect并选择 Anthropic。选择 Claude Pro/Max,浏览器会打开并要求你完成认证。
使用
/models查看并选择可用模型。
使用 API keys
如果你没有 Pro/Max 订阅,可以选择 Create an API Key。 如果你已经有 API key,可以选择 Manually enter API Key 并粘贴到终端。
🌩️ Cloudflare AI Gateway
Cloudflare AI Gateway 允许你通过一个统一的 endpoint 访问来自 OpenAI、Anthropic、Workers AI 等多个模型。配合 Unified Billing 功能,你无需为每个 provider 分别配置 API key。
使用步骤:
打开 Cloudflare dashboard,进入 AI → AI Gateway,创建一个新的 gateway。
将 Account ID 和 Gateway ID 设置为环境变量:
export CLOUDFLARE_ACCOUNT_ID=your-32-character-account-idexport CLOUDFLARE_GATEWAY_ID=your-gateway-id
运行
/connect,搜索 Cloudflare AI Gateway。输入你的 Cloudflare API token,或者设置为环境变量:
export CLOUDFLARE_API_TOKEN=your-api-token
- 运行
/models选择模型。
你也可以在 opencode config 中手动添加模型。
🧠 Cortecs
- 打开 Cortecs console,注册账号并生成 API key。
- 运行
/connect,搜索 Cortecs。 - 输入 Cortecs API key。
- 运行
/models选择模型,例如 Kimi K2 Instruct。
🔍 DeepSeek
- 打开 DeepSeek console,创建账号并生成 API key。
- 运行
/connect,搜索 DeepSeek。 - 输入 DeepSeek API key。
- 运行
/models选择模型,例如 DeepSeek Reasoner。
⚡ Deep Infra
- 打开 Deep Infra dashboard,创建账号并生成 API key。
- 运行
/connect,搜索 Deep Infra。 - 输入 Deep Infra API key。
- 运行
/models选择模型。
🎆 Fireworks AI
- 打开 Fireworks AI console,创建账号并生成 API key。
- 运行
/connect,搜索 Fireworks AI。 - 输入 Fireworks AI API key。
- 运行
/models选择模型,例如 Kimi K2 Instruct。
🧑💻 GitHub Copilot
你可以在 OpenCode 中直接使用你的 GitHub Copilot 订阅。
注意:
- 某些模型可能需要 Pro+ subscription。
- 有些模型需要在 GitHub Copilot settings 中手动启用。
步骤:
- 运行
/connect,搜索 GitHub Copilot。 - 打开
github.com/login/device,输入终端中显示的 code。 - 授权完成后,运行
/models选择模型。
☁️ Google Vertex AI
使用 Google Vertex AI 前,需要:
- 已启用 Vertex AI API 的 Google Cloud project。
步骤:
在 Google Cloud Console 的 Model Garden 查看你所在 region 可用的模型。
设置环境变量:
GOOGLE_CLOUD_PROJECTVERTEX_LOCATION(可选,默认global)身份认证方式:
- 使用
GOOGLE_APPLICATION_CREDENTIALS - 或使用 gcloud CLI 登录
- 使用
运行
/models选择模型。
提示:使用
globalregion 可提升可用性并减少错误。
🚀 Groq
- 打开 Groq console,创建 API key。
- 运行
/connect,搜索 Groq。 - 输入 API key。
- 运行
/models选择模型。
🤗 Hugging Face
Hugging Face Inference Providers 支持 17+ provider 的开源模型。
- 在 Hugging Face settings 创建 Token,并开启 Inference Providers 权限。
- 运行
/connect,搜索 Hugging Face。 - 输入 Hugging Face token。
- 运行
/models选择模型,例如 Kimi-K2-Instruct 或 GLM-4.6。
📊 Helicone
Helicone 是一个 LLM 可观测平台,用于日志、监控和分析。Helicone AI Gateway 会自动根据 model 路由请求。
步骤:
- 在 Helicone 官网注册并生成 API key。
- 运行
/connect,搜索 Helicone。 - 输入 API key。
- 运行
/models选择模型。
你可以通过 opencode config 自定义模型和 headers,例如用于缓存、用户追踪、Session 管理。
Session tracking
Helicone 的 Sessions 功能可以把相关的 LLM 请求分组。
可使用 opencode-helicone-session 插件自动同步 OpenCode 对话。
🦙 llama.cpp(本地模型)
你可以通过 llama.cpp 的 llama-server 使用本地模型。
关键说明:
llama.cpp:自定义 provider ID。npm:使用@ai-sdk/openai-compatible。options.baseURL:本地 server endpoint。models:模型配置列表。
🌐 IO.NET
IO.NET 提供 17 个针对不同场景优化的模型。
- 在 IO.NET console 创建账号并生成 API key。
- 运行
/connect,搜索 IO.NET。 - 输入 API key。
- 运行
/models选择模型。
🖥️ LM Studio(本地模型)
可以通过 LM Studio 使用本地模型。
说明与 llama.cpp 类似:
- 使用 OpenAI-compatible API。
- 设置本地
baseURL。 - 在
models中定义可用模型。
🌙 Moonshot AI
用于使用 Moonshot AI 的 Kimi K2 模型。
- 在 Moonshot AI console 创建 API key。
- 运行
/connect,搜索 Moonshot AI。 - 输入 API key。
- 运行
/models选择 Kimi K2。
🧪 MiniMax
- 在 MiniMax API Console 创建 API key。
- 运行
/connect,搜索 MiniMax。 - 输入 API key。
- 运行
/models选择模型,例如 M2.1。
🏭 Nebius Token Factory
- 在 Nebius Token Factory console 创建 API key。
- 运行
/connect,搜索 Nebius Token Factory。 - 输入 API key。
- 运行
/models选择模型。
🦙 Ollama(本地模型)
你可以通过 Ollama 使用本地模型。
- 设置本地 API endpoint。
- 在
models中配置模型。 - 如果 tool call 不工作,可以调大
num_ctx(16k–32k)。
☁️ Ollama Cloud
- 在 ollama.com 注册并生成 API key。
- 运行
/connect,搜索 Ollama Cloud。 - 输入 API key。
- 必须先在本地 pull cloud 模型。
- 运行
/models选择模型。
🤖 OpenAI
推荐订阅 ChatGPT Plus 或 Pro。
- 运行
/connect,选择 OpenAI。 - 可通过浏览器授权 ChatGPT Plus / Pro,或手动输入 API key。
- 运行
/models选择模型。
🌟 OpenCode Zen
OpenCode 官方测试并验证过的模型集合。
- 登录 OpenCode Zen 并创建 API key。
- 运行
/connect,搜索 OpenCode Zen。 - 输入 API key。
- 运行
/models选择模型。
🌍 OpenRouter
- 在 OpenRouter dashboard 创建 API key。
- 运行
/connect,搜索 OpenRouter。 - 输入 API key。
- 运行
/models选择模型。 - 也可以在 opencode config 中自定义 provider 路由策略。
🏢 SAP AI Core
SAP AI Core 提供来自 OpenAI、Anthropic、Google、Amazon、Meta 等 40+ 模型。
- 在 SAP BTP Cockpit 创建 service key。
- 运行
/connect,搜索 SAP AI Core。 - 输入 service key JSON。
- 可选配置 deployment ID 和 resource group。
- 运行
/models选择模型。
🌐 OVHcloud AI Endpoints
- 在 OVHcloud panel 创建 API key。
- 运行
/connect,搜索 OVHcloud AI Endpoints。 - 输入 API key。
- 运行
/models选择模型。
⚙️ Scaleway
- 在 Scaleway Console 创建 API key。
- 运行
/connect,搜索 Scaleway。 - 输入 API key。
- 运行
/models选择模型。
🤝 Together AI
- 在 Together AI console 创建 API key。
- 运行
/connect,搜索 Together AI。 - 输入 API key。
- 运行
/models选择模型。
🎭 Venice AI
- 在 Venice AI console 创建 API key。
- 运行
/connect,搜索 Venice AI。 - 输入 API key。
- 运行
/models选择模型。
🚦 Vercel AI Gateway
通过统一 endpoint 访问多个 provider,价格无加价。
- 在 Vercel dashboard 创建 API key。
- 运行
/connect,搜索 Vercel AI Gateway。 - 输入 API key。
- 运行
/models选择模型。 - 可在 config 中设置 provider routing 顺序。
🧬 xAI
- 在 xAI console 创建 API key。
- 运行
/connect,搜索 xAI。 - 输入 API key。
- 运行
/models选择模型,例如 Grok Beta。
🧪 Z.AI
- 在 Z.AI API console 创建 API key。
- 运行
/connect,搜索 Z.AI 或 Z.AI Coding Plan。 - 输入 API key。
- 运行
/models选择模型,例如 GLM-4.7。
🧩 ZenMux
- 在 ZenMux dashboard 创建 API key。
- 运行
/connect,搜索 ZenMux。 - 输入 API key。
- 运行
/models选择模型。 - 可在 config 中添加额外模型。
🧱 Custom provider(自定义 Provider)
你可以添加任何 OpenAI-compatible 的 provider。
核心流程:
- 运行
/connect,选择 Other。 - 输入自定义 provider ID。
- 输入 API key。
在
opencode.json中配置:npmnameoptions.baseURLmodels
- 运行
/models查看新 provider。
支持高级配置:
apiKeyheaderslimit.contextlimit.output
🛠️ Troubleshooting(故障排查)
如果 provider 配置有问题:
- 使用
opencode auth list检查 credential 是否存在。 对于自定义 provider:
- 确认 provider ID 与
/connect一致。 - 确认 npm package 正确。
- 确认
options.baseURLendpoint 正确。
- 确认 provider ID 与
