OpenCode 使用 AI SDKModels.dev 来支持 75+ LLM providers(75+ 大模型服务商),同时也支持运行 local models(本地模型)

要添加一个 provider,你需要:

  1. 使用 /connect 命令添加该 provider 的 API keys
  2. 在你的 OpenCode config 中配置该 provider。

Credentials(凭证)

当你通过 /connect 命令添加 provider 的 API keys 时,它们会被存储在:

  1. ~/.local/share/opencode/auth.json

Config(配置)

你可以在 OpenCode config 的 provider 区域自定义 providers。


Base URL

你可以通过设置 baseURL 选项来自定义任意 provider 的 base URL。 这在使用 proxy services(代理服务)custom endpoints(自定义端点) 时非常有用。

  1. {
  2. "$schema": "https://opencode.ai/config.json",
  3. "provider": {
  4. "anthropic": {
  5. "options": {
  6. "baseURL": "https://api.anthropic.com/v1"
  7. }
  8. }
  9. }
  10. }

OpenCode Zen

OpenCode Zen 是由 OpenCode 团队提供的一组模型列表,这些模型已经过测试和验证,可以很好地与 OpenCode 一起工作。

使用步骤:

  1. 在 TUI 中运行 /connect 命令,选择 opencode,然后跳转到 opencode.ai/auth

    1. /connect
  2. 登录账号,添加你的 billing details(计费信息),并复制你的 API key。

  3. 粘贴你的 API key。

    1. API key
    2. enter
  4. 在 TUI 中运行 /models,查看推荐的模型列表。

    1. /models

它的使用方式与 OpenCode 中的其他 provider 完全一致,并且是 可选(optional) 的。


Directory(目录)

下面我们详细介绍一些 providers。 如果你希望把某个 provider 添加到该列表,欢迎提交 PR(Pull Request)。


Amazon Bedrock

要在 OpenCode 中使用 Amazon Bedrock:

1. 申请模型访问权限

进入 Amazon Bedrock console 的 Model catalog,申请你想使用的模型访问权限。


2. 配置认证方式(Authentication)

可以使用以下方式之一进行认证:

Environment Variables(环境变量,快速开始)

运行 opencode 时设置以下任意一种环境变量:

  1. # 方式 1:使用 AWS access keys
  2. AWS_ACCESS_KEY_ID=XXX AWS_SECRET_ACCESS_KEY=YYY opencode
  3. # 方式 2:使用命名的 AWS profile
  4. AWS_PROFILE=my-profile opencode
  5. # 方式 3:使用 Bedrock bearer token
  6. AWS_BEARER_TOKEN_BEDROCK=XXX opencode

或者把它们加入你的 bash profile:

  1. export AWS_PROFILE=my-dev-profile
  2. export AWS_REGION=us-east-1

Configuration File(配置文件,推荐)

对于项目级或长期配置,建议使用 opencode.json

  1. {
  2. "$schema": "https://opencode.ai/config.json",
  3. "provider": {
  4. "amazon-bedrock": {
  5. "options": {
  6. "region": "us-east-1",
  7. "profile": "my-aws-profile"
  8. }
  9. }
  10. }
  11. }

可用选项:

  • region — AWS 区域(例如 us-east-1eu-west-1
  • profile — 来自 ~/.aws/credentials 的 AWS 命名 profile
  • endpoint — 用于 VPC endpoints 的自定义 endpoint URL(等价于通用 baseURL

Advanced:VPC Endpoints

如果你使用的是 Bedrock 的 VPC endpoints:

  1. {
  2. "$schema": "https://opencode.ai/config.json",
  3. "provider": {
  4. "amazon-bedrock": {
  5. "options": {
  6. "region": "us-east-1",
  7. "profile": "production",
  8. "endpoint": "https://bedrock-runtime.us-east-1.vpce-xxxxx.amazonaws.com"
  9. }
  10. }
  11. }
  12. }

Authentication Methods(认证方式)

  • AWS_ACCESS_KEY_ID / AWS_SECRET_ACCESS_KEY:在 AWS Console 中创建 IAM user 并生成 access keys
  • AWS_PROFILE:使用 ~/.aws/credentials 中的命名 profile,可通过 aws configure --profile my-profileaws sso login 配置
  • AWS_BEARER_TOKEN_BEDROCK:在 Amazon Bedrock console 中生成长期 API keys

Authentication Precedence(认证优先级)

Amazon Bedrock 使用以下认证优先级:

  1. Bearer TokenAWS_BEARER_TOKEN_BEDROCK 环境变量或通过 /connect 保存的 token
  2. AWS Credential Chain — profile、access keys、shared credentials、IAM roles、instance metadata

3. 选择模型

运行 /models 选择你需要的模型:

  1. /models

Anthropic

推荐注册 Claude ProMax

  1. 注册完成后,运行 /connect 并选择 Anthropic。

  2. 选择 Claude Pro/Max,浏览器会打开并要求你完成认证。

  3. 使用 /models 查看并选择可用模型。

使用 API keys

如果你没有 Pro/Max 订阅,可以选择 Create an API Key。 如果你已经有 API key,可以选择 Manually enter API Key 并粘贴到终端。

🌩️ Cloudflare AI Gateway

Cloudflare AI Gateway 允许你通过一个统一的 endpoint 访问来自 OpenAI、Anthropic、Workers AI 等多个模型。配合 Unified Billing 功能,你无需为每个 provider 分别配置 API key。

使用步骤:

  1. 打开 Cloudflare dashboard,进入 AI → AI Gateway,创建一个新的 gateway。

  2. 将 Account ID 和 Gateway ID 设置为环境变量:

  1. export CLOUDFLARE_ACCOUNT_ID=your-32-character-account-id
  2. export CLOUDFLARE_GATEWAY_ID=your-gateway-id
  1. 运行 /connect,搜索 Cloudflare AI Gateway

  2. 输入你的 Cloudflare API token,或者设置为环境变量:

  1. export CLOUDFLARE_API_TOKEN=your-api-token
  1. 运行 /models 选择模型。

你也可以在 opencode config 中手动添加模型。


🧠 Cortecs

  1. 打开 Cortecs console,注册账号并生成 API key。
  2. 运行 /connect,搜索 Cortecs
  3. 输入 Cortecs API key。
  4. 运行 /models 选择模型,例如 Kimi K2 Instruct

🔍 DeepSeek

  1. 打开 DeepSeek console,创建账号并生成 API key。
  2. 运行 /connect,搜索 DeepSeek
  3. 输入 DeepSeek API key。
  4. 运行 /models 选择模型,例如 DeepSeek Reasoner

⚡ Deep Infra

  1. 打开 Deep Infra dashboard,创建账号并生成 API key。
  2. 运行 /connect,搜索 Deep Infra
  3. 输入 Deep Infra API key。
  4. 运行 /models 选择模型。

🎆 Fireworks AI

  1. 打开 Fireworks AI console,创建账号并生成 API key。
  2. 运行 /connect,搜索 Fireworks AI
  3. 输入 Fireworks AI API key。
  4. 运行 /models 选择模型,例如 Kimi K2 Instruct

🧑‍💻 GitHub Copilot

你可以在 OpenCode 中直接使用你的 GitHub Copilot 订阅。

注意:

  • 某些模型可能需要 Pro+ subscription。
  • 有些模型需要在 GitHub Copilot settings 中手动启用。

步骤:

  1. 运行 /connect,搜索 GitHub Copilot
  2. 打开 github.com/login/device,输入终端中显示的 code。
  3. 授权完成后,运行 /models 选择模型。

☁️ Google Vertex AI

使用 Google Vertex AI 前,需要:

  • 已启用 Vertex AI API 的 Google Cloud project。

步骤:

  1. 在 Google Cloud Console 的 Model Garden 查看你所在 region 可用的模型。

  2. 设置环境变量:

    • GOOGLE_CLOUD_PROJECT
    • VERTEX_LOCATION(可选,默认 global
    • 身份认证方式:

      • 使用 GOOGLE_APPLICATION_CREDENTIALS
      • 或使用 gcloud CLI 登录
  3. 运行 /models 选择模型。

提示:使用 global region 可提升可用性并减少错误。


🚀 Groq

  1. 打开 Groq console,创建 API key。
  2. 运行 /connect,搜索 Groq
  3. 输入 API key。
  4. 运行 /models 选择模型。

🤗 Hugging Face

Hugging Face Inference Providers 支持 17+ provider 的开源模型。

  1. 在 Hugging Face settings 创建 Token,并开启 Inference Providers 权限。
  2. 运行 /connect,搜索 Hugging Face
  3. 输入 Hugging Face token。
  4. 运行 /models 选择模型,例如 Kimi-K2-InstructGLM-4.6

📊 Helicone

Helicone 是一个 LLM 可观测平台,用于日志、监控和分析。Helicone AI Gateway 会自动根据 model 路由请求。

步骤:

  1. 在 Helicone 官网注册并生成 API key。
  2. 运行 /connect,搜索 Helicone
  3. 输入 API key。
  4. 运行 /models 选择模型。

你可以通过 opencode config 自定义模型和 headers,例如用于缓存、用户追踪、Session 管理。

Session tracking

Helicone 的 Sessions 功能可以把相关的 LLM 请求分组。 可使用 opencode-helicone-session 插件自动同步 OpenCode 对话。


🦙 llama.cpp(本地模型)

你可以通过 llama.cpp 的 llama-server 使用本地模型。

关键说明:

  • llama.cpp:自定义 provider ID。
  • npm:使用 @ai-sdk/openai-compatible
  • options.baseURL:本地 server endpoint。
  • models:模型配置列表。

🌐 IO.NET

IO.NET 提供 17 个针对不同场景优化的模型。

  1. 在 IO.NET console 创建账号并生成 API key。
  2. 运行 /connect,搜索 IO.NET
  3. 输入 API key。
  4. 运行 /models 选择模型。

🖥️ LM Studio(本地模型)

可以通过 LM Studio 使用本地模型。

说明与 llama.cpp 类似:

  • 使用 OpenAI-compatible API。
  • 设置本地 baseURL
  • models 中定义可用模型。

🌙 Moonshot AI

用于使用 Moonshot AI 的 Kimi K2 模型。

  1. 在 Moonshot AI console 创建 API key。
  2. 运行 /connect,搜索 Moonshot AI
  3. 输入 API key。
  4. 运行 /models 选择 Kimi K2

🧪 MiniMax

  1. 在 MiniMax API Console 创建 API key。
  2. 运行 /connect,搜索 MiniMax
  3. 输入 API key。
  4. 运行 /models 选择模型,例如 M2.1

🏭 Nebius Token Factory

  1. 在 Nebius Token Factory console 创建 API key。
  2. 运行 /connect,搜索 Nebius Token Factory
  3. 输入 API key。
  4. 运行 /models 选择模型。

🦙 Ollama(本地模型)

你可以通过 Ollama 使用本地模型。

  • 设置本地 API endpoint。
  • models 中配置模型。
  • 如果 tool call 不工作,可以调大 num_ctx(16k–32k)。

☁️ Ollama Cloud

  1. 在 ollama.com 注册并生成 API key。
  2. 运行 /connect,搜索 Ollama Cloud
  3. 输入 API key。
  4. 必须先在本地 pull cloud 模型。
  5. 运行 /models 选择模型。

🤖 OpenAI

推荐订阅 ChatGPT Plus 或 Pro。

  1. 运行 /connect,选择 OpenAI
  2. 可通过浏览器授权 ChatGPT Plus / Pro,或手动输入 API key。
  3. 运行 /models 选择模型。

🌟 OpenCode Zen

OpenCode 官方测试并验证过的模型集合。

  1. 登录 OpenCode Zen 并创建 API key。
  2. 运行 /connect,搜索 OpenCode Zen
  3. 输入 API key。
  4. 运行 /models 选择模型。

🌍 OpenRouter

  1. 在 OpenRouter dashboard 创建 API key。
  2. 运行 /connect,搜索 OpenRouter
  3. 输入 API key。
  4. 运行 /models 选择模型。
  5. 也可以在 opencode config 中自定义 provider 路由策略。

🏢 SAP AI Core

SAP AI Core 提供来自 OpenAI、Anthropic、Google、Amazon、Meta 等 40+ 模型。

  1. 在 SAP BTP Cockpit 创建 service key。
  2. 运行 /connect,搜索 SAP AI Core
  3. 输入 service key JSON。
  4. 可选配置 deployment ID 和 resource group。
  5. 运行 /models 选择模型。

🌐 OVHcloud AI Endpoints

  1. 在 OVHcloud panel 创建 API key。
  2. 运行 /connect,搜索 OVHcloud AI Endpoints
  3. 输入 API key。
  4. 运行 /models 选择模型。

⚙️ Scaleway

  1. 在 Scaleway Console 创建 API key。
  2. 运行 /connect,搜索 Scaleway
  3. 输入 API key。
  4. 运行 /models 选择模型。

🤝 Together AI

  1. 在 Together AI console 创建 API key。
  2. 运行 /connect,搜索 Together AI
  3. 输入 API key。
  4. 运行 /models 选择模型。

🎭 Venice AI

  1. 在 Venice AI console 创建 API key。
  2. 运行 /connect,搜索 Venice AI
  3. 输入 API key。
  4. 运行 /models 选择模型。

🚦 Vercel AI Gateway

通过统一 endpoint 访问多个 provider,价格无加价。

  1. 在 Vercel dashboard 创建 API key。
  2. 运行 /connect,搜索 Vercel AI Gateway
  3. 输入 API key。
  4. 运行 /models 选择模型。
  5. 可在 config 中设置 provider routing 顺序。

🧬 xAI

  1. 在 xAI console 创建 API key。
  2. 运行 /connect,搜索 xAI
  3. 输入 API key。
  4. 运行 /models 选择模型,例如 Grok Beta

🧪 Z.AI

  1. 在 Z.AI API console 创建 API key。
  2. 运行 /connect,搜索 Z.AIZ.AI Coding Plan
  3. 输入 API key。
  4. 运行 /models 选择模型,例如 GLM-4.7

🧩 ZenMux

  1. 在 ZenMux dashboard 创建 API key。
  2. 运行 /connect,搜索 ZenMux
  3. 输入 API key。
  4. 运行 /models 选择模型。
  5. 可在 config 中添加额外模型。

🧱 Custom provider(自定义 Provider)

你可以添加任何 OpenAI-compatible 的 provider。

核心流程:

  1. 运行 /connect,选择 Other
  2. 输入自定义 provider ID。
  3. 输入 API key。
  4. opencode.json 中配置:

    • npm
    • name
    • options.baseURL
    • models
  5. 运行 /models 查看新 provider。

支持高级配置:

  • apiKey
  • headers
  • limit.context
  • limit.output

🛠️ Troubleshooting(故障排查)

如果 provider 配置有问题:

  1. 使用 opencode auth list 检查 credential 是否存在。
  2. 对于自定义 provider:

    • 确认 provider ID 与 /connect 一致。
    • 确认 npm package 正确。
    • 确认 options.baseURL endpoint 正确。