提供商
OpenCode 通过 AI SDK 和 Models.dev 支持 75+ 个 LLM Provider,可以集成众多语言模型服务和本地模型。
设置流程
- 使用
/connect命令添加 API 密钥 - 在 OpenCode 配置中配置 Provider
- 凭证存储在
~/.local/share/opencode/auth.json
Base URL 配置
{
"$schema": "https://opencode.ai/config.json",
"provider": {
"anthropic": {
"options": {
"baseURL": "https://api.anthropic.com/v1"
}
}
}
}OpenCode Zen
OpenCode Zen 是 OpenCode 团队提供的经过测试验证的模型列表。
- 运行
/connect,选择 opencode - 访问 opencode.ai/auth 进行身份验证
- 复制粘贴你的 API 密钥
- 使用
/models查看推荐模型
热门 Provider
Anthropic
- 运行
/connect并选择 Anthropic - 选择 Claude Pro/Max 进行浏览器认证
- 通过
/models命令访问模型
OpenAI
- 在 platform.openai.com/api-keys 创建 API 密钥
- 运行
/connect并搜索 OpenAI - 输入 API 密钥
- 使用
/models选择模型
OpenRouter
{
"provider": {
"openrouter": {
"models": {
"moonshotai/kimi-k2": {
"options": {
"provider": {
"order": ["baseten"],
"allow_fallbacks": false
}
}
}
}
}
}
}Ollama(本地)
{
"provider": {
"ollama": {
"npm": "@ai-sdk/openai-compatible",
"name": "Ollama (local)",
"options": {
"baseURL": "http://localhost:11434/v1"
},
"models": {
"llama2": {
"name": "Llama 2"
}
}
}
}
}LM Studio(本地)
{
"provider": {
"lmstudio": {
"npm": "@ai-sdk/openai-compatible",
"name": "LM Studio (local)",
"options": {
"baseURL": "http://127.0.0.1:1234/v1"
},
"models": {
"google/gemma-3n-e4b": {
"name": "Gemma 3n-e4b (local)"
}
}
}
}
}Amazon Bedrock
{
"provider": {
"amazon-bedrock": {
"options": {
"region": "us-east-1",
"profile": "my-aws-profile"
}
}
}
}Azure OpenAI
- 在 Azure 门户创建 Azure OpenAI 资源
- 在 Azure AI Foundry 部署模型
- 运行
/connect并搜索 Azure - 设置
AZURE_RESOURCE_NAME环境变量
自定义 Provider 设置
对于兼容 OpenAI 的 Provider:
{
"provider": {
"myprovider": {
"npm": "@ai-sdk/openai-compatible",
"name": "My AI Provider",
"options": {
"baseURL": "https://api.myprovider.com/v1",
"apiKey": "{env:MY_API_KEY}"
},
"models": {
"my-model": {
"name": "My Model",
"limit": {
"context": 200000,
"output": 65536
}
}
}
}
}
}故障排除
- 检查认证:运行
opencode auth list验证凭证 - 自定义 Provider 问题:
- 验证
/connect和配置中的 Provider ID 匹配 - 确认正确的 npm 包
- 检查
options.baseURL中的 API 端点
- 验证