Provedores
OpenCode suporta mais de 75 provedores de LLM atraves do AI SDK e Models.dev, permitindo integracao com numerosos servicos de modelos de linguagem e modelos locais.
Processo de Configuracao
- Adicione chaves API usando o comando
/connect - Configure o provedor na sua configuracao do OpenCode
- Credenciais sao armazenadas em
~/.local/share/opencode/auth.json
Diretorio
Aqui esta uma referencia rapida dos provedores suportados:
| Provedor | Metodo de Configuracao | Recursos Principais |
|---|---|---|
| Anthropic | OAuth ou chave API | Suporte Claude Pro/Max |
| OpenAI | ChatGPT Plus/Pro ou chave API | Modelos GPT-4o, o1 |
| GitHub Copilot | Autenticacao por codigo de dispositivo | Modelos de assinatura Pro+ |
| Google Vertex AI | Conta de servico ou autenticacao gcloud | 40+ modelos |
| Amazon Bedrock | Credenciais/perfil AWS | Suporte a endpoint VPC |
| Azure OpenAI | Chave API + nome do recurso | Implantacoes personalizadas |
| Groq | Chave API | Inferencia de alta velocidade |
| DeepSeek | Chave API | Modelos de raciocinio |
| OpenRouter | Chave API | Roteamento multi-provedor |
| GitLab Duo | Chave API | Integracao com GitLab |
| Ollama | Configuracao local | Executar modelos localmente |
| LM Studio | Configuracao local | Gerenciamento de modelos locais |
Provedores adicionais incluem: 302.AI, Baseten, Cerebras, Cloudflare AI Gateway, Cortecs, Deep Infra, Firmware, Fireworks AI, Hugging Face, Helicone, IO.NET, Moonshot AI, MiniMax, Nebius Token Factory, OVHcloud AI Endpoints, SAP AI Core, Scaleway, Together AI, Venice AI, Vercel AI Gateway, xAI, Z.AI, ZenMux.
Configuracao de URL Base
Voce pode personalizar a URL base para qualquer provedor configurando a opcao baseURL. Isso e util ao usar servicos de proxy ou endpoints personalizados.
{
"$schema": "https://opencode.ai/config.json",
"provider": {
"anthropic": {
"options": {
"baseURL": "https://api.anthropic.com/v1"
}
}
}
}OpenCode Zen
OpenCode Zen e uma lista de modelos fornecidos pela equipe do OpenCode que foram testados e verificados para funcionar bem.
- Execute
/connect, selecione opencode - Visite opencode.ai/auth para autenticar
- Copie e cole sua chave API
- Use
/modelspara ver os modelos recomendados
Provedores Populares
Anthropic
- Execute
/connecte selecione Anthropic - Escolha Claude Pro/Max para autenticacao do navegador
- Acesse modelos via comando
/models
OpenAI
- Crie uma chave API em platform.openai.com/api-keys
- Execute
/connecte pesquise OpenAI - Insira a chave API
- Selecione o modelo com
/models
Groq
Groq fornece inferencia de alta velocidade para varios modelos.
- Crie uma chave API em console.groq.com
- Execute
/connecte pesquise Groq - Insira a chave API
- Selecione o modelo com
/models
{
"$schema": "https://opencode.ai/config.json",
"provider": {
"groq": {
"options": {
"apiKey": "{env:GROQ_API_KEY}"
}
}
}
}DeepSeek
DeepSeek oferece modelos de raciocinio poderosos.
- Crie uma chave API em platform.deepseek.com
- Execute
/connecte pesquise DeepSeek - Insira a chave API
- Selecione o modelo com
/models
{
"$schema": "https://opencode.ai/config.json",
"provider": {
"deepseek": {
"options": {
"apiKey": "{env:DEEPSEEK_API_KEY}"
}
}
}
}GitHub Copilot
A integracao do GitHub Copilot requer uma assinatura Pro+.
- Execute
/connecte selecione GitHub Copilot - Complete a autenticacao por codigo de dispositivo
- Acesse modelos via comando
/models
{
"$schema": "https://opencode.ai/config.json",
"provider": {
"github-copilot": {
"models": {
"gpt-4o": {
"name": "GPT-4o (Copilot)"
}
}
}
}
}GitLab Duo
GitLab Duo fornece recursos de IA integrados com GitLab.
{
"$schema": "https://opencode.ai/config.json",
"provider": {
"gitlab-duo": {
"options": {
"apiKey": "{env:GITLAB_API_KEY}"
}
}
}
}OpenRouter
{
"provider": {
"openrouter": {
"models": {
"moonshotai/kimi-k2": {
"options": {
"provider": {
"order": ["baseten"],
"allow_fallbacks": false
}
}
}
}
}
}
}Ollama (Local)
{
"provider": {
"ollama": {
"npm": "@ai-sdk/openai-compatible",
"name": "Ollama (local)",
"options": {
"baseURL": "http://localhost:11434/v1"
},
"models": {
"llama2": {
"name": "Llama 2"
}
}
}
}
}LM Studio (Local)
{
"provider": {
"lmstudio": {
"npm": "@ai-sdk/openai-compatible",
"name": "LM Studio (local)",
"options": {
"baseURL": "http://127.0.0.1:1234/v1"
},
"models": {
"google/gemma-3n-e4b": {
"name": "Gemma 3n-e4b (local)"
}
}
}
}
}Amazon Bedrock
{
"provider": {
"amazon-bedrock": {
"options": {
"region": "us-east-1",
"profile": "my-aws-profile"
}
}
}
}Precedencia de Autenticacao
Ao usar Amazon Bedrock, a autenticacao segue esta ordem de precedencia:
- Bearer Token - Se
AWS_BEARER_TOKEN_BEDROCKestiver configurado (via/connectou variavel de ambiente), tem precedencia sobre todos os outros metodos - Cadeia de Credenciais AWS - Resolucao padrao de credenciais AWS:
- Configuracao de perfil AWS
- Chaves de acesso (
AWS_ACCESS_KEY_ID,AWS_SECRET_ACCESS_KEY) - Funcoes IAM
- EKS IRSA (Funcoes IAM para Contas de Servico)
Azure OpenAI
- Crie um recurso Azure OpenAI no portal Azure
- Implante o modelo no Azure AI Foundry
- Execute
/connecte pesquise Azure - Defina a variavel de ambiente
AZURE_RESOURCE_NAME
Configuracao de Provedor Personalizado
Para provedores compativeis com OpenAI:
{
"provider": {
"myprovider": {
"npm": "@ai-sdk/openai-compatible",
"name": "My AI Provider",
"options": {
"baseURL": "https://api.myprovider.com/v1",
"apiKey": "{env:MY_API_KEY}"
},
"models": {
"my-model": {
"name": "My Model",
"limit": {
"context": 200000,
"output": 65536
}
}
}
}
}
}Sintaxe de Variaveis de Ambiente
Use a sintaxe {env:VARIABLE_NAME} para referenciar variaveis de ambiente na sua configuracao:
{
"provider": {
"myprovider": {
"options": {
"apiKey": "{env:MY_PROVIDER_API_KEY}"
}
}
}
}Isso permite manter credenciais sensiveis fora dos seus arquivos de configuracao.
Limites do Modelo
Os campos limit ajudam o OpenCode a entender a janela de contexto e os limites de saida dos seus modelos:
{
"provider": {
"myprovider": {
"models": {
"my-model": {
"name": "My Model",
"limit": {
"context": 200000,
"output": 65536
}
}
}
}
}
}context: Tokens de entrada maximos que o modelo pode processaroutput: Tokens de saida maximos que o modelo pode gerar
Headers Personalizados
Voce pode adicionar headers personalizados as solicitacoes API:
{
"provider": {
"myprovider": {
"options": {
"headers": {
"Authorization": "Bearer custom-token",
"X-Custom-Header": "value"
}
}
}
}
}Solucao de Problemas
- Verificar autenticacao: Execute
opencode auth listpara verificar credenciais - Problemas com provedores personalizados:
- Verifique se o ID do provedor corresponde entre
/connecte configuracao - Confirme o pacote npm correto
- Verifique o endpoint API em
options.baseURL
- Verifique se o ID do provedor corresponde entre