Português
Documentação
Provedores

Provedores

OpenCode suporta mais de 75 provedores de LLM atraves do AI SDK e Models.dev, permitindo integracao com numerosos servicos de modelos de linguagem e modelos locais.

Processo de Configuracao

  1. Adicione chaves API usando o comando /connect
  2. Configure o provedor na sua configuracao do OpenCode
  3. Credenciais sao armazenadas em ~/.local/share/opencode/auth.json

Diretorio

Aqui esta uma referencia rapida dos provedores suportados:

ProvedorMetodo de ConfiguracaoRecursos Principais
AnthropicOAuth ou chave APISuporte Claude Pro/Max
OpenAIChatGPT Plus/Pro ou chave APIModelos GPT-4o, o1
GitHub CopilotAutenticacao por codigo de dispositivoModelos de assinatura Pro+
Google Vertex AIConta de servico ou autenticacao gcloud40+ modelos
Amazon BedrockCredenciais/perfil AWSSuporte a endpoint VPC
Azure OpenAIChave API + nome do recursoImplantacoes personalizadas
GroqChave APIInferencia de alta velocidade
DeepSeekChave APIModelos de raciocinio
OpenRouterChave APIRoteamento multi-provedor
GitLab DuoChave APIIntegracao com GitLab
OllamaConfiguracao localExecutar modelos localmente
LM StudioConfiguracao localGerenciamento de modelos locais

Provedores adicionais incluem: 302.AI, Baseten, Cerebras, Cloudflare AI Gateway, Cortecs, Deep Infra, Firmware, Fireworks AI, Hugging Face, Helicone, IO.NET, Moonshot AI, MiniMax, Nebius Token Factory, OVHcloud AI Endpoints, SAP AI Core, Scaleway, Together AI, Venice AI, Vercel AI Gateway, xAI, Z.AI, ZenMux.

Configuracao de URL Base

Voce pode personalizar a URL base para qualquer provedor configurando a opcao baseURL. Isso e util ao usar servicos de proxy ou endpoints personalizados.

{
  "$schema": "https://opencode.ai/config.json",
  "provider": {
    "anthropic": {
      "options": {
        "baseURL": "https://api.anthropic.com/v1"
      }
    }
  }
}

OpenCode Zen

OpenCode Zen e uma lista de modelos fornecidos pela equipe do OpenCode que foram testados e verificados para funcionar bem.

  1. Execute /connect, selecione opencode
  2. Visite opencode.ai/auth para autenticar
  3. Copie e cole sua chave API
  4. Use /models para ver os modelos recomendados

Provedores Populares

Anthropic

  1. Execute /connect e selecione Anthropic
  2. Escolha Claude Pro/Max para autenticacao do navegador
  3. Acesse modelos via comando /models

OpenAI

  1. Crie uma chave API em platform.openai.com/api-keys
  2. Execute /connect e pesquise OpenAI
  3. Insira a chave API
  4. Selecione o modelo com /models

Groq

Groq fornece inferencia de alta velocidade para varios modelos.

  1. Crie uma chave API em console.groq.com
  2. Execute /connect e pesquise Groq
  3. Insira a chave API
  4. Selecione o modelo com /models
{
  "$schema": "https://opencode.ai/config.json",
  "provider": {
    "groq": {
      "options": {
        "apiKey": "{env:GROQ_API_KEY}"
      }
    }
  }
}

DeepSeek

DeepSeek oferece modelos de raciocinio poderosos.

  1. Crie uma chave API em platform.deepseek.com
  2. Execute /connect e pesquise DeepSeek
  3. Insira a chave API
  4. Selecione o modelo com /models
{
  "$schema": "https://opencode.ai/config.json",
  "provider": {
    "deepseek": {
      "options": {
        "apiKey": "{env:DEEPSEEK_API_KEY}"
      }
    }
  }
}

GitHub Copilot

A integracao do GitHub Copilot requer uma assinatura Pro+.

  1. Execute /connect e selecione GitHub Copilot
  2. Complete a autenticacao por codigo de dispositivo
  3. Acesse modelos via comando /models
{
  "$schema": "https://opencode.ai/config.json",
  "provider": {
    "github-copilot": {
      "models": {
        "gpt-4o": {
          "name": "GPT-4o (Copilot)"
        }
      }
    }
  }
}

GitLab Duo

GitLab Duo fornece recursos de IA integrados com GitLab.

{
  "$schema": "https://opencode.ai/config.json",
  "provider": {
    "gitlab-duo": {
      "options": {
        "apiKey": "{env:GITLAB_API_KEY}"
      }
    }
  }
}

OpenRouter

{
  "provider": {
    "openrouter": {
      "models": {
        "moonshotai/kimi-k2": {
          "options": {
            "provider": {
              "order": ["baseten"],
              "allow_fallbacks": false
            }
          }
        }
      }
    }
  }
}

Ollama (Local)

{
  "provider": {
    "ollama": {
      "npm": "@ai-sdk/openai-compatible",
      "name": "Ollama (local)",
      "options": {
        "baseURL": "http://localhost:11434/v1"
      },
      "models": {
        "llama2": {
          "name": "Llama 2"
        }
      }
    }
  }
}

LM Studio (Local)

{
  "provider": {
    "lmstudio": {
      "npm": "@ai-sdk/openai-compatible",
      "name": "LM Studio (local)",
      "options": {
        "baseURL": "http://127.0.0.1:1234/v1"
      },
      "models": {
        "google/gemma-3n-e4b": {
          "name": "Gemma 3n-e4b (local)"
        }
      }
    }
  }
}

Amazon Bedrock

{
  "provider": {
    "amazon-bedrock": {
      "options": {
        "region": "us-east-1",
        "profile": "my-aws-profile"
      }
    }
  }
}

Precedencia de Autenticacao

Ao usar Amazon Bedrock, a autenticacao segue esta ordem de precedencia:

  1. Bearer Token - Se AWS_BEARER_TOKEN_BEDROCK estiver configurado (via /connect ou variavel de ambiente), tem precedencia sobre todos os outros metodos
  2. Cadeia de Credenciais AWS - Resolucao padrao de credenciais AWS:
    • Configuracao de perfil AWS
    • Chaves de acesso (AWS_ACCESS_KEY_ID, AWS_SECRET_ACCESS_KEY)
    • Funcoes IAM
    • EKS IRSA (Funcoes IAM para Contas de Servico)

Azure OpenAI

  1. Crie um recurso Azure OpenAI no portal Azure
  2. Implante o modelo no Azure AI Foundry
  3. Execute /connect e pesquise Azure
  4. Defina a variavel de ambiente AZURE_RESOURCE_NAME

Configuracao de Provedor Personalizado

Para provedores compativeis com OpenAI:

{
  "provider": {
    "myprovider": {
      "npm": "@ai-sdk/openai-compatible",
      "name": "My AI Provider",
      "options": {
        "baseURL": "https://api.myprovider.com/v1",
        "apiKey": "{env:MY_API_KEY}"
      },
      "models": {
        "my-model": {
          "name": "My Model",
          "limit": {
            "context": 200000,
            "output": 65536
          }
        }
      }
    }
  }
}

Sintaxe de Variaveis de Ambiente

Use a sintaxe {env:VARIABLE_NAME} para referenciar variaveis de ambiente na sua configuracao:

{
  "provider": {
    "myprovider": {
      "options": {
        "apiKey": "{env:MY_PROVIDER_API_KEY}"
      }
    }
  }
}

Isso permite manter credenciais sensiveis fora dos seus arquivos de configuracao.

Limites do Modelo

Os campos limit ajudam o OpenCode a entender a janela de contexto e os limites de saida dos seus modelos:

{
  "provider": {
    "myprovider": {
      "models": {
        "my-model": {
          "name": "My Model",
          "limit": {
            "context": 200000,
            "output": 65536
          }
        }
      }
    }
  }
}
  • context: Tokens de entrada maximos que o modelo pode processar
  • output: Tokens de saida maximos que o modelo pode gerar

Headers Personalizados

Voce pode adicionar headers personalizados as solicitacoes API:

{
  "provider": {
    "myprovider": {
      "options": {
        "headers": {
          "Authorization": "Bearer custom-token",
          "X-Custom-Header": "value"
        }
      }
    }
  }
}

Solucao de Problemas

  1. Verificar autenticacao: Execute opencode auth list para verificar credenciais
  2. Problemas com provedores personalizados:
    • Verifique se o ID do provedor corresponde entre /connect e configuracao
    • Confirme o pacote npm correto
    • Verifique o endpoint API em options.baseURL