Modelos
Configurando um provedor LLM e modelo.
OpenCode usa o AI SDK (opens in a new tab) e Models.dev (opens in a new tab) para suportar mais de 75 provedores LLM e suporta a execução de modelos locais.
Provedores
A maioria dos provedores populares são pré-carregados por padrão. Se você adicionou as credenciais de um provedor através do comando /connect, elas estarão disponíveis quando você iniciar o OpenCode.
Saiba mais sobre provedores.
Selecionar um modelo
Depois de configurar seu provedor, você pode selecionar o modelo desejado digitando:
/modelsModelos recomendados
Existem muitos modelos disponíveis, com novos modelos sendo lançados toda semana.
Dica: Considere usar um dos modelos que recomendamos.
No entanto, existem apenas alguns que são bons tanto em geração de código quanto em chamadas de ferramentas.
Aqui estão vários modelos que funcionam bem com o OpenCode, sem ordem particular. (Esta não é uma lista exaustiva nem necessariamente atualizada):
- GPT 5.2
- GPT 5.1 Codex
- Claude Opus 4.5
- Claude Sonnet 4.5
- Minimax M2.1
- Gemini 3 Pro
Definir padrão
Para definir um destes como modelo padrão, você pode configurar a chave model na sua configuração do OpenCode.
{
"$schema": "https://opencode.ai/config.json",
"model": "lmstudio/google/gemma-3n-e4b"
}Aqui o ID completo é provider_id/model_id. Por exemplo, se você está usando OpenCode Zen, você usaria opencode/gpt-5.1-codex para GPT 5.1 Codex.
Se você configurou um provedor personalizado, o provider_id é a chave da parte provider da sua configuração, e o model_id é a chave de provider.models.
Configurar modelos
Você pode configurar globalmente as opções de um modelo através da configuração.
{
"$schema": "https://opencode.ai/config.json",
"provider": {
"openai": {
"models": {
"gpt-5": {
"options": {
"reasoningEffort": "high",
"textVerbosity": "low",
"reasoningSummary": "auto",
"include": ["reasoning.encrypted_content"],
},
},
},
},
"anthropic": {
"models": {
"claude-sonnet-4-5-20250929": {
"options": {
"thinking": {
"type": "enabled",
"budgetTokens": 16000,
},
},
},
},
},
},
}Aqui estamos configurando ajustes globais para dois modelos integrados: gpt-5 quando acessado via provedor openai, e claude-sonnet-4-20250514 quando acessado via provedor anthropic. Os nomes de provedores e modelos integrados podem ser encontrados em Models.dev (opens in a new tab).
Você também pode configurar essas opções para quaisquer agentes que esteja usando. A configuração do agente substitui quaisquer opções globais aqui. Saiba mais.
Você também pode definir variantes personalizadas que estendem as integradas. Variantes permitem configurar diferentes ajustes para o mesmo modelo sem criar entradas duplicadas:
{
"$schema": "https://opencode.ai/config.json",
"provider": {
"opencode": {
"models": {
"gpt-5": {
"variants": {
"high": {
"reasoningEffort": "high",
"textVerbosity": "low",
"reasoningSummary": "auto",
},
"low": {
"reasoningEffort": "low",
"textVerbosity": "low",
"reasoningSummary": "auto",
},
},
},
},
},
},
}Variantes
Muitos modelos suportam múltiplas variantes com diferentes configurações. OpenCode vem com variantes padrão integradas para provedores populares.
Variantes integradas
OpenCode vem com variantes padrão para muitos provedores:
Anthropic:
high- Alto orçamento de pensamento (padrão)max- Máximo orçamento de pensamento
OpenAI:
Varia por modelo mas aproximadamente:
none- Sem raciocíniominimal- Esforço de raciocínio mínimolow- Esforço de raciocínio baixomedium- Esforço de raciocínio médiohigh- Esforço de raciocínio altoxhigh- Esforço de raciocínio extra alto
Google:
low- Menor esforço/orçamento de tokenshigh- Maior esforço/orçamento de tokens
Dica: Esta lista não é abrangente. Muitos outros provedores também têm padrões integrados.
Variantes personalizadas
Você pode substituir variantes existentes ou adicionar as suas próprias:
{
"$schema": "https://opencode.ai/config.json",
"provider": {
"openai": {
"models": {
"gpt-5": {
"variants": {
"thinking": {
"reasoningEffort": "high",
"textVerbosity": "low",
},
"fast": {
"disabled": true,
},
},
},
},
},
},
}Alternar variantes
Use o atalho de teclado variant_cycle para alternar rapidamente entre variantes. Saiba mais.
Carregamento de modelos
Quando o OpenCode inicia, ele verifica os modelos na seguinte ordem de prioridade:
-
O flag de linha de comando
--modelou-m. O formato é o mesmo do arquivo de configuração:provider_id/model_id. -
A lista de modelos na configuração do OpenCode.
opencode.json{ "$schema": "https://opencode.ai/config.json", "model": "anthropic/claude-sonnet-4-20250514" }O formato aqui é
provider/model. -
O último modelo usado.
-
O primeiro modelo usando uma prioridade interna.