Modelos
Configuración de un proveedor LLM y modelo.
OpenCode usa el AI SDK (opens in a new tab) y Models.dev (opens in a new tab) para soportar más de 75 proveedores LLM y soporta la ejecución de modelos locales.
Proveedores
La mayoría de los proveedores populares están precargados por defecto. Si has añadido las credenciales de un proveedor a través del comando /connect, estarán disponibles cuando inicies OpenCode.
Aprende más sobre proveedores.
Seleccionar un modelo
Una vez que hayas configurado tu proveedor, puedes seleccionar el modelo que deseas escribiendo:
/modelsModelos recomendados
Hay muchos modelos disponibles, con nuevos modelos saliendo cada semana.
Consejo: Considera usar uno de los modelos que recomendamos.
Sin embargo, solo hay unos pocos que son buenos tanto en generación de código como en llamadas a herramientas.
Aquí hay varios modelos que funcionan bien con OpenCode, sin orden particular. (Esta no es una lista exhaustiva ni necesariamente actualizada):
- GPT 5.2
- GPT 5.1 Codex
- Claude Opus 4.5
- Claude Sonnet 4.5
- Minimax M2.1
- Gemini 3 Pro
Establecer predeterminado
Para establecer uno de estos como modelo predeterminado, puedes configurar la clave model en tu configuración de OpenCode.
{
"$schema": "https://opencode.ai/config.json",
"model": "lmstudio/google/gemma-3n-e4b"
}Aquí el ID completo es provider_id/model_id. Por ejemplo, si estás usando OpenCode Zen, usarías opencode/gpt-5.1-codex para GPT 5.1 Codex.
Si has configurado un proveedor personalizado, el provider_id es la clave de la parte provider de tu configuración, y el model_id es la clave de provider.models.
Configurar modelos
Puedes configurar globalmente las opciones de un modelo a través de la configuración.
{
"$schema": "https://opencode.ai/config.json",
"provider": {
"openai": {
"models": {
"gpt-5": {
"options": {
"reasoningEffort": "high",
"textVerbosity": "low",
"reasoningSummary": "auto",
"include": ["reasoning.encrypted_content"],
},
},
},
},
"anthropic": {
"models": {
"claude-sonnet-4-5-20250929": {
"options": {
"thinking": {
"type": "enabled",
"budgetTokens": 16000,
},
},
},
},
},
},
}Aquí estamos configurando ajustes globales para dos modelos integrados: gpt-5 cuando se accede a través del proveedor openai, y claude-sonnet-4-20250514 cuando se accede a través del proveedor anthropic. Los nombres de proveedores y modelos integrados se pueden encontrar en Models.dev (opens in a new tab).
También puedes configurar estas opciones para cualquier agente que estés usando. La configuración del agente anula cualquier opción global aquí. Aprende más.
También puedes definir variantes personalizadas que extiendan las integradas. Las variantes te permiten configurar diferentes ajustes para el mismo modelo sin crear entradas duplicadas:
{
"$schema": "https://opencode.ai/config.json",
"provider": {
"opencode": {
"models": {
"gpt-5": {
"variants": {
"high": {
"reasoningEffort": "high",
"textVerbosity": "low",
"reasoningSummary": "auto",
},
"low": {
"reasoningEffort": "low",
"textVerbosity": "low",
"reasoningSummary": "auto",
},
},
},
},
},
},
}Variantes
Muchos modelos soportan múltiples variantes con diferentes configuraciones. OpenCode viene con variantes predeterminadas integradas para proveedores populares.
Variantes integradas
OpenCode viene con variantes predeterminadas para muchos proveedores:
Anthropic:
high- Alto presupuesto de pensamiento (predeterminado)max- Máximo presupuesto de pensamiento
OpenAI:
Varía según el modelo pero aproximadamente:
none- Sin razonamientominimal- Esfuerzo de razonamiento mínimolow- Esfuerzo de razonamiento bajomedium- Esfuerzo de razonamiento mediohigh- Esfuerzo de razonamiento altoxhigh- Esfuerzo de razonamiento extra alto
Google:
low- Menor esfuerzo/presupuesto de tokenshigh- Mayor esfuerzo/presupuesto de tokens
Consejo: Esta lista no es exhaustiva. Muchos otros proveedores también tienen valores predeterminados integrados.
Variantes personalizadas
Puedes anular variantes existentes o añadir las tuyas propias:
{
"$schema": "https://opencode.ai/config.json",
"provider": {
"openai": {
"models": {
"gpt-5": {
"variants": {
"thinking": {
"reasoningEffort": "high",
"textVerbosity": "low",
},
"fast": {
"disabled": true,
},
},
},
},
},
},
}Ciclar variantes
Usa el atajo de teclado variant_cycle para cambiar rápidamente entre variantes. Aprende más.
Carga de modelos
Cuando OpenCode se inicia, verifica los modelos en el siguiente orden de prioridad:
-
El flag de línea de comandos
--modelo-m. El formato es el mismo que en el archivo de configuración:provider_id/model_id. -
La lista de modelos en la configuración de OpenCode.
opencode.json{ "$schema": "https://opencode.ai/config.json", "model": "anthropic/claude-sonnet-4-20250514" }El formato aquí es
provider/model. -
El último modelo usado.
-
El primer modelo usando una prioridad interna.