Zen
Lista curada de modelos proporcionados por OpenCode.
OpenCode Zen es una lista de modelos probados y verificados proporcionados por el equipo de OpenCode.
Nota: OpenCode Zen está actualmente en beta.
Zen funciona como cualquier otro proveedor en OpenCode. Inicias sesión en OpenCode Zen y obtienes tu clave API. Es completamente opcional y no necesitas usarlo para usar OpenCode.
Contexto
Hay una gran cantidad de modelos disponibles, pero solo unos pocos funcionan bien como agentes de codificación. Además, la mayoría de los proveedores están configurados de manera muy diferente, por lo que obtienes un rendimiento y calidad muy diferentes.
Consejo: Probamos un grupo selecto de modelos y proveedores que funcionan bien con OpenCode.
Entonces, si estás usando un modelo a través de algo como OpenRouter, nunca puedes estar seguro de si estás obteniendo la mejor versión del modelo que deseas.
Para solucionar esto, hicimos varias cosas:
- Probamos un grupo selecto de modelos y hablamos con sus equipos sobre cómo ejecutarlos de la mejor manera.
- Luego trabajamos con algunos proveedores para asegurarnos de que estos se sirvieran correctamente.
- Finalmente, hicimos benchmarks de la combinación modelo/proveedor y creamos una lista que nos sentimos cómodos recomendando.
OpenCode Zen es un gateway de IA que te da acceso a estos modelos.
Cómo funciona
OpenCode Zen funciona como cualquier otro proveedor en OpenCode.
- Inicias sesión en OpenCode Zen (opens in a new tab), agregas tus datos de facturación y copias tu clave API.
- Ejecutas el comando
/connecten la TUI, seleccionas OpenCode Zen y pegas tu clave API. - Ejecuta
/modelsen la TUI para ver la lista de modelos que recomendamos.
Se te cobra por solicitud y puedes agregar créditos a tu cuenta.
Endpoints
También puedes acceder a nuestros modelos a través de los siguientes endpoints de API.
| Modelo | ID del Modelo | Endpoint | Paquete AI SDK |
|---|---|---|---|
| GPT 5.2 | gpt-5.2 | https://opencode.ai/zen/v1/responses | @ai-sdk/openai |
| GPT 5.2 Codex | gpt-5.2-codex | https://opencode.ai/zen/v1/responses | @ai-sdk/openai |
| GPT 5.1 | gpt-5.1 | https://opencode.ai/zen/v1/responses | @ai-sdk/openai |
| GPT 5.1 Codex | gpt-5.1-codex | https://opencode.ai/zen/v1/responses | @ai-sdk/openai |
| GPT 5.1 Codex Max | gpt-5.1-codex-max | https://opencode.ai/zen/v1/responses | @ai-sdk/openai |
| GPT 5.1 Codex Mini | gpt-5.1-codex-mini | https://opencode.ai/zen/v1/responses | @ai-sdk/openai |
| GPT 5 | gpt-5 | https://opencode.ai/zen/v1/responses | @ai-sdk/openai |
| GPT 5 Codex | gpt-5-codex | https://opencode.ai/zen/v1/responses | @ai-sdk/openai |
| GPT 5 Nano | gpt-5-nano | https://opencode.ai/zen/v1/responses | @ai-sdk/openai |
| Claude Sonnet 4.5 | claude-sonnet-4-5 | https://opencode.ai/zen/v1/messages | @ai-sdk/anthropic |
| Claude Sonnet 4 | claude-sonnet-4 | https://opencode.ai/zen/v1/messages | @ai-sdk/anthropic |
| Claude Haiku 4.5 | claude-haiku-4-5 | https://opencode.ai/zen/v1/messages | @ai-sdk/anthropic |
| Claude Haiku 3.5 | claude-3-5-haiku | https://opencode.ai/zen/v1/messages | @ai-sdk/anthropic |
| Claude Opus 4.5 | claude-opus-4-5 | https://opencode.ai/zen/v1/messages | @ai-sdk/anthropic |
| Claude Opus 4.1 | claude-opus-4-1 | https://opencode.ai/zen/v1/messages | @ai-sdk/anthropic |
| Gemini 3 Pro | gemini-3-pro | https://opencode.ai/zen/v1/models/gemini-3-pro | @ai-sdk/google |
| Gemini 3 Flash | gemini-3-flash | https://opencode.ai/zen/v1/models/gemini-3-flash | @ai-sdk/google |
| MiniMax M2.1 | minimax-m2.1 | https://opencode.ai/zen/v1/chat/completions | @ai-sdk/openai-compatible |
| MiniMax M2.1 Free | minimax-m2.1-free | https://opencode.ai/zen/v1/messages | @ai-sdk/anthropic |
| GLM 4.7 | glm-4.7 | https://opencode.ai/zen/v1/chat/completions | @ai-sdk/openai-compatible |
| GLM 4.7 Free | glm-4.7-free | https://opencode.ai/zen/v1/chat/completions | @ai-sdk/openai-compatible |
| GLM 4.6 | glm-4.6 | https://opencode.ai/zen/v1/chat/completions | @ai-sdk/openai-compatible |
| Kimi K2.5 | kimi-k2.5 | https://opencode.ai/zen/v1/chat/completions | @ai-sdk/openai-compatible |
| Kimi K2.5 Free | kimi-k2.5-free | https://opencode.ai/zen/v1/chat/completions | @ai-sdk/openai-compatible |
| Kimi K2 Thinking | kimi-k2-thinking | https://opencode.ai/zen/v1/chat/completions | @ai-sdk/openai-compatible |
| Kimi K2 | kimi-k2 | https://opencode.ai/zen/v1/chat/completions | @ai-sdk/openai-compatible |
| Qwen3 Coder 480B | qwen3-coder | https://opencode.ai/zen/v1/chat/completions | @ai-sdk/openai-compatible |
| Big Pickle | big-pickle | https://opencode.ai/zen/v1/chat/completions | @ai-sdk/openai-compatible |
El ID del modelo en tu configuración de OpenCode usa el formato opencode/<model-id>. Por ejemplo, para GPT 5.2 Codex, usarías opencode/gpt-5.2-codex en tu configuración.
Modelos
Puedes obtener la lista completa de modelos disponibles y sus metadatos desde:
https://opencode.ai/zen/v1/modelsPrecios
Soportamos un modelo de pago por uso. A continuación están los precios por 1M de tokens.
| Modelo | Entrada | Salida | Lectura de Caché | Escritura de Caché |
|---|---|---|---|---|
| Big Pickle | Gratis | Gratis | Gratis | - |
| MiniMax M2.1 Free | Gratis | Gratis | Gratis | - |
| MiniMax M2.1 | $0.30 | $1.20 | $0.10 | - |
| GLM 4.7 Free | Gratis | Gratis | Gratis | - |
| GLM 4.7 | $0.60 | $2.20 | $0.10 | - |
| GLM 4.6 | $0.60 | $2.20 | $0.10 | - |
| Kimi K2.5 Free | Gratis | Gratis | Gratis | - |
| Kimi K2.5 | $0.60 | $3.00 | $0.08 | - |
| Kimi K2 Thinking | $0.40 | $2.50 | - | - |
| Kimi K2 | $0.40 | $2.50 | - | - |
| Qwen3 Coder 480B | $0.45 | $1.50 | - | - |
| Claude Sonnet 4.5 (≤ 200K tokens) | $3.00 | $15.00 | $0.30 | $3.75 |
| Claude Sonnet 4.5 (> 200K tokens) | $6.00 | $22.50 | $0.60 | $7.50 |
| Claude Sonnet 4 (≤ 200K tokens) | $3.00 | $15.00 | $0.30 | $3.75 |
| Claude Sonnet 4 (> 200K tokens) | $6.00 | $22.50 | $0.60 | $7.50 |
| Claude Haiku 4.5 | $1.00 | $5.00 | $0.10 | $1.25 |
| Claude Haiku 3.5 | $0.80 | $4.00 | $0.08 | $1.00 |
| Claude Opus 4.5 | $5.00 | $25.00 | $0.50 | $6.25 |
| Claude Opus 4.1 | $15.00 | $75.00 | $1.50 | $18.75 |
| Gemini 3 Pro (≤ 200K tokens) | $2.00 | $12.00 | $0.20 | - |
| Gemini 3 Pro (> 200K tokens) | $4.00 | $18.00 | $0.40 | - |
| Gemini 3 Flash | $0.50 | $3.00 | $0.05 | - |
| GPT 5.2 | $1.75 | $14.00 | $0.175 | - |
| GPT 5.2 Codex | $1.75 | $14.00 | $0.175 | - |
| GPT 5.1 | $1.07 | $8.50 | $0.107 | - |
| GPT 5.1 Codex | $1.07 | $8.50 | $0.107 | - |
| GPT 5.1 Codex Max | $1.25 | $10.00 | $0.125 | - |
| GPT 5.1 Codex Mini | $0.25 | $2.00 | $0.025 | - |
| GPT 5 | $1.07 | $8.50 | $0.107 | - |
| GPT 5 Codex | $1.07 | $8.50 | $0.107 | - |
| GPT 5 Nano | Gratis | Gratis | Gratis | - |
Podrías notar Claude Haiku 3.5 en tu historial de uso. Este es un modelo de bajo costo que se usa para generar los títulos de tus sesiones.
Nota: Las tarifas de tarjeta de crédito se transfieren al costo (4.4% + $0.30 por transacción); no cobramos nada más allá de eso.
Los modelos gratuitos:
- GLM 4.7 Free está disponible en OpenCode por tiempo limitado. El equipo está usando este tiempo para recopilar comentarios y mejorar el modelo.
- Kimi K2.5 Free está disponible en OpenCode por tiempo limitado. El equipo está usando este tiempo para recopilar comentarios y mejorar el modelo.
- MiniMax M2.1 Free está disponible en OpenCode por tiempo limitado. El equipo está usando este tiempo para recopilar comentarios y mejorar el modelo.
- Big Pickle es un modelo sigiloso que es gratuito en OpenCode por tiempo limitado. El equipo está usando este tiempo para recopilar comentarios y mejorar el modelo.
Contáctanos si tienes alguna pregunta.
Recarga automática
Si tu saldo baja de 20.
Puedes cambiar el monto de recarga automática. También puedes desactivar la recarga automática por completo.
Límites mensuales
También puedes establecer un límite de uso mensual para todo el espacio de trabajo y para cada miembro de tu equipo.
Por ejemplo, digamos que estableces un límite de uso mensual de 20 en un mes. Pero si tienes la recarga automática habilitada, Zen podría terminar cobrándote más de 5.
Privacidad
Todos nuestros modelos están alojados en EE.UU. Nuestros proveedores siguen una política de retención cero y no usan tus datos para el entrenamiento de modelos, con las siguientes excepciones:
- Big Pickle: Durante su período gratuito, los datos recopilados pueden usarse para mejorar el modelo.
- GLM 4.7 Free: Durante su período gratuito, los datos recopilados pueden usarse para mejorar el modelo.
- Kimi K2.5 Free: Durante su período gratuito, los datos recopilados pueden usarse para mejorar el modelo.
- MiniMax M2.1 Free: Durante su período gratuito, los datos recopilados pueden usarse para mejorar el modelo.
- OpenAI APIs: Las solicitudes se retienen durante 30 días de acuerdo con las Políticas de Datos de OpenAI (opens in a new tab).
- Anthropic APIs: Las solicitudes se retienen durante 30 días de acuerdo con las Políticas de Datos de Anthropic (opens in a new tab).
Para Equipos
Zen también funciona muy bien para equipos. Puedes invitar a compañeros de equipo, asignar roles, curar los modelos que usa tu equipo y más.
Nota: Los espacios de trabajo son actualmente gratuitos para equipos como parte de la beta.
Administrar tu espacio de trabajo es actualmente gratuito para equipos como parte de la beta. Compartiremos más detalles sobre los precios pronto.
Roles
Puedes invitar a compañeros de equipo a tu espacio de trabajo y asignar roles:
- Admin: Administrar modelos, miembros, claves API y facturación
- Miembro: Administrar solo sus propias claves API
Los admins también pueden establecer límites de gasto mensuales para cada miembro para mantener los costos bajo control.
Acceso a modelos
Los admins pueden habilitar o deshabilitar modelos específicos para el espacio de trabajo. Las solicitudes realizadas a un modelo deshabilitado devolverán un error.
Esto es útil para casos donde quieres deshabilitar el uso de un modelo que recopila datos.
Trae tu propia clave
Puedes usar tus propias claves API de OpenAI o Anthropic mientras sigues accediendo a otros modelos en Zen.
Cuando usas tus propias claves, los tokens se facturan directamente por el proveedor, no por Zen.
Por ejemplo, tu organización podría ya tener una clave para OpenAI o Anthropic y quieres usar esa en lugar de la que proporciona Zen.
Objetivos
Creamos OpenCode Zen para:
- Hacer benchmarks de los mejores modelos/proveedores para agentes de codificación.
- Tener acceso a las opciones de más alta calidad y no degradar el rendimiento ni enrutar a proveedores más baratos.
- Transferir cualquier reducción de precios vendiendo al costo; así que el único margen es para cubrir nuestras tarifas de procesamiento.
- Sin bloqueo permitiéndote usarlo con cualquier otro agente de codificación. Y siempre permitirte usar cualquier otro proveedor con OpenCode también.