Proveedores
OpenCode soporta mas de 75 proveedores de LLM a traves del AI SDK y Models.dev, permitiendo la integracion con numerosos servicios de modelos de lenguaje y modelos locales.
Proceso de Configuracion
- Agrega claves API usando el comando
/connect - Configura el proveedor en tu configuracion de OpenCode
- Las credenciales se almacenan en
~/.local/share/opencode/auth.json
Directorio
Aqui tienes una referencia rapida de los proveedores soportados:
| Proveedor | Metodo de Configuracion | Caracteristicas Principales |
|---|---|---|
| Anthropic | OAuth o clave API | Soporte Claude Pro/Max |
| OpenAI | ChatGPT Plus/Pro o clave API | Modelos GPT-4o, o1 |
| GitHub Copilot | Autenticacion por codigo de dispositivo | Modelos de suscripcion Pro+ |
| Google Vertex AI | Cuenta de servicio o autenticacion gcloud | 40+ modelos |
| Amazon Bedrock | Credenciales/perfil AWS | Soporte de endpoint VPC |
| Azure OpenAI | Clave API + nombre de recurso | Despliegues personalizados |
| Groq | Clave API | Inferencia de alta velocidad |
| DeepSeek | Clave API | Modelos de razonamiento |
| OpenRouter | Clave API | Enrutamiento multi-proveedor |
| GitLab Duo | Clave API | Integracion con GitLab |
| Ollama | Configuracion local | Ejecutar modelos localmente |
| LM Studio | Configuracion local | Gestion de modelos locales |
Proveedores adicionales incluyen: 302.AI, Baseten, Cerebras, Cloudflare AI Gateway, Cortecs, Deep Infra, Firmware, Fireworks AI, Hugging Face, Helicone, IO.NET, Moonshot AI, MiniMax, Nebius Token Factory, OVHcloud AI Endpoints, SAP AI Core, Scaleway, Together AI, Venice AI, Vercel AI Gateway, xAI, Z.AI, ZenMux.
Configuracion de URL Base
Puedes personalizar la URL base para cualquier proveedor configurando la opcion baseURL. Esto es util cuando usas servicios proxy o endpoints personalizados.
{
"$schema": "https://opencode.ai/config.json",
"provider": {
"anthropic": {
"options": {
"baseURL": "https://api.anthropic.com/v1"
}
}
}
}OpenCode Zen
OpenCode Zen es una lista de modelos proporcionados por el equipo de OpenCode que han sido probados y verificados para funcionar bien.
- Ejecuta
/connect, selecciona opencode - Visita opencode.ai/auth para autenticarte
- Copia y pega tu clave API
- Usa
/modelspara ver los modelos recomendados
Proveedores Populares
Anthropic
- Ejecuta
/connecty selecciona Anthropic - Elige Claude Pro/Max para autenticacion del navegador
- Accede a los modelos mediante el comando
/models
OpenAI
- Crea una clave API en platform.openai.com/api-keys
- Ejecuta
/connecty busca OpenAI - Ingresa la clave API
- Selecciona el modelo con
/models
Groq
Groq proporciona inferencia de alta velocidad para varios modelos.
- Crea una clave API en console.groq.com
- Ejecuta
/connecty busca Groq - Ingresa la clave API
- Selecciona el modelo con
/models
{
"$schema": "https://opencode.ai/config.json",
"provider": {
"groq": {
"options": {
"apiKey": "{env:GROQ_API_KEY}"
}
}
}
}DeepSeek
DeepSeek ofrece potentes modelos de razonamiento.
- Crea una clave API en platform.deepseek.com
- Ejecuta
/connecty busca DeepSeek - Ingresa la clave API
- Selecciona el modelo con
/models
{
"$schema": "https://opencode.ai/config.json",
"provider": {
"deepseek": {
"options": {
"apiKey": "{env:DEEPSEEK_API_KEY}"
}
}
}
}GitHub Copilot
La integracion de GitHub Copilot requiere una suscripcion Pro+.
- Ejecuta
/connecty selecciona GitHub Copilot - Completa la autenticacion por codigo de dispositivo
- Accede a los modelos mediante el comando
/models
{
"$schema": "https://opencode.ai/config.json",
"provider": {
"github-copilot": {
"models": {
"gpt-4o": {
"name": "GPT-4o (Copilot)"
}
}
}
}
}GitLab Duo
GitLab Duo proporciona funciones de IA integradas con GitLab.
{
"$schema": "https://opencode.ai/config.json",
"provider": {
"gitlab-duo": {
"options": {
"apiKey": "{env:GITLAB_API_KEY}"
}
}
}
}OpenRouter
{
"provider": {
"openrouter": {
"models": {
"moonshotai/kimi-k2": {
"options": {
"provider": {
"order": ["baseten"],
"allow_fallbacks": false
}
}
}
}
}
}
}Ollama (Local)
{
"provider": {
"ollama": {
"npm": "@ai-sdk/openai-compatible",
"name": "Ollama (local)",
"options": {
"baseURL": "http://localhost:11434/v1"
},
"models": {
"llama2": {
"name": "Llama 2"
}
}
}
}
}LM Studio (Local)
{
"provider": {
"lmstudio": {
"npm": "@ai-sdk/openai-compatible",
"name": "LM Studio (local)",
"options": {
"baseURL": "http://127.0.0.1:1234/v1"
},
"models": {
"google/gemma-3n-e4b": {
"name": "Gemma 3n-e4b (local)"
}
}
}
}
}Amazon Bedrock
{
"provider": {
"amazon-bedrock": {
"options": {
"region": "us-east-1",
"profile": "my-aws-profile"
}
}
}
}Precedencia de Autenticacion
Al usar Amazon Bedrock, la autenticacion sigue este orden de precedencia:
- Bearer Token - Si
AWS_BEARER_TOKEN_BEDROCKesta configurado (via/connecto variable de entorno), tiene precedencia sobre todos los demas metodos - Cadena de Credenciales AWS - Resolucion estandar de credenciales AWS:
- Configuracion de perfil AWS
- Claves de acceso (
AWS_ACCESS_KEY_ID,AWS_SECRET_ACCESS_KEY) - Roles IAM
- EKS IRSA (Roles IAM para Cuentas de Servicio)
Azure OpenAI
- Crea un recurso Azure OpenAI en el portal de Azure
- Despliega el modelo en Azure AI Foundry
- Ejecuta
/connecty busca Azure - Establece la variable de entorno
AZURE_RESOURCE_NAME
Configuracion de Proveedor Personalizado
Para proveedores compatibles con OpenAI:
{
"provider": {
"myprovider": {
"npm": "@ai-sdk/openai-compatible",
"name": "My AI Provider",
"options": {
"baseURL": "https://api.myprovider.com/v1",
"apiKey": "{env:MY_API_KEY}"
},
"models": {
"my-model": {
"name": "My Model",
"limit": {
"context": 200000,
"output": 65536
}
}
}
}
}
}Sintaxis de Variables de Entorno
Usa la sintaxis {env:VARIABLE_NAME} para referenciar variables de entorno en tu configuracion:
{
"provider": {
"myprovider": {
"options": {
"apiKey": "{env:MY_PROVIDER_API_KEY}"
}
}
}
}Esto te permite mantener las credenciales sensibles fuera de tus archivos de configuracion.
Limites del Modelo
Los campos limit ayudan a OpenCode a entender la ventana de contexto y los limites de salida de tus modelos:
{
"provider": {
"myprovider": {
"models": {
"my-model": {
"name": "My Model",
"limit": {
"context": 200000,
"output": 65536
}
}
}
}
}
}context: Tokens de entrada maximos que el modelo puede procesaroutput: Tokens de salida maximos que el modelo puede generar
Headers Personalizados
Puedes agregar headers personalizados a las solicitudes API:
{
"provider": {
"myprovider": {
"options": {
"headers": {
"Authorization": "Bearer custom-token",
"X-Custom-Header": "value"
}
}
}
}
}Solucion de Problemas
- Verificar autenticacion: Ejecuta
opencode auth listpara verificar credenciales - Problemas con proveedores personalizados:
- Verifica que el ID del proveedor coincida entre
/connecty la configuracion - Confirma el paquete npm correcto
- Verifica el endpoint API en
options.baseURL
- Verifica que el ID del proveedor coincida entre