文档
Documentación en Español
Proveedores

Proveedores

OpenCode soporta más de 75 proveedores de LLM a través del AI SDK y Models.dev, permitiendo la integración con numerosos servicios de modelos de lenguaje y modelos locales.

Proceso de Configuración

  1. Agrega claves API usando el comando /connect
  2. Configura el proveedor en tu configuración de OpenCode
  3. Las credenciales se almacenan en ~/.local/share/opencode/auth.json

Configuración de URL Base

{
  "$schema": "https://opencode.ai/config.json",
  "provider": {
    "anthropic": {
      "options": {
        "baseURL": "https://api.anthropic.com/v1"
      }
    }
  }
}

OpenCode Zen

OpenCode Zen es una lista de modelos proporcionados por el equipo de OpenCode que han sido probados y verificados para funcionar bien.

  1. Ejecuta /connect, selecciona opencode
  2. Visita opencode.ai/auth para autenticarte
  3. Copia y pega tu clave API
  4. Usa /models para ver los modelos recomendados

Proveedores Populares

Anthropic

  1. Ejecuta /connect y selecciona Anthropic
  2. Elige Claude Pro/Max para autenticación del navegador
  3. Accede a los modelos mediante el comando /models

OpenAI

  1. Crea una clave API en platform.openai.com/api-keys
  2. Ejecuta /connect y busca OpenAI
  3. Ingresa la clave API
  4. Selecciona el modelo con /models

OpenRouter

{
  "provider": {
    "openrouter": {
      "models": {
        "moonshotai/kimi-k2": {
          "options": {
            "provider": {
              "order": ["baseten"],
              "allow_fallbacks": false
            }
          }
        }
      }
    }
  }
}

Ollama (Local)

{
  "provider": {
    "ollama": {
      "npm": "@ai-sdk/openai-compatible",
      "name": "Ollama (local)",
      "options": {
        "baseURL": "http://localhost:11434/v1"
      },
      "models": {
        "llama2": {
          "name": "Llama 2"
        }
      }
    }
  }
}

LM Studio (Local)

{
  "provider": {
    "lmstudio": {
      "npm": "@ai-sdk/openai-compatible",
      "name": "LM Studio (local)",
      "options": {
        "baseURL": "http://127.0.0.1:1234/v1"
      },
      "models": {
        "google/gemma-3n-e4b": {
          "name": "Gemma 3n-e4b (local)"
        }
      }
    }
  }
}

Amazon Bedrock

{
  "provider": {
    "amazon-bedrock": {
      "options": {
        "region": "us-east-1",
        "profile": "my-aws-profile"
      }
    }
  }
}

Azure OpenAI

  1. Crea un recurso Azure OpenAI en el portal de Azure
  2. Despliega el modelo en Azure AI Foundry
  3. Ejecuta /connect y busca Azure
  4. Establece la variable de entorno AZURE_RESOURCE_NAME

Configuración de Proveedor Personalizado

Para proveedores compatibles con OpenAI:

{
  "provider": {
    "myprovider": {
      "npm": "@ai-sdk/openai-compatible",
      "name": "My AI Provider",
      "options": {
        "baseURL": "https://api.myprovider.com/v1",
        "apiKey": "{env:MY_API_KEY}"
      },
      "models": {
        "my-model": {
          "name": "My Model",
          "limit": {
            "context": 200000,
            "output": 65536
          }
        }
      }
    }
  }
}

Solución de Problemas

  1. Verificar autenticación: Ejecuta opencode auth list para verificar credenciales
  2. Problemas con proveedores personalizados:
    • Verifica que el ID del proveedor coincida entre /connect y la configuración
    • Confirma el paquete npm correcto
    • Verifica el endpoint API en options.baseURL