Deutsch
Dokumentation
Anbieter

Anbieter

OpenCode unterstuetzt ueber 75 LLM-Anbieter durch das AI SDK und Models.dev und ermoeglicht die Integration mit zahlreichen Sprachmodell-Diensten und lokalen Modellen.

Einrichtungsprozess

  1. Fuegen Sie API-Schluessel mit dem /connect-Befehl hinzu
  2. Konfigurieren Sie den Anbieter in Ihrer OpenCode-Konfiguration
  3. Anmeldedaten werden in ~/.local/share/opencode/auth.json gespeichert

Verzeichnis

Hier ist eine Kurzuebersicht der unterstuetzten Anbieter:

AnbieterEinrichtungsmethodeHauptfunktionen
AnthropicOAuth oder API-SchluesselClaude Pro/Max Unterstuetzung
OpenAIChatGPT Plus/Pro oder API-SchluesselGPT-4o, o1 Modelle
GitHub CopilotGeraetecode-AuthentifizierungPro+ Abonnement-Modelle
Google Vertex AIDienstkonto oder gcloud-Authentifizierung40+ Modelle
Amazon BedrockAWS-Anmeldedaten/ProfilVPC-Endpunkt-Unterstuetzung
Azure OpenAIAPI-Schluessel + RessourcennameBenutzerdefinierte Bereitstellungen
GroqAPI-SchluesselHochgeschwindigkeits-Inferenz
DeepSeekAPI-SchluesselReasoning-Modelle
OpenRouterAPI-SchluesselMulti-Anbieter-Routing
GitLab DuoAPI-SchluesselGitLab-Integration
OllamaLokale EinrichtungModelle lokal ausfuehren
LM StudioLokale EinrichtungLokale Modellverwaltung

Weitere Anbieter: 302.AI, Baseten, Cerebras, Cloudflare AI Gateway, Cortecs, Deep Infra, Firmware, Fireworks AI, Hugging Face, Helicone, IO.NET, Moonshot AI, MiniMax, Nebius Token Factory, OVHcloud AI Endpoints, SAP AI Core, Scaleway, Together AI, Venice AI, Vercel AI Gateway, xAI, Z.AI, ZenMux.

Basis-URL-Konfiguration

Sie koennen die Basis-URL fuer jeden Anbieter anpassen, indem Sie die baseURL-Option setzen. Dies ist nuetzlich bei der Verwendung von Proxy-Diensten oder benutzerdefinierten Endpunkten.

{
  "$schema": "https://opencode.ai/config.json",
  "provider": {
    "anthropic": {
      "options": {
        "baseURL": "https://api.anthropic.com/v1"
      }
    }
  }
}

OpenCode Zen

OpenCode Zen ist eine Liste von Modellen, die vom OpenCode-Team bereitgestellt werden und getestet wurden, um gut zu funktionieren.

  1. Fuehren Sie /connect aus, waehlen Sie opencode
  2. Besuchen Sie opencode.ai/auth zur Authentifizierung
  3. Kopieren Sie Ihren API-Schluessel und fuegen Sie ihn ein
  4. Verwenden Sie /models, um empfohlene Modelle anzuzeigen

Beliebte Anbieter

Anthropic

  1. Fuehren Sie /connect aus und waehlen Sie Anthropic
  2. Waehlen Sie Claude Pro/Max fuer Browser-Authentifizierung
  3. Greifen Sie ueber den /models-Befehl auf Modelle zu

OpenAI

  1. Erstellen Sie einen API-Schluessel unter platform.openai.com/api-keys
  2. Fuehren Sie /connect aus und suchen Sie OpenAI
  3. Geben Sie den API-Schluessel ein
  4. Waehlen Sie das Modell mit /models

Groq

Groq bietet Hochgeschwindigkeits-Inferenz fuer verschiedene Modelle.

  1. Erstellen Sie einen API-Schluessel unter console.groq.com
  2. Fuehren Sie /connect aus und suchen Sie Groq
  3. Geben Sie den API-Schluessel ein
  4. Waehlen Sie das Modell mit /models
{
  "$schema": "https://opencode.ai/config.json",
  "provider": {
    "groq": {
      "options": {
        "apiKey": "{env:GROQ_API_KEY}"
      }
    }
  }
}

DeepSeek

DeepSeek bietet leistungsstarke Reasoning-Modelle.

  1. Erstellen Sie einen API-Schluessel unter platform.deepseek.com
  2. Fuehren Sie /connect aus und suchen Sie DeepSeek
  3. Geben Sie den API-Schluessel ein
  4. Waehlen Sie das Modell mit /models
{
  "$schema": "https://opencode.ai/config.json",
  "provider": {
    "deepseek": {
      "options": {
        "apiKey": "{env:DEEPSEEK_API_KEY}"
      }
    }
  }
}

GitHub Copilot

Die GitHub Copilot-Integration erfordert ein Pro+ Abonnement.

  1. Fuehren Sie /connect aus und waehlen Sie GitHub Copilot
  2. Schliessen Sie die Geraetecode-Authentifizierung ab
  3. Greifen Sie ueber den /models-Befehl auf Modelle zu
{
  "$schema": "https://opencode.ai/config.json",
  "provider": {
    "github-copilot": {
      "models": {
        "gpt-4o": {
          "name": "GPT-4o (Copilot)"
        }
      }
    }
  }
}

GitLab Duo

GitLab Duo bietet KI-Funktionen, die mit GitLab integriert sind.

{
  "$schema": "https://opencode.ai/config.json",
  "provider": {
    "gitlab-duo": {
      "options": {
        "apiKey": "{env:GITLAB_API_KEY}"
      }
    }
  }
}

OpenRouter

{
  "provider": {
    "openrouter": {
      "models": {
        "moonshotai/kimi-k2": {
          "options": {
            "provider": {
              "order": ["baseten"],
              "allow_fallbacks": false
            }
          }
        }
      }
    }
  }
}

Ollama (Lokal)

{
  "provider": {
    "ollama": {
      "npm": "@ai-sdk/openai-compatible",
      "name": "Ollama (local)",
      "options": {
        "baseURL": "http://localhost:11434/v1"
      },
      "models": {
        "llama2": {
          "name": "Llama 2"
        }
      }
    }
  }
}

LM Studio (Lokal)

{
  "provider": {
    "lmstudio": {
      "npm": "@ai-sdk/openai-compatible",
      "name": "LM Studio (local)",
      "options": {
        "baseURL": "http://127.0.0.1:1234/v1"
      },
      "models": {
        "google/gemma-3n-e4b": {
          "name": "Gemma 3n-e4b (local)"
        }
      }
    }
  }
}

Amazon Bedrock

{
  "provider": {
    "amazon-bedrock": {
      "options": {
        "region": "us-east-1",
        "profile": "my-aws-profile"
      }
    }
  }
}

Authentifizierungspriorität

Bei der Verwendung von Amazon Bedrock folgt die Authentifizierung dieser Prioritaetsreihenfolge:

  1. Bearer Token - Wenn AWS_BEARER_TOKEN_BEDROCK gesetzt ist (ueber /connect oder Umgebungsvariable), hat es Vorrang vor allen anderen Methoden
  2. AWS-Anmeldedatenkette - Standard-AWS-Anmeldedatenaufloesung:
    • AWS-Profilkonfiguration
    • Zugriffsschluessel (AWS_ACCESS_KEY_ID, AWS_SECRET_ACCESS_KEY)
    • IAM-Rollen
    • EKS IRSA (IAM-Rollen fuer Dienstkonten)

Azure OpenAI

  1. Erstellen Sie eine Azure OpenAI-Ressource im Azure-Portal
  2. Stellen Sie das Modell in Azure AI Foundry bereit
  3. Fuehren Sie /connect aus und suchen Sie Azure
  4. Setzen Sie die AZURE_RESOURCE_NAME Umgebungsvariable

Benutzerdefinierte Anbieter-Einrichtung

Fuer OpenAI-kompatible Anbieter:

{
  "provider": {
    "myprovider": {
      "npm": "@ai-sdk/openai-compatible",
      "name": "My AI Provider",
      "options": {
        "baseURL": "https://api.myprovider.com/v1",
        "apiKey": "{env:MY_API_KEY}"
      },
      "models": {
        "my-model": {
          "name": "My Model",
          "limit": {
            "context": 200000,
            "output": 65536
          }
        }
      }
    }
  }
}

Umgebungsvariablen-Syntax

Verwenden Sie die {env:VARIABLE_NAME}-Syntax, um Umgebungsvariablen in Ihrer Konfiguration zu referenzieren:

{
  "provider": {
    "myprovider": {
      "options": {
        "apiKey": "{env:MY_PROVIDER_API_KEY}"
      }
    }
  }
}

Dies ermoeglicht es Ihnen, sensible Anmeldedaten ausserhalb Ihrer Konfigurationsdateien zu halten.

Modellgrenzen

Die limit-Felder helfen OpenCode, das Kontextfenster und die Ausgabegrenzen Ihrer Modelle zu verstehen:

{
  "provider": {
    "myprovider": {
      "models": {
        "my-model": {
          "name": "My Model",
          "limit": {
            "context": 200000,
            "output": 65536
          }
        }
      }
    }
  }
}
  • context: Maximale Eingabe-Tokens, die das Modell verarbeiten kann
  • output: Maximale Ausgabe-Tokens, die das Modell generieren kann

Benutzerdefinierte Header

Sie koennen benutzerdefinierte Header zu API-Anfragen hinzufuegen:

{
  "provider": {
    "myprovider": {
      "options": {
        "headers": {
          "Authorization": "Bearer custom-token",
          "X-Custom-Header": "value"
        }
      }
    }
  }
}

Fehlerbehebung

  1. Authentifizierung pruefen: Fuehren Sie opencode auth list aus, um Anmeldedaten zu ueberpruefen
  2. Probleme mit benutzerdefinierten Anbietern:
    • Stellen Sie sicher, dass die Anbieter-ID zwischen /connect und Konfiguration uebereinstimmt
    • Bestaetigen Sie das korrekte npm-Paket
    • Ueberpruefen Sie den API-Endpunkt in options.baseURL