Anbieter
OpenCode unterstützt über 75 LLM-Anbieter durch das AI SDK und Models.dev und ermöglicht die Integration mit zahlreichen Sprachmodell-Diensten und lokalen Modellen.
Einrichtungsprozess
- Fügen Sie API-Schlüssel mit dem
/connect-Befehl hinzu - Konfigurieren Sie den Anbieter in Ihrer OpenCode-Konfiguration
- Anmeldedaten werden in
~/.local/share/opencode/auth.jsongespeichert
Basis-URL-Konfiguration
{
"$schema": "https://opencode.ai/config.json",
"provider": {
"anthropic": {
"options": {
"baseURL": "https://api.anthropic.com/v1"
}
}
}
}OpenCode Zen
OpenCode Zen ist eine Liste von Modellen, die vom OpenCode-Team bereitgestellt werden und getestet wurden, um gut zu funktionieren.
- Führen Sie
/connectaus, wählen Sie opencode - Besuchen Sie opencode.ai/auth zur Authentifizierung
- Kopieren Sie Ihren API-Schlüssel und fügen Sie ihn ein
- Verwenden Sie
/models, um empfohlene Modelle anzuzeigen
Beliebte Anbieter
Anthropic
- Führen Sie
/connectaus und wählen Sie Anthropic - Wählen Sie Claude Pro/Max für Browser-Authentifizierung
- Greifen Sie über den
/models-Befehl auf Modelle zu
OpenAI
- Erstellen Sie einen API-Schlüssel unter platform.openai.com/api-keys
- Führen Sie
/connectaus und suchen Sie OpenAI - Geben Sie den API-Schlüssel ein
- Wählen Sie das Modell mit
/models
OpenRouter
{
"provider": {
"openrouter": {
"models": {
"moonshotai/kimi-k2": {
"options": {
"provider": {
"order": ["baseten"],
"allow_fallbacks": false
}
}
}
}
}
}
}Ollama (Lokal)
{
"provider": {
"ollama": {
"npm": "@ai-sdk/openai-compatible",
"name": "Ollama (local)",
"options": {
"baseURL": "http://localhost:11434/v1"
},
"models": {
"llama2": {
"name": "Llama 2"
}
}
}
}
}LM Studio (Lokal)
{
"provider": {
"lmstudio": {
"npm": "@ai-sdk/openai-compatible",
"name": "LM Studio (local)",
"options": {
"baseURL": "http://127.0.0.1:1234/v1"
},
"models": {
"google/gemma-3n-e4b": {
"name": "Gemma 3n-e4b (local)"
}
}
}
}
}Amazon Bedrock
{
"provider": {
"amazon-bedrock": {
"options": {
"region": "us-east-1",
"profile": "my-aws-profile"
}
}
}
}Azure OpenAI
- Erstellen Sie eine Azure OpenAI-Ressource im Azure-Portal
- Stellen Sie das Modell in Azure AI Foundry bereit
- Führen Sie
/connectaus und suchen Sie Azure - Setzen Sie die
AZURE_RESOURCE_NAMEUmgebungsvariable
Benutzerdefinierte Anbieter-Einrichtung
Für OpenAI-kompatible Anbieter:
{
"provider": {
"myprovider": {
"npm": "@ai-sdk/openai-compatible",
"name": "My AI Provider",
"options": {
"baseURL": "https://api.myprovider.com/v1",
"apiKey": "{env:MY_API_KEY}"
},
"models": {
"my-model": {
"name": "My Model",
"limit": {
"context": 200000,
"output": 65536
}
}
}
}
}
}Fehlerbehebung
- Authentifizierung prüfen: Führen Sie
opencode auth listaus, um Anmeldedaten zu überprüfen - Probleme mit benutzerdefinierten Anbietern:
- Stellen Sie sicher, dass die Anbieter-ID zwischen
/connectund Konfiguration übereinstimmt - Bestätigen Sie das korrekte npm-Paket
- Überprüfen Sie den API-Endpunkt in
options.baseURL
- Stellen Sie sicher, dass die Anbieter-ID zwischen