Anbieter
OpenCode unterstuetzt ueber 75 LLM-Anbieter durch das AI SDK und Models.dev und ermoeglicht die Integration mit zahlreichen Sprachmodell-Diensten und lokalen Modellen.
Einrichtungsprozess
- Fuegen Sie API-Schluessel mit dem
/connect-Befehl hinzu - Konfigurieren Sie den Anbieter in Ihrer OpenCode-Konfiguration
- Anmeldedaten werden in
~/.local/share/opencode/auth.jsongespeichert
Verzeichnis
Hier ist eine Kurzuebersicht der unterstuetzten Anbieter:
| Anbieter | Einrichtungsmethode | Hauptfunktionen |
|---|---|---|
| Anthropic | OAuth oder API-Schluessel | Claude Pro/Max Unterstuetzung |
| OpenAI | ChatGPT Plus/Pro oder API-Schluessel | GPT-4o, o1 Modelle |
| GitHub Copilot | Geraetecode-Authentifizierung | Pro+ Abonnement-Modelle |
| Google Vertex AI | Dienstkonto oder gcloud-Authentifizierung | 40+ Modelle |
| Amazon Bedrock | AWS-Anmeldedaten/Profil | VPC-Endpunkt-Unterstuetzung |
| Azure OpenAI | API-Schluessel + Ressourcenname | Benutzerdefinierte Bereitstellungen |
| Groq | API-Schluessel | Hochgeschwindigkeits-Inferenz |
| DeepSeek | API-Schluessel | Reasoning-Modelle |
| OpenRouter | API-Schluessel | Multi-Anbieter-Routing |
| GitLab Duo | API-Schluessel | GitLab-Integration |
| Ollama | Lokale Einrichtung | Modelle lokal ausfuehren |
| LM Studio | Lokale Einrichtung | Lokale Modellverwaltung |
Weitere Anbieter: 302.AI, Baseten, Cerebras, Cloudflare AI Gateway, Cortecs, Deep Infra, Firmware, Fireworks AI, Hugging Face, Helicone, IO.NET, Moonshot AI, MiniMax, Nebius Token Factory, OVHcloud AI Endpoints, SAP AI Core, Scaleway, Together AI, Venice AI, Vercel AI Gateway, xAI, Z.AI, ZenMux.
Basis-URL-Konfiguration
Sie koennen die Basis-URL fuer jeden Anbieter anpassen, indem Sie die baseURL-Option setzen. Dies ist nuetzlich bei der Verwendung von Proxy-Diensten oder benutzerdefinierten Endpunkten.
{
"$schema": "https://opencode.ai/config.json",
"provider": {
"anthropic": {
"options": {
"baseURL": "https://api.anthropic.com/v1"
}
}
}
}OpenCode Zen
OpenCode Zen ist eine Liste von Modellen, die vom OpenCode-Team bereitgestellt werden und getestet wurden, um gut zu funktionieren.
- Fuehren Sie
/connectaus, waehlen Sie opencode - Besuchen Sie opencode.ai/auth zur Authentifizierung
- Kopieren Sie Ihren API-Schluessel und fuegen Sie ihn ein
- Verwenden Sie
/models, um empfohlene Modelle anzuzeigen
Beliebte Anbieter
Anthropic
- Fuehren Sie
/connectaus und waehlen Sie Anthropic - Waehlen Sie Claude Pro/Max fuer Browser-Authentifizierung
- Greifen Sie ueber den
/models-Befehl auf Modelle zu
OpenAI
- Erstellen Sie einen API-Schluessel unter platform.openai.com/api-keys
- Fuehren Sie
/connectaus und suchen Sie OpenAI - Geben Sie den API-Schluessel ein
- Waehlen Sie das Modell mit
/models
Groq
Groq bietet Hochgeschwindigkeits-Inferenz fuer verschiedene Modelle.
- Erstellen Sie einen API-Schluessel unter console.groq.com
- Fuehren Sie
/connectaus und suchen Sie Groq - Geben Sie den API-Schluessel ein
- Waehlen Sie das Modell mit
/models
{
"$schema": "https://opencode.ai/config.json",
"provider": {
"groq": {
"options": {
"apiKey": "{env:GROQ_API_KEY}"
}
}
}
}DeepSeek
DeepSeek bietet leistungsstarke Reasoning-Modelle.
- Erstellen Sie einen API-Schluessel unter platform.deepseek.com
- Fuehren Sie
/connectaus und suchen Sie DeepSeek - Geben Sie den API-Schluessel ein
- Waehlen Sie das Modell mit
/models
{
"$schema": "https://opencode.ai/config.json",
"provider": {
"deepseek": {
"options": {
"apiKey": "{env:DEEPSEEK_API_KEY}"
}
}
}
}GitHub Copilot
Die GitHub Copilot-Integration erfordert ein Pro+ Abonnement.
- Fuehren Sie
/connectaus und waehlen Sie GitHub Copilot - Schliessen Sie die Geraetecode-Authentifizierung ab
- Greifen Sie ueber den
/models-Befehl auf Modelle zu
{
"$schema": "https://opencode.ai/config.json",
"provider": {
"github-copilot": {
"models": {
"gpt-4o": {
"name": "GPT-4o (Copilot)"
}
}
}
}
}GitLab Duo
GitLab Duo bietet KI-Funktionen, die mit GitLab integriert sind.
{
"$schema": "https://opencode.ai/config.json",
"provider": {
"gitlab-duo": {
"options": {
"apiKey": "{env:GITLAB_API_KEY}"
}
}
}
}OpenRouter
{
"provider": {
"openrouter": {
"models": {
"moonshotai/kimi-k2": {
"options": {
"provider": {
"order": ["baseten"],
"allow_fallbacks": false
}
}
}
}
}
}
}Ollama (Lokal)
{
"provider": {
"ollama": {
"npm": "@ai-sdk/openai-compatible",
"name": "Ollama (local)",
"options": {
"baseURL": "http://localhost:11434/v1"
},
"models": {
"llama2": {
"name": "Llama 2"
}
}
}
}
}LM Studio (Lokal)
{
"provider": {
"lmstudio": {
"npm": "@ai-sdk/openai-compatible",
"name": "LM Studio (local)",
"options": {
"baseURL": "http://127.0.0.1:1234/v1"
},
"models": {
"google/gemma-3n-e4b": {
"name": "Gemma 3n-e4b (local)"
}
}
}
}
}Amazon Bedrock
{
"provider": {
"amazon-bedrock": {
"options": {
"region": "us-east-1",
"profile": "my-aws-profile"
}
}
}
}Authentifizierungspriorität
Bei der Verwendung von Amazon Bedrock folgt die Authentifizierung dieser Prioritaetsreihenfolge:
- Bearer Token - Wenn
AWS_BEARER_TOKEN_BEDROCKgesetzt ist (ueber/connectoder Umgebungsvariable), hat es Vorrang vor allen anderen Methoden - AWS-Anmeldedatenkette - Standard-AWS-Anmeldedatenaufloesung:
- AWS-Profilkonfiguration
- Zugriffsschluessel (
AWS_ACCESS_KEY_ID,AWS_SECRET_ACCESS_KEY) - IAM-Rollen
- EKS IRSA (IAM-Rollen fuer Dienstkonten)
Azure OpenAI
- Erstellen Sie eine Azure OpenAI-Ressource im Azure-Portal
- Stellen Sie das Modell in Azure AI Foundry bereit
- Fuehren Sie
/connectaus und suchen Sie Azure - Setzen Sie die
AZURE_RESOURCE_NAMEUmgebungsvariable
Benutzerdefinierte Anbieter-Einrichtung
Fuer OpenAI-kompatible Anbieter:
{
"provider": {
"myprovider": {
"npm": "@ai-sdk/openai-compatible",
"name": "My AI Provider",
"options": {
"baseURL": "https://api.myprovider.com/v1",
"apiKey": "{env:MY_API_KEY}"
},
"models": {
"my-model": {
"name": "My Model",
"limit": {
"context": 200000,
"output": 65536
}
}
}
}
}
}Umgebungsvariablen-Syntax
Verwenden Sie die {env:VARIABLE_NAME}-Syntax, um Umgebungsvariablen in Ihrer Konfiguration zu referenzieren:
{
"provider": {
"myprovider": {
"options": {
"apiKey": "{env:MY_PROVIDER_API_KEY}"
}
}
}
}Dies ermoeglicht es Ihnen, sensible Anmeldedaten ausserhalb Ihrer Konfigurationsdateien zu halten.
Modellgrenzen
Die limit-Felder helfen OpenCode, das Kontextfenster und die Ausgabegrenzen Ihrer Modelle zu verstehen:
{
"provider": {
"myprovider": {
"models": {
"my-model": {
"name": "My Model",
"limit": {
"context": 200000,
"output": 65536
}
}
}
}
}
}context: Maximale Eingabe-Tokens, die das Modell verarbeiten kannoutput: Maximale Ausgabe-Tokens, die das Modell generieren kann
Benutzerdefinierte Header
Sie koennen benutzerdefinierte Header zu API-Anfragen hinzufuegen:
{
"provider": {
"myprovider": {
"options": {
"headers": {
"Authorization": "Bearer custom-token",
"X-Custom-Header": "value"
}
}
}
}
}Fehlerbehebung
- Authentifizierung pruefen: Fuehren Sie
opencode auth listaus, um Anmeldedaten zu ueberpruefen - Probleme mit benutzerdefinierten Anbietern:
- Stellen Sie sicher, dass die Anbieter-ID zwischen
/connectund Konfiguration uebereinstimmt - Bestaetigen Sie das korrekte npm-Paket
- Ueberpruefen Sie den API-Endpunkt in
options.baseURL
- Stellen Sie sicher, dass die Anbieter-ID zwischen