Deutsch
Dokumentation
Anbieter

Anbieter

OpenCode unterstützt über 75 LLM-Anbieter durch das AI SDK und Models.dev und ermöglicht die Integration mit zahlreichen Sprachmodell-Diensten und lokalen Modellen.

Einrichtungsprozess

  1. Fügen Sie API-Schlüssel mit dem /connect-Befehl hinzu
  2. Konfigurieren Sie den Anbieter in Ihrer OpenCode-Konfiguration
  3. Anmeldedaten werden in ~/.local/share/opencode/auth.json gespeichert

Basis-URL-Konfiguration

{
  "$schema": "https://opencode.ai/config.json",
  "provider": {
    "anthropic": {
      "options": {
        "baseURL": "https://api.anthropic.com/v1"
      }
    }
  }
}

OpenCode Zen

OpenCode Zen ist eine Liste von Modellen, die vom OpenCode-Team bereitgestellt werden und getestet wurden, um gut zu funktionieren.

  1. Führen Sie /connect aus, wählen Sie opencode
  2. Besuchen Sie opencode.ai/auth zur Authentifizierung
  3. Kopieren Sie Ihren API-Schlüssel und fügen Sie ihn ein
  4. Verwenden Sie /models, um empfohlene Modelle anzuzeigen

Beliebte Anbieter

Anthropic

  1. Führen Sie /connect aus und wählen Sie Anthropic
  2. Wählen Sie Claude Pro/Max für Browser-Authentifizierung
  3. Greifen Sie über den /models-Befehl auf Modelle zu

OpenAI

  1. Erstellen Sie einen API-Schlüssel unter platform.openai.com/api-keys
  2. Führen Sie /connect aus und suchen Sie OpenAI
  3. Geben Sie den API-Schlüssel ein
  4. Wählen Sie das Modell mit /models

OpenRouter

{
  "provider": {
    "openrouter": {
      "models": {
        "moonshotai/kimi-k2": {
          "options": {
            "provider": {
              "order": ["baseten"],
              "allow_fallbacks": false
            }
          }
        }
      }
    }
  }
}

Ollama (Lokal)

{
  "provider": {
    "ollama": {
      "npm": "@ai-sdk/openai-compatible",
      "name": "Ollama (local)",
      "options": {
        "baseURL": "http://localhost:11434/v1"
      },
      "models": {
        "llama2": {
          "name": "Llama 2"
        }
      }
    }
  }
}

LM Studio (Lokal)

{
  "provider": {
    "lmstudio": {
      "npm": "@ai-sdk/openai-compatible",
      "name": "LM Studio (local)",
      "options": {
        "baseURL": "http://127.0.0.1:1234/v1"
      },
      "models": {
        "google/gemma-3n-e4b": {
          "name": "Gemma 3n-e4b (local)"
        }
      }
    }
  }
}

Amazon Bedrock

{
  "provider": {
    "amazon-bedrock": {
      "options": {
        "region": "us-east-1",
        "profile": "my-aws-profile"
      }
    }
  }
}

Azure OpenAI

  1. Erstellen Sie eine Azure OpenAI-Ressource im Azure-Portal
  2. Stellen Sie das Modell in Azure AI Foundry bereit
  3. Führen Sie /connect aus und suchen Sie Azure
  4. Setzen Sie die AZURE_RESOURCE_NAME Umgebungsvariable

Benutzerdefinierte Anbieter-Einrichtung

Für OpenAI-kompatible Anbieter:

{
  "provider": {
    "myprovider": {
      "npm": "@ai-sdk/openai-compatible",
      "name": "My AI Provider",
      "options": {
        "baseURL": "https://api.myprovider.com/v1",
        "apiKey": "{env:MY_API_KEY}"
      },
      "models": {
        "my-model": {
          "name": "My Model",
          "limit": {
            "context": 200000,
            "output": 65536
          }
        }
      }
    }
  }
}

Fehlerbehebung

  1. Authentifizierung prüfen: Führen Sie opencode auth list aus, um Anmeldedaten zu überprüfen
  2. Probleme mit benutzerdefinierten Anbietern:
    • Stellen Sie sicher, dass die Anbieter-ID zwischen /connect und Konfiguration übereinstimmt
    • Bestätigen Sie das korrekte npm-Paket
    • Überprüfen Sie den API-Endpunkt in options.baseURL