Deutsch
Dokumentation
Modelle

Modelle

Konfiguration eines LLM-Anbieters und Modells.

OpenCode verwendet das AI SDK (opens in a new tab) und Models.dev (opens in a new tab), um 75+ LLM-Anbieter zu unterstützen und unterstützt die Ausführung lokaler Modelle.


Anbieter

Die meisten beliebten Anbieter sind standardmäßig vorgeladen. Wenn Sie die Anmeldedaten für einen Anbieter über den /connect-Befehl hinzugefügt haben, sind diese beim Start von OpenCode verfügbar.

Erfahren Sie mehr über Anbieter.


Ein Modell auswählen

Sobald Sie Ihren Anbieter konfiguriert haben, können Sie das gewünschte Modell auswählen, indem Sie eingeben:

/models

Empfohlene Modelle

Es gibt viele Modelle, und jede Woche kommen neue heraus.

Tipp: Erwägen Sie die Verwendung eines unserer empfohlenen Modelle.

Allerdings gibt es nur wenige, die sowohl bei der Codegenerierung als auch beim Tool-Calling gut sind.

Hier sind einige Modelle, die gut mit OpenCode funktionieren, in keiner bestimmten Reihenfolge. (Dies ist keine vollständige Liste und nicht unbedingt aktuell):

  • GPT 5.2
  • GPT 5.1 Codex
  • Claude Opus 4.5
  • Claude Sonnet 4.5
  • Minimax M2.1
  • Gemini 3 Pro

Standard festlegen

Um eines davon als Standardmodell festzulegen, können Sie den model-Schlüssel in Ihrer OpenCode-Konfiguration setzen.

opencode.json
{
  "$schema": "https://opencode.ai/config.json",
  "model": "lmstudio/google/gemma-3n-e4b"
}

Hier ist die vollständige ID provider_id/model_id. Wenn Sie beispielsweise OpenCode Zen verwenden, würden Sie opencode/gpt-5.1-codex für GPT 5.1 Codex verwenden.

Wenn Sie einen benutzerdefinierten Anbieter konfiguriert haben, ist die provider_id der Schlüssel aus dem provider-Teil Ihrer Konfiguration, und die model_id ist der Schlüssel aus provider.models.


Modelle konfigurieren

Sie können die Optionen eines Modells global über die Konfiguration festlegen.

opencode.jsonc
{
  "$schema": "https://opencode.ai/config.json",
  "provider": {
    "openai": {
      "models": {
        "gpt-5": {
          "options": {
            "reasoningEffort": "high",
            "textVerbosity": "low",
            "reasoningSummary": "auto",
            "include": ["reasoning.encrypted_content"],
          },
        },
      },
    },
    "anthropic": {
      "models": {
        "claude-sonnet-4-5-20250929": {
          "options": {
            "thinking": {
              "type": "enabled",
              "budgetTokens": 16000,
            },
          },
        },
      },
    },
  },
}

Hier konfigurieren wir globale Einstellungen für zwei eingebaute Modelle: gpt-5 über den openai-Anbieter und claude-sonnet-4-20250514 über den anthropic-Anbieter. Die eingebauten Anbieter- und Modellnamen finden Sie auf Models.dev (opens in a new tab).

Sie können diese Optionen auch für alle verwendeten Agenten konfigurieren. Die Agentenkonfiguration überschreibt alle globalen Optionen hier. Mehr erfahren.

Sie können auch benutzerdefinierte Varianten definieren, die eingebaute erweitern. Varianten ermöglichen es Ihnen, verschiedene Einstellungen für dasselbe Modell zu konfigurieren, ohne doppelte Einträge zu erstellen:

opencode.jsonc
{
  "$schema": "https://opencode.ai/config.json",
  "provider": {
    "opencode": {
      "models": {
        "gpt-5": {
          "variants": {
            "high": {
              "reasoningEffort": "high",
              "textVerbosity": "low",
              "reasoningSummary": "auto",
            },
            "low": {
              "reasoningEffort": "low",
              "textVerbosity": "low",
              "reasoningSummary": "auto",
            },
          },
        },
      },
    },
  },
}

Varianten

Viele Modelle unterstützen mehrere Varianten mit unterschiedlichen Konfigurationen. OpenCode wird mit eingebauten Standardvarianten für beliebte Anbieter geliefert.

Eingebaute Varianten

OpenCode wird mit Standardvarianten für viele Anbieter geliefert:

Anthropic:

  • high - Hohes Denkbudget (Standard)
  • max - Maximales Denkbudget

OpenAI:

Variiert je nach Modell, aber ungefähr:

  • none - Kein Reasoning
  • minimal - Minimaler Reasoning-Aufwand
  • low - Niedriger Reasoning-Aufwand
  • medium - Mittlerer Reasoning-Aufwand
  • high - Hoher Reasoning-Aufwand
  • xhigh - Extra hoher Reasoning-Aufwand

Google:

  • low - Niedrigeres Aufwand/Token-Budget
  • high - Höheres Aufwand/Token-Budget

Tipp: Diese Liste ist nicht vollständig. Viele andere Anbieter haben ebenfalls eingebaute Standards.

Benutzerdefinierte Varianten

Sie können bestehende Varianten überschreiben oder eigene hinzufügen:

opencode.jsonc
{
  "$schema": "https://opencode.ai/config.json",
  "provider": {
    "openai": {
      "models": {
        "gpt-5": {
          "variants": {
            "thinking": {
              "reasoningEffort": "high",
              "textVerbosity": "low",
            },
            "fast": {
              "disabled": true,
            },
          },
        },
      },
    },
  },
}

Varianten wechseln

Verwenden Sie die Tastenkombination variant_cycle, um schnell zwischen Varianten zu wechseln. Mehr erfahren.


Modelle laden

Beim Start von OpenCode werden Modelle in folgender Prioritätsreihenfolge geprüft:

  1. Das --model oder -m Kommandozeilen-Flag. Das Format ist dasselbe wie in der Konfigurationsdatei: provider_id/model_id.

  2. Die Modellliste in der OpenCode-Konfiguration.

    opencode.json
    {
      "$schema": "https://opencode.ai/config.json",
      "model": "anthropic/claude-sonnet-4-20250514"
    }

    Das Format hier ist provider/model.

  3. Das zuletzt verwendete Modell.

  4. Das erste Modell nach interner Priorität.