Modelle
Konfiguration eines LLM-Anbieters und Modells.
OpenCode verwendet das AI SDK (opens in a new tab) und Models.dev (opens in a new tab), um 75+ LLM-Anbieter zu unterstützen und unterstützt die Ausführung lokaler Modelle.
Anbieter
Die meisten beliebten Anbieter sind standardmäßig vorgeladen. Wenn Sie die Anmeldedaten für einen Anbieter über den /connect-Befehl hinzugefügt haben, sind diese beim Start von OpenCode verfügbar.
Erfahren Sie mehr über Anbieter.
Ein Modell auswählen
Sobald Sie Ihren Anbieter konfiguriert haben, können Sie das gewünschte Modell auswählen, indem Sie eingeben:
/modelsEmpfohlene Modelle
Es gibt viele Modelle, und jede Woche kommen neue heraus.
Tipp: Erwägen Sie die Verwendung eines unserer empfohlenen Modelle.
Allerdings gibt es nur wenige, die sowohl bei der Codegenerierung als auch beim Tool-Calling gut sind.
Hier sind einige Modelle, die gut mit OpenCode funktionieren, in keiner bestimmten Reihenfolge. (Dies ist keine vollständige Liste und nicht unbedingt aktuell):
- GPT 5.2
- GPT 5.1 Codex
- Claude Opus 4.5
- Claude Sonnet 4.5
- Minimax M2.1
- Gemini 3 Pro
Standard festlegen
Um eines davon als Standardmodell festzulegen, können Sie den model-Schlüssel in Ihrer OpenCode-Konfiguration setzen.
{
"$schema": "https://opencode.ai/config.json",
"model": "lmstudio/google/gemma-3n-e4b"
}Hier ist die vollständige ID provider_id/model_id. Wenn Sie beispielsweise OpenCode Zen verwenden, würden Sie opencode/gpt-5.1-codex für GPT 5.1 Codex verwenden.
Wenn Sie einen benutzerdefinierten Anbieter konfiguriert haben, ist die provider_id der Schlüssel aus dem provider-Teil Ihrer Konfiguration, und die model_id ist der Schlüssel aus provider.models.
Modelle konfigurieren
Sie können die Optionen eines Modells global über die Konfiguration festlegen.
{
"$schema": "https://opencode.ai/config.json",
"provider": {
"openai": {
"models": {
"gpt-5": {
"options": {
"reasoningEffort": "high",
"textVerbosity": "low",
"reasoningSummary": "auto",
"include": ["reasoning.encrypted_content"],
},
},
},
},
"anthropic": {
"models": {
"claude-sonnet-4-5-20250929": {
"options": {
"thinking": {
"type": "enabled",
"budgetTokens": 16000,
},
},
},
},
},
},
}Hier konfigurieren wir globale Einstellungen für zwei eingebaute Modelle: gpt-5 über den openai-Anbieter und claude-sonnet-4-20250514 über den anthropic-Anbieter. Die eingebauten Anbieter- und Modellnamen finden Sie auf Models.dev (opens in a new tab).
Sie können diese Optionen auch für alle verwendeten Agenten konfigurieren. Die Agentenkonfiguration überschreibt alle globalen Optionen hier. Mehr erfahren.
Sie können auch benutzerdefinierte Varianten definieren, die eingebaute erweitern. Varianten ermöglichen es Ihnen, verschiedene Einstellungen für dasselbe Modell zu konfigurieren, ohne doppelte Einträge zu erstellen:
{
"$schema": "https://opencode.ai/config.json",
"provider": {
"opencode": {
"models": {
"gpt-5": {
"variants": {
"high": {
"reasoningEffort": "high",
"textVerbosity": "low",
"reasoningSummary": "auto",
},
"low": {
"reasoningEffort": "low",
"textVerbosity": "low",
"reasoningSummary": "auto",
},
},
},
},
},
},
}Varianten
Viele Modelle unterstützen mehrere Varianten mit unterschiedlichen Konfigurationen. OpenCode wird mit eingebauten Standardvarianten für beliebte Anbieter geliefert.
Eingebaute Varianten
OpenCode wird mit Standardvarianten für viele Anbieter geliefert:
Anthropic:
high- Hohes Denkbudget (Standard)max- Maximales Denkbudget
OpenAI:
Variiert je nach Modell, aber ungefähr:
none- Kein Reasoningminimal- Minimaler Reasoning-Aufwandlow- Niedriger Reasoning-Aufwandmedium- Mittlerer Reasoning-Aufwandhigh- Hoher Reasoning-Aufwandxhigh- Extra hoher Reasoning-Aufwand
Google:
low- Niedrigeres Aufwand/Token-Budgethigh- Höheres Aufwand/Token-Budget
Tipp: Diese Liste ist nicht vollständig. Viele andere Anbieter haben ebenfalls eingebaute Standards.
Benutzerdefinierte Varianten
Sie können bestehende Varianten überschreiben oder eigene hinzufügen:
{
"$schema": "https://opencode.ai/config.json",
"provider": {
"openai": {
"models": {
"gpt-5": {
"variants": {
"thinking": {
"reasoningEffort": "high",
"textVerbosity": "low",
},
"fast": {
"disabled": true,
},
},
},
},
},
},
}Varianten wechseln
Verwenden Sie die Tastenkombination variant_cycle, um schnell zwischen Varianten zu wechseln. Mehr erfahren.
Modelle laden
Beim Start von OpenCode werden Modelle in folgender Prioritätsreihenfolge geprüft:
-
Das
--modeloder-mKommandozeilen-Flag. Das Format ist dasselbe wie in der Konfigurationsdatei:provider_id/model_id. -
Die Modellliste in der OpenCode-Konfiguration.
opencode.json{ "$schema": "https://opencode.ai/config.json", "model": "anthropic/claude-sonnet-4-20250514" }Das Format hier ist
provider/model. -
Das zuletzt verwendete Modell.
-
Das erste Modell nach interner Priorität.