Zen
Kuratierte Liste von Modellen, bereitgestellt von OpenCode.
OpenCode Zen ist eine Liste von getesteten und verifizierten Modellen, die vom OpenCode-Team bereitgestellt werden.
Hinweis: OpenCode Zen befindet sich derzeit in der Beta-Phase.
Zen funktioniert wie jeder andere Anbieter in OpenCode. Sie melden sich bei OpenCode Zen an und erhalten Ihren API-Schlüssel. Es ist vollständig optional und Sie müssen es nicht verwenden, um OpenCode zu nutzen.
Hintergrund
Es gibt eine große Anzahl von Modellen, aber nur wenige davon funktionieren gut als Coding-Agenten. Außerdem sind die meisten Anbieter sehr unterschiedlich konfiguriert, sodass Sie sehr unterschiedliche Leistung und Qualität erhalten.
Tipp: Wir haben eine ausgewählte Gruppe von Modellen und Anbietern getestet, die gut mit OpenCode funktionieren.
Wenn Sie also ein Modell über etwas wie OpenRouter verwenden, können Sie nie sicher sein, ob Sie die beste Version des gewünschten Modells erhalten.
Um dies zu beheben, haben wir einige Dinge getan:
- Wir haben eine ausgewählte Gruppe von Modellen getestet und mit ihren Teams darüber gesprochen, wie man sie am besten betreibt.
- Dann haben wir mit einigen Anbietern zusammengearbeitet, um sicherzustellen, dass diese korrekt bereitgestellt werden.
- Schließlich haben wir die Kombination aus Modell/Anbieter einem Benchmark unterzogen und eine Liste erstellt, die wir guten Gewissens empfehlen können.
OpenCode Zen ist ein KI-Gateway, das Ihnen Zugang zu diesen Modellen gibt.
Funktionsweise
OpenCode Zen funktioniert wie jeder andere Anbieter in OpenCode.
- Sie melden sich bei OpenCode Zen (opens in a new tab) an, fügen Ihre Zahlungsdaten hinzu und kopieren Ihren API-Schlüssel.
- Sie führen den
/connect-Befehl in der TUI aus, wählen OpenCode Zen und fügen Ihren API-Schlüssel ein. - Führen Sie
/modelsin der TUI aus, um die Liste der empfohlenen Modelle zu sehen.
Sie werden pro Anfrage berechnet und können Guthaben zu Ihrem Konto hinzufügen.
Endpunkte
Sie können auch über die folgenden API-Endpunkte auf unsere Modelle zugreifen.
| Modell | Modell-ID | Endpunkt | AI SDK-Paket |
|---|---|---|---|
| GPT 5.2 | gpt-5.2 | https://opencode.ai/zen/v1/responses | @ai-sdk/openai |
| GPT 5.2 Codex | gpt-5.2-codex | https://opencode.ai/zen/v1/responses | @ai-sdk/openai |
| GPT 5.1 | gpt-5.1 | https://opencode.ai/zen/v1/responses | @ai-sdk/openai |
| GPT 5.1 Codex | gpt-5.1-codex | https://opencode.ai/zen/v1/responses | @ai-sdk/openai |
| GPT 5.1 Codex Max | gpt-5.1-codex-max | https://opencode.ai/zen/v1/responses | @ai-sdk/openai |
| GPT 5.1 Codex Mini | gpt-5.1-codex-mini | https://opencode.ai/zen/v1/responses | @ai-sdk/openai |
| GPT 5 | gpt-5 | https://opencode.ai/zen/v1/responses | @ai-sdk/openai |
| GPT 5 Codex | gpt-5-codex | https://opencode.ai/zen/v1/responses | @ai-sdk/openai |
| GPT 5 Nano | gpt-5-nano | https://opencode.ai/zen/v1/responses | @ai-sdk/openai |
| Claude Sonnet 4.5 | claude-sonnet-4-5 | https://opencode.ai/zen/v1/messages | @ai-sdk/anthropic |
| Claude Sonnet 4 | claude-sonnet-4 | https://opencode.ai/zen/v1/messages | @ai-sdk/anthropic |
| Claude Haiku 4.5 | claude-haiku-4-5 | https://opencode.ai/zen/v1/messages | @ai-sdk/anthropic |
| Claude Haiku 3.5 | claude-3-5-haiku | https://opencode.ai/zen/v1/messages | @ai-sdk/anthropic |
| Claude Opus 4.5 | claude-opus-4-5 | https://opencode.ai/zen/v1/messages | @ai-sdk/anthropic |
| Claude Opus 4.1 | claude-opus-4-1 | https://opencode.ai/zen/v1/messages | @ai-sdk/anthropic |
| Gemini 3 Pro | gemini-3-pro | https://opencode.ai/zen/v1/models/gemini-3-pro | @ai-sdk/google |
| Gemini 3 Flash | gemini-3-flash | https://opencode.ai/zen/v1/models/gemini-3-flash | @ai-sdk/google |
| MiniMax M2.1 | minimax-m2.1 | https://opencode.ai/zen/v1/chat/completions | @ai-sdk/openai-compatible |
| MiniMax M2.1 Free | minimax-m2.1-free | https://opencode.ai/zen/v1/messages | @ai-sdk/anthropic |
| GLM 4.7 | glm-4.7 | https://opencode.ai/zen/v1/chat/completions | @ai-sdk/openai-compatible |
| GLM 4.7 Free | glm-4.7-free | https://opencode.ai/zen/v1/chat/completions | @ai-sdk/openai-compatible |
| GLM 4.6 | glm-4.6 | https://opencode.ai/zen/v1/chat/completions | @ai-sdk/openai-compatible |
| Kimi K2.5 | kimi-k2.5 | https://opencode.ai/zen/v1/chat/completions | @ai-sdk/openai-compatible |
| Kimi K2.5 Free | kimi-k2.5-free | https://opencode.ai/zen/v1/chat/completions | @ai-sdk/openai-compatible |
| Kimi K2 Thinking | kimi-k2-thinking | https://opencode.ai/zen/v1/chat/completions | @ai-sdk/openai-compatible |
| Kimi K2 | kimi-k2 | https://opencode.ai/zen/v1/chat/completions | @ai-sdk/openai-compatible |
| Qwen3 Coder 480B | qwen3-coder | https://opencode.ai/zen/v1/chat/completions | @ai-sdk/openai-compatible |
| Big Pickle | big-pickle | https://opencode.ai/zen/v1/chat/completions | @ai-sdk/openai-compatible |
Die Modell-ID in Ihrer OpenCode-Konfiguration verwendet das Format opencode/<model-id>. Zum Beispiel würden Sie für GPT 5.2 Codex opencode/gpt-5.2-codex in Ihrer Konfiguration verwenden.
Modelle
Sie können die vollständige Liste der verfügbaren Modelle und deren Metadaten abrufen unter:
https://opencode.ai/zen/v1/modelsPreise
Wir unterstützen ein Pay-as-you-go-Modell. Unten sind die Preise pro 1M Token.
| Modell | Eingabe | Ausgabe | Cache-Lesen | Cache-Schreiben |
|---|---|---|---|---|
| Big Pickle | Kostenlos | Kostenlos | Kostenlos | - |
| MiniMax M2.1 Free | Kostenlos | Kostenlos | Kostenlos | - |
| MiniMax M2.1 | $0.30 | $1.20 | $0.10 | - |
| GLM 4.7 Free | Kostenlos | Kostenlos | Kostenlos | - |
| GLM 4.7 | $0.60 | $2.20 | $0.10 | - |
| GLM 4.6 | $0.60 | $2.20 | $0.10 | - |
| Kimi K2.5 Free | Kostenlos | Kostenlos | Kostenlos | - |
| Kimi K2.5 | $0.60 | $3.00 | $0.08 | - |
| Kimi K2 Thinking | $0.40 | $2.50 | - | - |
| Kimi K2 | $0.40 | $2.50 | - | - |
| Qwen3 Coder 480B | $0.45 | $1.50 | - | - |
| Claude Sonnet 4.5 (≤ 200K tokens) | $3.00 | $15.00 | $0.30 | $3.75 |
| Claude Sonnet 4.5 (> 200K tokens) | $6.00 | $22.50 | $0.60 | $7.50 |
| Claude Sonnet 4 (≤ 200K tokens) | $3.00 | $15.00 | $0.30 | $3.75 |
| Claude Sonnet 4 (> 200K tokens) | $6.00 | $22.50 | $0.60 | $7.50 |
| Claude Haiku 4.5 | $1.00 | $5.00 | $0.10 | $1.25 |
| Claude Haiku 3.5 | $0.80 | $4.00 | $0.08 | $1.00 |
| Claude Opus 4.5 | $5.00 | $25.00 | $0.50 | $6.25 |
| Claude Opus 4.1 | $15.00 | $75.00 | $1.50 | $18.75 |
| Gemini 3 Pro (≤ 200K tokens) | $2.00 | $12.00 | $0.20 | - |
| Gemini 3 Pro (> 200K tokens) | $4.00 | $18.00 | $0.40 | - |
| Gemini 3 Flash | $0.50 | $3.00 | $0.05 | - |
| GPT 5.2 | $1.75 | $14.00 | $0.175 | - |
| GPT 5.2 Codex | $1.75 | $14.00 | $0.175 | - |
| GPT 5.1 | $1.07 | $8.50 | $0.107 | - |
| GPT 5.1 Codex | $1.07 | $8.50 | $0.107 | - |
| GPT 5.1 Codex Max | $1.25 | $10.00 | $0.125 | - |
| GPT 5.1 Codex Mini | $0.25 | $2.00 | $0.025 | - |
| GPT 5 | $1.07 | $8.50 | $0.107 | - |
| GPT 5 Codex | $1.07 | $8.50 | $0.107 | - |
| GPT 5 Nano | Kostenlos | Kostenlos | Kostenlos | - |
Möglicherweise sehen Sie Claude Haiku 3.5 in Ihrem Nutzungsverlauf. Dies ist ein kostengünstiges Modell, das verwendet wird, um die Titel Ihrer Sitzungen zu generieren.
Hinweis: Kreditkartengebühren werden zum Selbstkostenpreis weitergegeben (4,4% + $0,30 pro Transaktion); wir berechnen darüber hinaus nichts.
Die kostenlosen Modelle:
- GLM 4.7 Free ist auf OpenCode für eine begrenzte Zeit kostenlos verfügbar. Das Team nutzt diese Zeit, um Feedback zu sammeln und das Modell zu verbessern.
- Kimi K2.5 Free ist auf OpenCode für eine begrenzte Zeit kostenlos verfügbar. Das Team nutzt diese Zeit, um Feedback zu sammeln und das Modell zu verbessern.
- MiniMax M2.1 Free ist auf OpenCode für eine begrenzte Zeit kostenlos verfügbar. Das Team nutzt diese Zeit, um Feedback zu sammeln und das Modell zu verbessern.
- Big Pickle ist ein Stealth-Modell, das auf OpenCode für eine begrenzte Zeit kostenlos ist. Das Team nutzt diese Zeit, um Feedback zu sammeln und das Modell zu verbessern.
Kontaktieren Sie uns, wenn Sie Fragen haben.
Auto-Reload
Wenn Ihr Guthaben unter 20 nach.
Sie können den Auto-Reload-Betrag ändern. Sie können Auto-Reload auch vollständig deaktivieren.
Monatliche Limits
Sie können auch ein monatliches Nutzungslimit für den gesamten Workspace und für jedes Mitglied Ihres Teams festlegen.
Wenn Sie beispielsweise ein monatliches Nutzungslimit von 20 pro Monat verwenden. Aber wenn Sie Auto-Reload aktiviert haben, könnte Zen Ihnen mehr als 5 fällt.
Datenschutz
Alle unsere Modelle werden in den USA gehostet. Unsere Anbieter folgen einer Zero-Retention-Richtlinie und verwenden Ihre Daten nicht für das Modelltraining, mit folgenden Ausnahmen:
- Big Pickle: Während der kostenlosen Periode können gesammelte Daten zur Verbesserung des Modells verwendet werden.
- GLM 4.7 Free: Während der kostenlosen Periode können gesammelte Daten zur Verbesserung des Modells verwendet werden.
- Kimi K2.5 Free: Während der kostenlosen Periode können gesammelte Daten zur Verbesserung des Modells verwendet werden.
- MiniMax M2.1 Free: Während der kostenlosen Periode können gesammelte Daten zur Verbesserung des Modells verwendet werden.
- OpenAI APIs: Anfragen werden gemäß den OpenAI-Datenrichtlinien (opens in a new tab) 30 Tage lang aufbewahrt.
- Anthropic APIs: Anfragen werden gemäß den Anthropic-Datenrichtlinien (opens in a new tab) 30 Tage lang aufbewahrt.
Für Teams
Zen funktioniert auch hervorragend für Teams. Sie können Teammitglieder einladen, Rollen zuweisen, die Modelle kuratieren, die Ihr Team verwendet, und mehr.
Hinweis: Workspaces sind derzeit als Teil der Beta kostenlos für Teams.
Die Verwaltung Ihres Workspaces ist derzeit als Teil der Beta kostenlos für Teams. Wir werden bald weitere Details zu den Preisen mitteilen.
Rollen
Sie können Teammitglieder in Ihren Workspace einladen und Rollen zuweisen:
- Admin: Modelle, Mitglieder, API-Schlüssel und Abrechnung verwalten
- Mitglied: Nur eigene API-Schlüssel verwalten
Admins können auch monatliche Ausgabenlimits für jedes Mitglied festlegen, um die Kosten unter Kontrolle zu halten.
Modellzugriff
Admins können bestimmte Modelle für den Workspace aktivieren oder deaktivieren. Anfragen an ein deaktiviertes Modell geben einen Fehler zurück.
Dies ist nützlich für Fälle, in denen Sie die Verwendung eines Modells deaktivieren möchten, das Daten sammelt.
Eigene Schlüssel verwenden
Sie können Ihre eigenen OpenAI- oder Anthropic-API-Schlüssel verwenden, während Sie weiterhin auf andere Modelle in Zen zugreifen.
Wenn Sie Ihre eigenen Schlüssel verwenden, werden Token direkt vom Anbieter berechnet, nicht von Zen.
Zum Beispiel könnte Ihre Organisation bereits einen Schlüssel für OpenAI oder Anthropic haben und Sie möchten diesen anstelle des von Zen bereitgestellten verwenden.
Ziele
Wir haben OpenCode Zen erstellt, um:
- Die besten Modelle/Anbieter für Coding-Agenten zu benchmarken.
- Zugang zu den höchsten Qualitätsoptionen zu haben und die Leistung nicht zu verschlechtern oder zu günstigeren Anbietern zu routen.
- Alle Preissenkungen weiterzugeben, indem wir zum Selbstkostenpreis verkaufen; der einzige Aufschlag dient zur Deckung unserer Bearbeitungsgebühren.
- Keine Bindung zu haben, indem wir Ihnen erlauben, es mit jedem anderen Coding-Agenten zu verwenden. Und Ihnen immer erlauben, jeden anderen Anbieter mit OpenCode zu verwenden.