मॉडल
LLM प्रोवाइडर और मॉडल कॉन्फ़िगर करना।
OpenCode AI SDK (opens in a new tab) और Models.dev (opens in a new tab) का उपयोग करके 75+ LLM प्रोवाइडर्स को सपोर्ट करता है और लोकल मॉडल चलाने को भी सपोर्ट करता है।
प्रोवाइडर्स
अधिकांश लोकप्रिय प्रोवाइडर्स डिफ़ॉल्ट रूप से प्रीलोड होते हैं। यदि आपने /connect कमांड के माध्यम से किसी प्रोवाइडर के क्रेडेंशियल्स जोड़े हैं, तो वे OpenCode शुरू करने पर उपलब्ध होंगे।
प्रोवाइडर्स के बारे में और जानें।
मॉडल सेलेक्ट करना
अपना प्रोवाइडर कॉन्फ़िगर करने के बाद, आप निम्न टाइप करके अपना इच्छित मॉडल सेलेक्ट कर सकते हैं:
/modelsअनुशंसित मॉडल
बहुत सारे मॉडल उपलब्ध हैं, हर हफ्ते नए मॉडल आ रहे हैं।
टिप: हमारे अनुशंसित मॉडल में से एक का उपयोग करने पर विचार करें।
हालांकि, केवल कुछ ही हैं जो कोड जनरेशन और टूल कॉलिंग दोनों में अच्छे हैं।
यहां कई मॉडल हैं जो OpenCode के साथ अच्छी तरह काम करते हैं, किसी विशेष क्रम में नहीं। (यह एक संपूर्ण सूची नहीं है और न ही यह आवश्यक रूप से अप-टू-डेट है):
- GPT 5.2
- GPT 5.1 Codex
- Claude Opus 4.5
- Claude Sonnet 4.5
- Minimax M2.1
- Gemini 3 Pro
डिफ़ॉल्ट सेट करना
इनमें से किसी एक को डिफ़ॉल्ट मॉडल के रूप में सेट करने के लिए, आप अपनी OpenCode कॉन्फ़िग में model की सेट कर सकते हैं।
{
"$schema": "https://opencode.ai/config.json",
"model": "lmstudio/google/gemma-3n-e4b"
}यहां पूर्ण ID provider_id/model_id है। उदाहरण के लिए, यदि आप OpenCode Zen का उपयोग कर रहे हैं, तो आप GPT 5.1 Codex के लिए opencode/gpt-5.1-codex का उपयोग करेंगे।
यदि आपने कस्टम प्रोवाइडर कॉन्फ़िगर किया है, तो provider_id आपकी कॉन्फ़िग के provider भाग की की है, और model_id provider.models की की है।
मॉडल कॉन्फ़िगर करना
आप कॉन्फ़िग के माध्यम से मॉडल के ऑप्शन्स को ग्लोबली कॉन्फ़िगर कर सकते हैं।
{
"$schema": "https://opencode.ai/config.json",
"provider": {
"openai": {
"models": {
"gpt-5": {
"options": {
"reasoningEffort": "high",
"textVerbosity": "low",
"reasoningSummary": "auto",
"include": ["reasoning.encrypted_content"],
},
},
},
},
"anthropic": {
"models": {
"claude-sonnet-4-5-20250929": {
"options": {
"thinking": {
"type": "enabled",
"budgetTokens": 16000,
},
},
},
},
},
},
}यहां हम दो बिल्ट-इन मॉडल्स के लिए ग्लोबल सेटिंग्स कॉन्फ़िगर कर रहे हैं: openai प्रोवाइडर के माध्यम से एक्सेस किया गया gpt-5, और anthropic प्रोवाइडर के माध्यम से एक्सेस किया गया claude-sonnet-4-20250514। बिल्ट-इन प्रोवाइडर और मॉडल नाम Models.dev (opens in a new tab) पर मिल सकते हैं।
आप इन ऑप्शन्स को किसी भी एजेंट के लिए भी कॉन्फ़िगर कर सकते हैं जिसका आप उपयोग कर रहे हैं। एजेंट कॉन्फ़िग यहां किसी भी ग्लोबल ऑप्शन्स को ओवरराइड करता है। और जानें।
आप कस्टम वेरिएंट्स भी परिभाषित कर सकते हैं जो बिल्ट-इन को एक्सटेंड करते हैं। वेरिएंट्स आपको डुप्लिकेट एंट्रीज़ बनाए बिना एक ही मॉडल के लिए अलग-अलग सेटिंग्स कॉन्फ़िगर करने देते हैं:
{
"$schema": "https://opencode.ai/config.json",
"provider": {
"opencode": {
"models": {
"gpt-5": {
"variants": {
"high": {
"reasoningEffort": "high",
"textVerbosity": "low",
"reasoningSummary": "auto",
},
"low": {
"reasoningEffort": "low",
"textVerbosity": "low",
"reasoningSummary": "auto",
},
},
},
},
},
},
}वेरिएंट्स
कई मॉडल अलग-अलग कॉन्फ़िगरेशन के साथ मल्टीपल वेरिएंट्स सपोर्ट करते हैं। OpenCode लोकप्रिय प्रोवाइडर्स के लिए बिल्ट-इन डिफ़ॉल्ट वेरिएंट्स के साथ आता है।
बिल्ट-इन वेरिएंट्स
OpenCode कई प्रोवाइडर्स के लिए डिफ़ॉल्ट वेरिएंट्स के साथ आता है:
Anthropic:
high- हाई थिंकिंग बजट (डिफ़ॉल्ट)max- मैक्सिमम थिंकिंग बजट
OpenAI:
मॉडल के अनुसार भिन्न होता है लेकिन लगभग:
none- कोई रीज़निंग नहींminimal- न्यूनतम रीज़निंग एफर्टlow- कम रीज़निंग एफर्टmedium- मध्यम रीज़निंग एफर्टhigh- उच्च रीज़निंग एफर्टxhigh- अतिरिक्त उच्च रीज़निंग एफर्ट
Google:
low- कम एफर्ट/टोकन बजटhigh- अधिक एफर्ट/टोकन बजट
टिप: यह सूची व्यापक नहीं है। कई अन्य प्रोवाइडर्स के पास भी बिल्ट-इन डिफ़ॉल्ट्स हैं।
कस्टम वेरिएंट्स
आप मौजूदा वेरिएंट्स को ओवरराइड कर सकते हैं या अपने खुद के जोड़ सकते हैं:
{
"$schema": "https://opencode.ai/config.json",
"provider": {
"openai": {
"models": {
"gpt-5": {
"variants": {
"thinking": {
"reasoningEffort": "high",
"textVerbosity": "low",
},
"fast": {
"disabled": true,
},
},
},
},
},
},
}वेरिएंट्स साइकल करना
वेरिएंट्स के बीच जल्दी स्विच करने के लिए कीबाइंड variant_cycle का उपयोग करें। और जानें।
मॉडल लोडिंग
जब OpenCode शुरू होता है, यह निम्न प्राथमिकता क्रम में मॉडल्स की जांच करता है:
-
--modelया-mकमांड लाइन फ्लैग। फॉर्मेट कॉन्फ़िग फाइल जैसा ही है:provider_id/model_id। -
OpenCode कॉन्फ़िग में मॉडल लिस्ट।
opencode.json{ "$schema": "https://opencode.ai/config.json", "model": "anthropic/claude-sonnet-4-20250514" }यहां फॉर्मेट
provider/modelहै। -
अंतिम उपयोग किया गया मॉडल।
-
आंतरिक प्राथमिकता का उपयोग करके पहला मॉडल।