हिन्दी
दस्तावेज़
मॉडल

मॉडल

LLM प्रोवाइडर और मॉडल कॉन्फ़िगर करना।

OpenCode AI SDK (opens in a new tab) और Models.dev (opens in a new tab) का उपयोग करके 75+ LLM प्रोवाइडर्स को सपोर्ट करता है और लोकल मॉडल चलाने को भी सपोर्ट करता है।


प्रोवाइडर्स

अधिकांश लोकप्रिय प्रोवाइडर्स डिफ़ॉल्ट रूप से प्रीलोड होते हैं। यदि आपने /connect कमांड के माध्यम से किसी प्रोवाइडर के क्रेडेंशियल्स जोड़े हैं, तो वे OpenCode शुरू करने पर उपलब्ध होंगे।

प्रोवाइडर्स के बारे में और जानें।


मॉडल सेलेक्ट करना

अपना प्रोवाइडर कॉन्फ़िगर करने के बाद, आप निम्न टाइप करके अपना इच्छित मॉडल सेलेक्ट कर सकते हैं:

/models

अनुशंसित मॉडल

बहुत सारे मॉडल उपलब्ध हैं, हर हफ्ते नए मॉडल आ रहे हैं।

टिप: हमारे अनुशंसित मॉडल में से एक का उपयोग करने पर विचार करें।

हालांकि, केवल कुछ ही हैं जो कोड जनरेशन और टूल कॉलिंग दोनों में अच्छे हैं।

यहां कई मॉडल हैं जो OpenCode के साथ अच्छी तरह काम करते हैं, किसी विशेष क्रम में नहीं। (यह एक संपूर्ण सूची नहीं है और न ही यह आवश्यक रूप से अप-टू-डेट है):

  • GPT 5.2
  • GPT 5.1 Codex
  • Claude Opus 4.5
  • Claude Sonnet 4.5
  • Minimax M2.1
  • Gemini 3 Pro

डिफ़ॉल्ट सेट करना

इनमें से किसी एक को डिफ़ॉल्ट मॉडल के रूप में सेट करने के लिए, आप अपनी OpenCode कॉन्फ़िग में model की सेट कर सकते हैं।

opencode.json
{
  "$schema": "https://opencode.ai/config.json",
  "model": "lmstudio/google/gemma-3n-e4b"
}

यहां पूर्ण ID provider_id/model_id है। उदाहरण के लिए, यदि आप OpenCode Zen का उपयोग कर रहे हैं, तो आप GPT 5.1 Codex के लिए opencode/gpt-5.1-codex का उपयोग करेंगे।

यदि आपने कस्टम प्रोवाइडर कॉन्फ़िगर किया है, तो provider_id आपकी कॉन्फ़िग के provider भाग की की है, और model_id provider.models की की है।


मॉडल कॉन्फ़िगर करना

आप कॉन्फ़िग के माध्यम से मॉडल के ऑप्शन्स को ग्लोबली कॉन्फ़िगर कर सकते हैं।

opencode.jsonc
{
  "$schema": "https://opencode.ai/config.json",
  "provider": {
    "openai": {
      "models": {
        "gpt-5": {
          "options": {
            "reasoningEffort": "high",
            "textVerbosity": "low",
            "reasoningSummary": "auto",
            "include": ["reasoning.encrypted_content"],
          },
        },
      },
    },
    "anthropic": {
      "models": {
        "claude-sonnet-4-5-20250929": {
          "options": {
            "thinking": {
              "type": "enabled",
              "budgetTokens": 16000,
            },
          },
        },
      },
    },
  },
}

यहां हम दो बिल्ट-इन मॉडल्स के लिए ग्लोबल सेटिंग्स कॉन्फ़िगर कर रहे हैं: openai प्रोवाइडर के माध्यम से एक्सेस किया गया gpt-5, और anthropic प्रोवाइडर के माध्यम से एक्सेस किया गया claude-sonnet-4-20250514। बिल्ट-इन प्रोवाइडर और मॉडल नाम Models.dev (opens in a new tab) पर मिल सकते हैं।

आप इन ऑप्शन्स को किसी भी एजेंट के लिए भी कॉन्फ़िगर कर सकते हैं जिसका आप उपयोग कर रहे हैं। एजेंट कॉन्फ़िग यहां किसी भी ग्लोबल ऑप्शन्स को ओवरराइड करता है। और जानें

आप कस्टम वेरिएंट्स भी परिभाषित कर सकते हैं जो बिल्ट-इन को एक्सटेंड करते हैं। वेरिएंट्स आपको डुप्लिकेट एंट्रीज़ बनाए बिना एक ही मॉडल के लिए अलग-अलग सेटिंग्स कॉन्फ़िगर करने देते हैं:

opencode.jsonc
{
  "$schema": "https://opencode.ai/config.json",
  "provider": {
    "opencode": {
      "models": {
        "gpt-5": {
          "variants": {
            "high": {
              "reasoningEffort": "high",
              "textVerbosity": "low",
              "reasoningSummary": "auto",
            },
            "low": {
              "reasoningEffort": "low",
              "textVerbosity": "low",
              "reasoningSummary": "auto",
            },
          },
        },
      },
    },
  },
}

वेरिएंट्स

कई मॉडल अलग-अलग कॉन्फ़िगरेशन के साथ मल्टीपल वेरिएंट्स सपोर्ट करते हैं। OpenCode लोकप्रिय प्रोवाइडर्स के लिए बिल्ट-इन डिफ़ॉल्ट वेरिएंट्स के साथ आता है।

बिल्ट-इन वेरिएंट्स

OpenCode कई प्रोवाइडर्स के लिए डिफ़ॉल्ट वेरिएंट्स के साथ आता है:

Anthropic:

  • high - हाई थिंकिंग बजट (डिफ़ॉल्ट)
  • max - मैक्सिमम थिंकिंग बजट

OpenAI:

मॉडल के अनुसार भिन्न होता है लेकिन लगभग:

  • none - कोई रीज़निंग नहीं
  • minimal - न्यूनतम रीज़निंग एफर्ट
  • low - कम रीज़निंग एफर्ट
  • medium - मध्यम रीज़निंग एफर्ट
  • high - उच्च रीज़निंग एफर्ट
  • xhigh - अतिरिक्त उच्च रीज़निंग एफर्ट

Google:

  • low - कम एफर्ट/टोकन बजट
  • high - अधिक एफर्ट/टोकन बजट

टिप: यह सूची व्यापक नहीं है। कई अन्य प्रोवाइडर्स के पास भी बिल्ट-इन डिफ़ॉल्ट्स हैं।

कस्टम वेरिएंट्स

आप मौजूदा वेरिएंट्स को ओवरराइड कर सकते हैं या अपने खुद के जोड़ सकते हैं:

opencode.jsonc
{
  "$schema": "https://opencode.ai/config.json",
  "provider": {
    "openai": {
      "models": {
        "gpt-5": {
          "variants": {
            "thinking": {
              "reasoningEffort": "high",
              "textVerbosity": "low",
            },
            "fast": {
              "disabled": true,
            },
          },
        },
      },
    },
  },
}

वेरिएंट्स साइकल करना

वेरिएंट्स के बीच जल्दी स्विच करने के लिए कीबाइंड variant_cycle का उपयोग करें। और जानें


मॉडल लोडिंग

जब OpenCode शुरू होता है, यह निम्न प्राथमिकता क्रम में मॉडल्स की जांच करता है:

  1. --model या -m कमांड लाइन फ्लैग। फॉर्मेट कॉन्फ़िग फाइल जैसा ही है: provider_id/model_id

  2. OpenCode कॉन्फ़िग में मॉडल लिस्ट।

    opencode.json
    {
      "$schema": "https://opencode.ai/config.json",
      "model": "anthropic/claude-sonnet-4-20250514"
    }

    यहां फॉर्मेट provider/model है।

  3. अंतिम उपयोग किया गया मॉडल।

  4. आंतरिक प्राथमिकता का उपयोग करके पहला मॉडल।