हिन्दी
दस्तावेज़
प्रदाता

प्रदाता

OpenCode AI SDK और Models.dev के माध्यम से 75+ LLM प्रदाताओं का समर्थन करता है, जो कई भाषा मॉडल सेवाओं और स्थानीय मॉडलों के साथ एकीकरण की अनुमति देता है।

सेटअप प्रक्रिया

  1. /connect कमांड का उपयोग करके API कुंजियाँ जोड़ें
  2. अपने OpenCode कॉन्फ़िग में प्रदाता कॉन्फ़िगर करें
  3. क्रेडेंशियल्स ~/.local/share/opencode/auth.json में संग्रहीत होते हैं

निर्देशिका

समर्थित प्रदाताओं का त्वरित संदर्भ:

प्रदातासेटअप विधिमुख्य विशेषताएं
AnthropicOAuth या API कुंजीClaude Pro/Max समर्थन
OpenAIChatGPT Plus/Pro या API कुंजीGPT-4o, o1 मॉडल
GitHub Copilotडिवाइस कोड प्रमाणीकरणPro+ सब्सक्रिप्शन मॉडल
Google Vertex AIसर्विस अकाउंट या gcloud प्रमाणीकरण40+ मॉडल
Amazon BedrockAWS क्रेडेंशियल्स/प्रोफाइलVPC एंडपॉइंट समर्थन
Azure OpenAIAPI कुंजी + रिसोर्स नामकस्टम डिप्लॉयमेंट
GroqAPI कुंजीहाई-स्पीड इन्फरेंस
DeepSeekAPI कुंजीरीज़निंग मॉडल
OpenRouterAPI कुंजीमल्टी-प्रोवाइडर रूटिंग
GitLab DuoAPI कुंजीGitLab एकीकरण
Ollamaलोकल सेटअपमॉडल लोकली चलाएं
LM Studioलोकल सेटअपलोकल मॉडल प्रबंधन

अतिरिक्त प्रदाताओं में शामिल हैं: 302.AI, Baseten, Cerebras, Cloudflare AI Gateway, Cortecs, Deep Infra, Firmware, Fireworks AI, Hugging Face, Helicone, IO.NET, Moonshot AI, MiniMax, Nebius Token Factory, OVHcloud AI Endpoints, SAP AI Core, Scaleway, Together AI, Venice AI, Vercel AI Gateway, xAI, Z.AI, ZenMux।

बेस URL कॉन्फ़िगरेशन

आप baseURL विकल्प सेट करके किसी भी प्रदाता के लिए बेस URL को कस्टमाइज़ कर सकते हैं। यह प्रॉक्सी सेवाओं या कस्टम एंडपॉइंट्स का उपयोग करते समय उपयोगी है।

{
  "$schema": "https://opencode.ai/config.json",
  "provider": {
    "anthropic": {
      "options": {
        "baseURL": "https://api.anthropic.com/v1"
      }
    }
  }
}

OpenCode Zen

OpenCode Zen OpenCode टीम द्वारा प्रदान किए गए मॉडलों की एक सूची है जो अच्छी तरह से काम करने के लिए परीक्षित और सत्यापित हैं।

  1. /connect चलाएं, opencode चुनें
  2. प्रमाणित करने के लिए opencode.ai/auth पर जाएं
  3. अपनी API कुंजी कॉपी और पेस्ट करें
  4. अनुशंसित मॉडल देखने के लिए /models का उपयोग करें

लोकप्रिय प्रदाता

Anthropic

  1. /connect चलाएं और Anthropic चुनें
  2. ब्राउज़र प्रमाणीकरण के लिए Claude Pro/Max चुनें
  3. /models कमांड के माध्यम से मॉडल एक्सेस करें

OpenAI

  1. platform.openai.com/api-keys पर API कुंजी बनाएं
  2. /connect चलाएं और OpenAI खोजें
  3. API कुंजी दर्ज करें
  4. /models के साथ मॉडल चुनें

Groq

Groq विभिन्न मॉडलों के लिए हाई-स्पीड इन्फरेंस प्रदान करता है।

  1. console.groq.com पर API कुंजी बनाएं
  2. /connect चलाएं और Groq खोजें
  3. API कुंजी दर्ज करें
  4. /models के साथ मॉडल चुनें
{
  "$schema": "https://opencode.ai/config.json",
  "provider": {
    "groq": {
      "options": {
        "apiKey": "{env:GROQ_API_KEY}"
      }
    }
  }
}

DeepSeek

DeepSeek शक्तिशाली रीज़निंग मॉडल प्रदान करता है।

  1. platform.deepseek.com पर API कुंजी बनाएं
  2. /connect चलाएं और DeepSeek खोजें
  3. API कुंजी दर्ज करें
  4. /models के साथ मॉडल चुनें
{
  "$schema": "https://opencode.ai/config.json",
  "provider": {
    "deepseek": {
      "options": {
        "apiKey": "{env:DEEPSEEK_API_KEY}"
      }
    }
  }
}

GitHub Copilot

GitHub Copilot एकीकरण के लिए Pro+ सब्सक्रिप्शन आवश्यक है।

  1. /connect चलाएं और GitHub Copilot चुनें
  2. डिवाइस कोड प्रमाणीकरण पूरा करें
  3. /models कमांड के माध्यम से मॉडल एक्सेस करें
{
  "$schema": "https://opencode.ai/config.json",
  "provider": {
    "github-copilot": {
      "models": {
        "gpt-4o": {
          "name": "GPT-4o (Copilot)"
        }
      }
    }
  }
}

GitLab Duo

GitLab Duo GitLab के साथ एकीकृत AI सुविधाएं प्रदान करता है।

{
  "$schema": "https://opencode.ai/config.json",
  "provider": {
    "gitlab-duo": {
      "options": {
        "apiKey": "{env:GITLAB_API_KEY}"
      }
    }
  }
}

OpenRouter

{
  "provider": {
    "openrouter": {
      "models": {
        "moonshotai/kimi-k2": {
          "options": {
            "provider": {
              "order": ["baseten"],
              "allow_fallbacks": false
            }
          }
        }
      }
    }
  }
}

Ollama (लोकल)

{
  "provider": {
    "ollama": {
      "npm": "@ai-sdk/openai-compatible",
      "name": "Ollama (local)",
      "options": {
        "baseURL": "http://localhost:11434/v1"
      },
      "models": {
        "llama2": {
          "name": "Llama 2"
        }
      }
    }
  }
}

LM Studio (लोकल)

{
  "provider": {
    "lmstudio": {
      "npm": "@ai-sdk/openai-compatible",
      "name": "LM Studio (local)",
      "options": {
        "baseURL": "http://127.0.0.1:1234/v1"
      },
      "models": {
        "google/gemma-3n-e4b": {
          "name": "Gemma 3n-e4b (local)"
        }
      }
    }
  }
}

Amazon Bedrock

{
  "provider": {
    "amazon-bedrock": {
      "options": {
        "region": "us-east-1",
        "profile": "my-aws-profile"
      }
    }
  }
}

प्रमाणीकरण प्राथमिकता

Amazon Bedrock का उपयोग करते समय, प्रमाणीकरण इस प्राथमिकता क्रम का पालन करता है:

  1. Bearer Token - यदि AWS_BEARER_TOKEN_BEDROCK सेट है (/connect या एनवायरनमेंट वेरिएबल के माध्यम से), यह अन्य सभी विधियों पर प्राथमिकता लेता है
  2. AWS क्रेडेंशियल चेन - मानक AWS क्रेडेंशियल रिज़ॉल्यूशन:
    • AWS प्रोफाइल कॉन्फ़िगरेशन
    • एक्सेस कुंजियाँ (AWS_ACCESS_KEY_ID, AWS_SECRET_ACCESS_KEY)
    • IAM रोल्स
    • EKS IRSA (सर्विस अकाउंट्स के लिए IAM रोल्स)

Azure OpenAI

  1. Azure पोर्टल में Azure OpenAI संसाधन बनाएं
  2. Azure AI Foundry में मॉडल डिप्लॉय करें
  3. /connect चलाएं और Azure खोजें
  4. AZURE_RESOURCE_NAME एनवायरनमेंट वेरिएबल सेट करें

कस्टम प्रदाता सेटअप

OpenAI-संगत प्रदाताओं के लिए:

{
  "provider": {
    "myprovider": {
      "npm": "@ai-sdk/openai-compatible",
      "name": "My AI Provider",
      "options": {
        "baseURL": "https://api.myprovider.com/v1",
        "apiKey": "{env:MY_API_KEY}"
      },
      "models": {
        "my-model": {
          "name": "My Model",
          "limit": {
            "context": 200000,
            "output": 65536
          }
        }
      }
    }
  }
}

एनवायरनमेंट वेरिएबल सिंटैक्स

अपने कॉन्फ़िगरेशन में एनवायरनमेंट वेरिएबल्स को संदर्भित करने के लिए {env:VARIABLE_NAME} सिंटैक्स का उपयोग करें:

{
  "provider": {
    "myprovider": {
      "options": {
        "apiKey": "{env:MY_PROVIDER_API_KEY}"
      }
    }
  }
}

यह आपको संवेदनशील क्रेडेंशियल्स को अपनी कॉन्फ़िग फाइलों से बाहर रखने की अनुमति देता है।

मॉडल सीमाएं

limit फ़ील्ड्स OpenCode को आपके मॉडलों की कॉन्टेक्स्ट विंडो और आउटपुट सीमाओं को समझने में मदद करते हैं:

{
  "provider": {
    "myprovider": {
      "models": {
        "my-model": {
          "name": "My Model",
          "limit": {
            "context": 200000,
            "output": 65536
          }
        }
      }
    }
  }
}
  • context: मॉडल द्वारा प्रोसेस किए जा सकने वाले अधिकतम इनपुट टोकन
  • output: मॉडल द्वारा जनरेट किए जा सकने वाले अधिकतम आउटपुट टोकन

कस्टम हेडर्स

आप API अनुरोधों में कस्टम हेडर्स जोड़ सकते हैं:

{
  "provider": {
    "myprovider": {
      "options": {
        "headers": {
          "Authorization": "Bearer custom-token",
          "X-Custom-Header": "value"
        }
      }
    }
  }
}

समस्या निवारण

  1. प्रमाणीकरण जांचें: क्रेडेंशियल्स सत्यापित करने के लिए opencode auth list चलाएं
  2. कस्टम प्रदाता समस्याएं:
    • सत्यापित करें कि प्रदाता ID /connect और कॉन्फ़िग के बीच मेल खाती है
    • सही npm पैकेज की पुष्टि करें
    • options.baseURL में API एंडपॉइंट जांचें