Модели
Настройка LLM-провайдера и модели.
OpenCode использует AI SDK (opens in a new tab) и Models.dev (opens in a new tab) для поддержки более 75 LLM-провайдеров и поддерживает запуск локальных моделей.
Провайдеры
Большинство популярных провайдеров предзагружены по умолчанию. Если вы добавили учётные данные провайдера через команду /connect, они будут доступны при запуске OpenCode.
Узнайте больше о провайдерах.
Выбор модели
После настройки провайдера вы можете выбрать нужную модель, введя:
/modelsРекомендуемые модели
Существует множество моделей, и каждую неделю выходят новые.
Совет: Рассмотрите использование одной из рекомендуемых нами моделей.
Однако лишь немногие из них хороши как в генерации кода, так и в вызове инструментов.
Вот несколько моделей, которые хорошо работают с OpenCode, в произвольном порядке. (Это не исчерпывающий список и не обязательно актуальный):
- GPT 5.2
- GPT 5.1 Codex
- Claude Opus 4.5
- Claude Sonnet 4.5
- Minimax M2.1
- Gemini 3 Pro
Установка по умолчанию
Чтобы установить одну из них как модель по умолчанию, вы можете задать ключ model в конфигурации OpenCode.
{
"$schema": "https://opencode.ai/config.json",
"model": "lmstudio/google/gemma-3n-e4b"
}Здесь полный ID — это provider_id/model_id. Например, если вы используете OpenCode Zen, вы бы использовали opencode/gpt-5.1-codex для GPT 5.1 Codex.
Если вы настроили пользовательский провайдер, provider_id — это ключ из части provider вашей конфигурации, а model_id — ключ из provider.models.
Настройка моделей
Вы можете глобально настроить параметры модели через конфигурацию.
{
"$schema": "https://opencode.ai/config.json",
"provider": {
"openai": {
"models": {
"gpt-5": {
"options": {
"reasoningEffort": "high",
"textVerbosity": "low",
"reasoningSummary": "auto",
"include": ["reasoning.encrypted_content"],
},
},
},
},
"anthropic": {
"models": {
"claude-sonnet-4-5-20250929": {
"options": {
"thinking": {
"type": "enabled",
"budgetTokens": 16000,
},
},
},
},
},
},
}Здесь мы настраиваем глобальные параметры для двух встроенных моделей: gpt-5 при доступе через провайдер openai и claude-sonnet-4-20250514 при доступе через провайдер anthropic. Встроенные имена провайдеров и моделей можно найти на Models.dev (opens in a new tab).
Вы также можете настроить эти параметры для любых используемых агентов. Конфигурация агента переопределяет любые глобальные параметры здесь. Узнать больше.
Вы также можете определить пользовательские варианты, расширяющие встроенные. Варианты позволяют настраивать разные параметры для одной модели без создания дублирующих записей:
{
"$schema": "https://opencode.ai/config.json",
"provider": {
"opencode": {
"models": {
"gpt-5": {
"variants": {
"high": {
"reasoningEffort": "high",
"textVerbosity": "low",
"reasoningSummary": "auto",
},
"low": {
"reasoningEffort": "low",
"textVerbosity": "low",
"reasoningSummary": "auto",
},
},
},
},
},
},
}Варианты
Многие модели поддерживают несколько вариантов с разными конфигурациями. OpenCode поставляется со встроенными вариантами по умолчанию для популярных провайдеров.
Встроенные варианты
OpenCode поставляется с вариантами по умолчанию для многих провайдеров:
Anthropic:
high- Высокий бюджет размышлений (по умолчанию)max- Максимальный бюджет размышлений
OpenAI:
Варьируется в зависимости от модели, но примерно:
none- Без рассужденийminimal- Минимальные усилия рассужденийlow- Низкие усилия рассужденийmedium- Средние усилия рассужденийhigh- Высокие усилия рассужденийxhigh- Сверхвысокие усилия рассуждений
Google:
low- Меньше усилий/бюджет токеновhigh- Больше усилий/бюджет токенов
Совет: Этот список не является исчерпывающим. Многие другие провайдеры также имеют встроенные значения по умолчанию.
Пользовательские варианты
Вы можете переопределить существующие варианты или добавить свои:
{
"$schema": "https://opencode.ai/config.json",
"provider": {
"openai": {
"models": {
"gpt-5": {
"variants": {
"thinking": {
"reasoningEffort": "high",
"textVerbosity": "low",
},
"fast": {
"disabled": true,
},
},
},
},
},
},
}Переключение вариантов
Используйте сочетание клавиш variant_cycle для быстрого переключения между вариантами. Узнать больше.
Загрузка моделей
При запуске OpenCode проверяет модели в следующем порядке приоритета:
-
Флаг командной строки
--modelили-m. Формат такой же, как в файле конфигурации:provider_id/model_id. -
Список моделей в конфигурации OpenCode.
opencode.json{ "$schema": "https://opencode.ai/config.json", "model": "anthropic/claude-sonnet-4-20250514" }Формат здесь —
provider/model. -
Последняя использованная модель.
-
Первая модель по внутреннему приоритету.