Skip to Content
用户指南配置模型提供商

模型提供商

Qwen Code 允许你通过 settings.json 中的 modelProviders 设置配置多个模型提供商。这使你能够使用 /model 命令在不同的 AI 模型和提供商之间切换。

概述

使用 modelProviders 可按认证类型(auth type)声明精选的模型列表,供 /model 选择器切换。键名必须是有效的认证类型(openaianthropicgemini 等)。每个条目都需要一个 id必须包含 envKey,可选字段包括 namedescriptionbaseUrlgenerationConfig。凭据绝不会保存在设置文件中;运行时会从 process.env[envKey] 读取。Qwen OAuth 模型保持硬编码,无法被覆盖。

Note

只有 /model 命令会暴露非默认的认证类型。Anthropic、Gemini 等必须通过 modelProviders 定义。/auth 命令仅列出 Qwen OAuth、阿里云 Coding Plan 和 API Key 作为内置认证选项。

Warning

同一 authType 下的重复模型 ID: 在单个 authType 下定义多个具有相同 id 的模型(例如在 openai 中有两个 "id": "gpt-4o" 的条目)目前不受支持。如果存在重复项,首次出现的条目将生效,后续重复项将被跳过并显示警告。请注意,id 字段既用作配置标识符,也用作发送给 API 的实际模型名称,因此使用唯一 ID(如 gpt-4o-creativegpt-4o-balanced)并不是可行的变通方案。这是一个已知限制,我们计划在后续版本中解决。

按认证类型的配置示例

以下是针对不同认证类型的完整配置示例,展示了可用参数及其组合。

支持的认证类型

modelProviders 对象的键必须是有效的 authType 值。目前支持的认证类型包括:

认证类型描述
openai兼容 OpenAI 的 API(OpenAI、Azure OpenAI、vLLM/Ollama 等本地推理服务器)
anthropicAnthropic Claude API
geminiGoogle Gemini API
qwen-oauthQwen OAuth(硬编码,无法在 modelProviders 中覆盖)

[!warning] 如果使用了无效的认证类型键(例如拼写错误如 "openai-custom"),该配置将被静默跳过,且模型不会出现在 /model 选择器中。请务必使用上述列出的受支持认证类型值。

API 请求使用的 SDK

Qwen Code 使用以下官方 SDK 向各提供商发送请求:

认证类型SDK 包
openaiopenai - OpenAI 官方 Node.js SDK
anthropic@anthropic-ai/sdk - Anthropic 官方 SDK
gemini@google/genai - Google GenAI 官方 SDK
qwen-oauthopenai 配合自定义提供商(兼容 DashScope)

这意味着你配置的 baseUrl 必须与对应 SDK 预期的 API 格式兼容。例如,使用 openai 认证类型时,端点必须接受 OpenAI API 格式的请求。

兼容 OpenAI 的提供商(openai

此认证类型不仅支持 OpenAI 官方 API,还支持任何兼容 OpenAI 的端点,包括 OpenRouter 等聚合模型提供商。

{ "env": { "OPENAI_API_KEY": "sk-your-actual-openai-key-here", "OPENROUTER_API_KEY": "sk-or-your-actual-openrouter-key-here" }, "modelProviders": { "openai": [ { "id": "gpt-4o", "name": "GPT-4o", "envKey": "OPENAI_API_KEY", "baseUrl": "https://api.openai.com/v1", "generationConfig": { "timeout": 60000, "maxRetries": 3, "enableCacheControl": true, "contextWindowSize": 128000, "modalities": { "image": true }, "customHeaders": { "X-Client-Request-ID": "req-123" }, "extra_body": { "enable_thinking": true, "service_tier": "priority" }, "samplingParams": { "temperature": 0.2, "top_p": 0.8, "max_tokens": 4096, "presence_penalty": 0.1, "frequency_penalty": 0.1 } } }, { "id": "gpt-4o-mini", "name": "GPT-4o Mini", "envKey": "OPENAI_API_KEY", "baseUrl": "https://api.openai.com/v1", "generationConfig": { "timeout": 30000, "samplingParams": { "temperature": 0.5, "max_tokens": 2048 } } }, { "id": "openai/gpt-4o", "name": "GPT-4o (via OpenRouter)", "envKey": "OPENROUTER_API_KEY", "baseUrl": "https://openrouter.ai/api/v1", "generationConfig": { "timeout": 120000, "maxRetries": 3, "samplingParams": { "temperature": 0.7 } } } ] } }

Anthropic(anthropic

{ "env": { "ANTHROPIC_API_KEY": "sk-ant-your-actual-anthropic-key-here" }, "modelProviders": { "anthropic": [ { "id": "claude-3-5-sonnet", "name": "Claude 3.5 Sonnet", "envKey": "ANTHROPIC_API_KEY", "baseUrl": "https://api.anthropic.com/v1", "generationConfig": { "timeout": 120000, "maxRetries": 3, "contextWindowSize": 200000, "samplingParams": { "temperature": 0.7, "max_tokens": 8192, "top_p": 0.9 } } }, { "id": "claude-3-opus", "name": "Claude 3 Opus", "envKey": "ANTHROPIC_API_KEY", "baseUrl": "https://api.anthropic.com/v1", "generationConfig": { "timeout": 180000, "samplingParams": { "temperature": 0.3, "max_tokens": 4096 } } } ] } }

Google Gemini(gemini

{ "env": { "GEMINI_API_KEY": "AIza-your-actual-gemini-key-here" }, "modelProviders": { "gemini": [ { "id": "gemini-2.0-flash", "name": "Gemini 2.0 Flash", "envKey": "GEMINI_API_KEY", "baseUrl": "https://generativelanguage.googleapis.com", "capabilities": { "vision": true }, "generationConfig": { "timeout": 60000, "maxRetries": 2, "contextWindowSize": 1000000, "schemaCompliance": "auto", "samplingParams": { "temperature": 0.4, "top_p": 0.95, "max_tokens": 8192, "top_k": 40 } } } ] } }

本地自托管模型(通过兼容 OpenAI 的 API)

大多数本地推理服务器(vLLM、Ollama、LM Studio 等)都提供兼容 OpenAI 的 API 端点。使用 openai 认证类型并配置本地 baseUrl 即可:

{ "env": { "OLLAMA_API_KEY": "ollama", "VLLM_API_KEY": "not-needed", "LMSTUDIO_API_KEY": "lm-studio" }, "modelProviders": { "openai": [ { "id": "qwen2.5-7b", "name": "Qwen2.5 7B (Ollama)", "envKey": "OLLAMA_API_KEY", "baseUrl": "http://localhost:11434/v1", "generationConfig": { "timeout": 300000, "maxRetries": 1, "contextWindowSize": 32768, "samplingParams": { "temperature": 0.7, "top_p": 0.9, "max_tokens": 4096 } } }, { "id": "llama-3.1-8b", "name": "Llama 3.1 8B (vLLM)", "envKey": "VLLM_API_KEY", "baseUrl": "http://localhost:8000/v1", "generationConfig": { "timeout": 120000, "maxRetries": 2, "contextWindowSize": 128000, "samplingParams": { "temperature": 0.6, "max_tokens": 8192 } } }, { "id": "local-model", "name": "Local Model (LM Studio)", "envKey": "LMSTUDIO_API_KEY", "baseUrl": "http://localhost:1234/v1", "generationConfig": { "timeout": 60000, "samplingParams": { "temperature": 0.5 } } } ] } }

对于不需要身份验证的本地服务器,你可以为 API Key 使用任意占位符值:

# For Ollama (no auth required) export OLLAMA_API_KEY="ollama" # For vLLM (if no auth is configured) export VLLM_API_KEY="not-needed"
Note

extra_body 参数仅支持兼容 OpenAI 的提供商openaiqwen-oauth)。对于 Anthropic 和 Gemini 提供商,该参数将被忽略。

Note

关于 envKeyenvKey 字段指定的是环境变量的名称,而非实际的 API Key 值。要使配置生效,你需要确保已设置对应的环境变量并填入真实的 API Key。有两种方式可以实现:

  • 选项 1:使用 .env 文件(出于安全考虑推荐):
    # ~/.qwen/.env(或项目根目录) OPENAI_API_KEY=sk-your-actual-key-here
    请务必将 .env 添加到 .gitignore 中,以防意外提交敏感信息。
  • 选项 2:在 settings.json 中使用 env 字段(如上述示例所示):
    { "env": { "OPENAI_API_KEY": "sk-your-actual-key-here" } }

每个提供商示例都包含 env 字段,用于演示如何配置 API Key。

阿里云 Coding Plan

阿里云 Coding Plan 提供了一组预配置的、针对编码任务优化的 Qwen 模型。该功能适用于拥有阿里云 Coding Plan API 访问权限的用户,并提供简化的设置体验与自动模型配置更新。

概述

当你使用 /auth 命令通过阿里云 Coding Plan API Key 进行身份验证时,Qwen Code 会自动配置以下模型:

模型 ID名称描述
qwen3.5-plusqwen3.5-plus启用思考功能的高级模型
qwen3-coder-plusqwen3-coder-plus针对编码任务优化
qwen3-max-2026-01-23qwen3-max-2026-01-23启用思考功能的最新 max 模型

设置步骤

  1. 获取阿里云 Coding Plan API Key:
  2. 在 Qwen Code 中运行 /auth 命令
  3. 选择 Alibaba Cloud Coding Plan
  4. 选择你的区域
  5. 按提示输入你的 API Key

模型将自动配置并添加到你的 /model 选择器中。

区域

阿里云 Coding Plan 支持两个区域:

区域端点描述
中国https://coding.dashscope.aliyuncs.com/v1中国大陆端点
全球/国际https://coding-intl.dashscope.aliyuncs.com/v1国际端点

区域在身份验证期间选择,并存储在 settings.jsoncodingPlan.region 字段中。如需切换区域,请重新运行 /auth 命令并选择其他区域。

API Key 存储

当你通过 /auth 命令配置 Coding Plan 时,API Key 将使用保留的环境变量名 BAILIAN_CODING_PLAN_API_KEY 进行存储。默认情况下,它会存储在你的 settings.json 文件的 env 字段中。

Warning

安全建议:为了更高的安全性,建议将 API Key 从 settings.json 移至独立的 .env 文件,并作为环境变量加载。例如:

# ~/.qwen/.env BAILIAN_CODING_PLAN_API_KEY=your-api-key-here

如果你使用的是项目级设置,请确保将此文件添加到 .gitignore 中。

自动更新

Coding Plan 模型配置具有版本控制。当 Qwen Code 检测到较新的模型模板版本时,会提示你进行更新。接受更新将:

  • 将现有的 Coding Plan 模型配置替换为最新版本
  • 保留你手动添加的任何自定义模型配置
  • 自动切换到更新后配置中的第一个模型

更新过程确保你无需手动干预即可始终访问最新的模型配置和功能。

手动配置(高级)

如果你倾向于手动配置 Coding Plan 模型,可以像配置任何兼容 OpenAI 的提供商一样将其添加到 settings.json 中:

{ "modelProviders": { "openai": [ { "id": "qwen3-coder-plus", "name": "qwen3-coder-plus", "description": "Qwen3-Coder via Alibaba Cloud Coding Plan", "envKey": "YOUR_CUSTOM_ENV_KEY", "baseUrl": "https://coding.dashscope.aliyuncs.com/v1" } ] } }
Note

使用手动配置时:

  • 你可以为 envKey 使用任意环境变量名
  • 无需配置 codingPlan.*
  • 自动更新不适用于手动配置的 Coding Plan 模型
Warning

如果你同时使用自动 Coding Plan 配置,且手动配置使用了与自动配置相同的 envKeybaseUrl,自动更新可能会覆盖你的手动配置。为避免此情况,请尽可能确保手动配置使用不同的 envKey

解析层级与原子性

有效的认证/模型/凭据值按字段通过以下优先级选择(首次出现者生效)。你可以将 --auth-type--model 结合使用以直接指向某个提供商条目;这些 CLI 标志优先于其他层级运行。

层级(最高 → 最低)authTypemodelapiKeybaseUrlapiKeyEnvKeyproxy
编程式覆盖/auth/auth 输入/auth 输入/auth 输入
模型提供商选择modelProvider.idenv[modelProvider.envKey]modelProvider.baseUrlmodelProvider.envKey
CLI 参数--auth-type--model--openaiApiKey(或提供商特定等效参数)--openaiBaseUrl(或提供商特定等效参数)
环境变量提供商特定映射(如 OPENAI_MODEL提供商特定映射(如 OPENAI_API_KEY提供商特定映射(如 OPENAI_BASE_URL
设置(settings.jsonsecurity.auth.selectedTypemodel.namesecurity.auth.apiKeysecurity.auth.baseUrl
默认/计算值回退至 AuthType.QWEN_OAUTH内置默认值(OpenAI ⇒ qwen3-coder-plus若已配置则为 Config.getProxy()

*当存在时,CLI 认证标志会覆盖设置。否则,由 security.auth.selectedType 或隐式默认值决定认证类型。Qwen OAuth 和 OpenAI 是唯一无需额外配置即可显示的认证类型。

Warning

弃用 security.auth.apiKeysecurity.auth.baseUrlsettings.json 中直接通过 security.auth.apiKeysecurity.auth.baseUrl 配置 API 凭据已被弃用。这些设置用于历史版本中通过 UI 输入的凭据,但凭据输入流程已在 0.10.1 版本中移除。这些字段将在未来版本中完全移除。强烈建议迁移到 modelProviders 进行所有模型和凭据配置。在 modelProviders 中使用 envKey 引用环境变量以进行安全的凭据管理,而不是在设置文件中硬编码凭据。

生成配置层级:不可穿透的提供商层

配置解析遵循严格的层级模型,其中有一条关键规则:modelProvider 层是不可穿透的

工作原理

  1. 当选中 modelProvider 模型时(例如通过 /model 命令选择已配置提供商的模型):

    • 提供商的整个 generationConfig原子性地应用
    • 提供商层完全不可穿透——较低层级(CLI、环境变量、设置)根本不参与 generationConfig 的解析
    • modelProviders[].generationConfig 中定义的所有字段均使用提供商的值
    • 提供商未定义的所有字段将设置为 undefined(不会从设置继承)
    • 这确保提供商配置作为一个完整、自包含的“密封包”运行
  2. 当未选中 modelProvider 模型时(例如使用 --model 配合原始模型 ID,或直接使用 CLI/环境变量/设置):

    • 解析将回退到较低层级
    • 字段按 CLI → 环境变量 → 设置 → 默认值的顺序填充
    • 这将创建一个 运行时模型(Runtime Model)(见下一节)

generationConfig 的逐字段优先级

优先级来源行为
1编程式覆盖运行时 /model/auth 更改
2modelProviders[authType][].generationConfig不可穿透层 - 完全替换所有 generationConfig 字段;较低层级不参与
3settings.model.generationConfig仅用于 运行时模型(未选择提供商模型时)
4内容生成器默认值提供商特定默认值(如 OpenAI 与 Gemini)- 仅适用于运行时模型

原子字段处理

以下字段被视为原子对象——提供商值将完全替换整个对象,不进行合并:

  • samplingParams - Temperature、top_p、max_tokens 等
  • customHeaders - 自定义 HTTP 请求头
  • extra_body - 额外的请求体参数

示例

// User settings (~/.qwen/settings.json) { "model": { "generationConfig": { "timeout": 30000, "samplingParams": { "temperature": 0.5, "max_tokens": 1000 } } } } // modelProviders configuration { "modelProviders": { "openai": [{ "id": "gpt-4o", "envKey": "OPENAI_API_KEY", "generationConfig": { "timeout": 60000, "samplingParams": { "temperature": 0.2 } } }] } }

当从 modelProviders 中选择 gpt-4o 时:

  • timeout = 60000(来自提供商,覆盖设置)
  • samplingParams.temperature = 0.2(来自提供商,完全替换设置对象)
  • samplingParams.max_tokens = undefined(提供商未定义,且提供商层不从设置继承——未提供的字段将显式设置为 undefined)

当通过 --model gpt-4 使用原始模型时(非来自 modelProviders,创建运行时模型):

  • timeout = 30000(来自设置)
  • samplingParams.temperature = 0.5(来自设置)
  • samplingParams.max_tokens = 1000(来自设置)

modelProviders 本身的合并策略为 REPLACE(替换):项目设置中的整个 modelProviders 将覆盖用户设置中的对应部分,而不是将两者合并。

提供商模型与运行时模型

Qwen Code 区分两种类型的模型配置:

提供商模型

  • modelProviders 配置中定义
  • 拥有完整、原子的配置包
  • 选中时,其配置作为不可穿透层应用
  • /model 命令列表中以完整元数据(名称、描述、能力)显示
  • 推荐用于多模型工作流和团队一致性

运行时模型

  • 通过 CLI(--model)、环境变量或设置使用原始模型 ID 时动态创建
  • 未在 modelProviders 中定义
  • 配置通过解析层级(CLI → 环境变量 → 设置 → 默认值)“投影”构建
  • 检测到完整配置时自动捕获为 RuntimeModelSnapshot
  • 允许复用,无需重新输入凭据

RuntimeModelSnapshot 生命周期

当你不使用 modelProviders 配置模型时,Qwen Code 会自动创建 RuntimeModelSnapshot 以保留你的配置:

# This creates a RuntimeModelSnapshot with ID: $runtime|openai|my-custom-model qwen --auth-type openai --model my-custom-model --openaiApiKey $KEY --openaiBaseUrl https://api.example.com/v1

该快照:

  • 捕获模型 ID、API Key、Base URL 和生成配置
  • 跨会话持久化(运行时存储在内存中)
  • /model 命令列表中作为运行时选项显示
  • 可通过 /model $runtime|openai|my-custom-model 切换

关键差异

方面提供商模型运行时模型
配置来源设置中的 modelProvidersCLI、环境变量、设置层级
配置原子性完整、不可穿透的包分层,每个字段独立解析
可复用性始终在 /model 列表中可用捕获为快照,配置完整时显示
团队共享是(通过提交的设置)否(用户本地)
凭据存储仅通过 envKey 引用可能在快照中捕获实际 Key

何时使用

  • 使用提供商模型:当你在团队间共享标准模型、需要一致的配置,或希望防止意外覆盖时
  • 使用运行时模型:当快速测试新模型、使用临时凭据,或处理临时端点时

选择持久化与建议

Important

尽可能在用户级 ~/.qwen/settings.json 中定义 modelProviders,并避免在任何作用域中持久化凭据覆盖。将提供商目录保留在用户设置中可防止项目与用户作用域之间的合并/覆盖冲突,并确保 /auth/model 更新始终写回一致的作用域。

  • /model/auth 会将 model.name(如适用)和 security.auth.selectedType 持久化到已定义 modelProviders 的最近可写作用域;否则回退到用户作用域。这使工作区/用户文件与活动提供商目录保持同步。
  • 如果没有 modelProviders,解析器会混合 CLI/环境变量/设置层级,从而创建运行时模型。这对于单提供商设置没问题,但在频繁切换时会很繁琐。当多模型工作流常见时,请定义提供商目录,以便切换保持原子性、来源可追溯且易于调试。
Last updated on