Authentifizierung
Qwen Code unterstützt zwei Authentifizierungsmethoden. Wählen Sie diejenige aus, die zu Ihrer gewünschten CLI-Ausführung passt:
- Qwen OAuth (empfohlen): Anmeldung mit Ihrem
qwen.ai-Konto im Browser. - API-Schlüssel: Verwendung eines API-Schlüssels zur Verbindung mit jedem unterstützten Anbieter. Flexibler – unterstützt OpenAI, Anthropic, Google GenAI, Alibaba Cloud Bailian und andere kompatible Endpunkte.

👍 Option 1: Qwen OAuth (empfohlen & kostenlos)
Verwenden Sie diese Option, wenn Sie die einfachste Einrichtung wünschen und Qwen-Modelle verwenden.
- Funktionsweise: Beim ersten Start öffnet Qwen Code eine Browser-Anmeldeseite. Nach Abschluss des Vorgangs werden die Anmeldeinformationen lokal zwischengespeichert, sodass Sie sich in der Regel nicht erneut anmelden müssen.
- Voraussetzungen: Ein
qwen.ai-Konto + Internetzugang (zumindest für die erste Anmeldung). - Vorteile: Keine API-Schlüsselverwaltung, automatische Aktualisierung der Anmeldeinformationen.
- Kosten & Kontingent: Kostenlos, mit einem Kontingent von 60 Anfragen/Minute und 1.000 Anfragen/Tag.
Starten Sie die CLI und folgen Sie dem Browser-Ablauf:
qwenIn nicht-interaktiven oder headless-Umgebungen (z.B. CI, SSH, Container) können Sie den OAuth-Browser-Anmeldevorgang in der Regel nicht abschließen.
Verwenden Sie in diesen Fällen bitte die API-Schlüssel-Authentifizierungsmethode.
🚀 Option 2: API-Schlüssel (flexibel)
Verwenden Sie diese Option, wenn Sie mehr Flexibilität bezüglich des verwendeten Anbieters und Modells wünschen. Unterstützt mehrere Protokolle und Anbieter, darunter OpenAI, Anthropic, Google GenAI, Alibaba Cloud Bailian, Azure OpenAI, OpenRouter, ModelScope oder einen selbst gehosteten kompatiblen Endpunkt.
Option 1: Coding Plan (Aliyun Bailian)
Verwenden Sie diese Option, wenn Sie vorhersehbare Kosten mit höheren Nutzungsquoten für das qwen3-coder-plus Modell wünschen.
- Funktionsweise: Abonnieren Sie den Coding Plan mit einem festen monatlichen Preis und konfigurieren Sie anschließend Qwen Code so, dass es den dedizierten Endpunkt und Ihren Abonnement-API-Schlüssel verwendet.
- Voraussetzungen: Beziehen Sie ein aktives Coding Plan-Abonnement von Alibaba Cloud Bailian .
- Vorteile: Höhere Nutzungsquoten, vorhersehbare monatliche Kosten, Zugriff auf das neueste qwen3-coder-plus Modell.
- Kosten und Quota: Siehe Alibaba Cloud Bailian Coding Plan Dokumentation .
Geben Sie qwen im Terminal ein, um Qwen Code zu starten, geben Sie dann den Befehl /auth ein und wählen Sie API-KEY

Nach der Eingabe wählen Sie Coding Plan:

Geben Sie Ihren sk-sp-xxxxxxxxx Schlüssel ein und verwenden Sie anschließend den Befehl /model, um zwischen allen von Bailian Coding Plan unterstützten Modellen zu wechseln:

Option 2: API-Schlüssel von Drittanbietern
Verwenden Sie diese Option, wenn Sie sich mit Drittanbietern wie OpenAI, Anthropic, Google, Azure OpenAI, OpenRouter, ModelScope oder einem selbst gehosteten Endpunkt verbinden möchten.
Das zentrale Konzept ist Modellanbieter (modelProviders): Qwen Code unterstützt mehrere API-Protokolle, nicht nur OpenAI. Sie konfigurieren, welche Anbieter und Modelle verfügbar sind, indem Sie die Datei ~/.qwen/settings.json bearbeiten, und wechseln dann zur Laufzeit mit dem Befehl /model zwischen ihnen.
Unterstützte Protokolle
| Protokoll | modelProviders-Schlüssel | Umgebungsvariablen | Anbieter |
|---|---|---|---|
| OpenAI-kompatibel | openai | OPENAI_API_KEY, OPENAI_BASE_URL, OPENAI_MODEL | OpenAI, Azure OpenAI, OpenRouter, ModelScope, Alibaba Cloud Bailian, beliebige OpenAI-kompatible Endpunkte |
| Anthropic | anthropic | ANTHROPIC_API_KEY, ANTHROPIC_BASE_URL, ANTHROPIC_MODEL | Anthropic Claude |
| Google GenAI | gemini | GEMINI_API_KEY, GEMINI_MODEL | Google Gemini |
| Google Vertex AI | vertex-ai | GOOGLE_API_KEY, GOOGLE_MODEL | Google Vertex AI |
Schritt 1: Konfigurieren Sie modelProviders in ~/.qwen/settings.json
Definieren Sie, welche Modelle für jedes Protokoll verfügbar sind. Jeder Modelleintrag benötigt mindestens eine id und einen envKey (den Namen der Umgebungsvariablen, die Ihren API-Schlüssel enthält).
Es wird empfohlen, modelProviders im benutzerspezifischen ~/.qwen/settings.json zu definieren, um Merge-Konflikte zwischen Projekten und Benutzereinstellungen zu vermeiden.
Bearbeiten Sie ~/.qwen/settings.json (erstellen Sie die Datei, falls sie nicht existiert):
{
"modelProviders": {
"openai": [
{
"id": "gpt-4o",
"name": "GPT-4o",
"envKey": "OPENAI_API_KEY",
"baseUrl": "https://api.openai.com/v1"
}
],
"anthropic": [
{
"id": "claude-sonnet-4-20250514",
"name": "Claude Sonnet 4",
"envKey": "ANTHROPIC_API_KEY"
}
],
"gemini": [
{
"id": "gemini-2.5-pro",
"name": "Gemini 2.5 Pro",
"envKey": "GEMINI_API_KEY"
}
]
}
}Sie können mehrere Protokolle und Modelle in einer einzigen Konfiguration mischen. Die Felder von ModelConfig sind:
| Feld | Erforderlich | Beschreibung |
|---|---|---|
id | Ja | Modell-ID, die an die API gesendet wird (z.B. gpt-4o, claude-sonnet-4-20250514) |
name | Nein | Anzeigename im /model-Auswahlfeld (Standardwert ist id) |
envKey | Ja | Name der Umgebungsvariablen für den API-Schlüssel (z.B. OPENAI_API_KEY) |
baseUrl | Nein | API-Endpunkt-Überschreibung (nützlich für Proxies oder benutzerdefinierte Endpunkte) |
generationConfig | Nein | Feinabstimmung von timeout, maxRetries, samplingParams, etc. |
Zugangsdaten werden niemals in settings.json gespeichert. Zur Laufzeit werden sie aus der in envKey angegebenen Umgebungsvariablen gelesen.
Für das vollständige modelProviders-Schema und erweiterte Optionen wie generationConfig, customHeaders und extra_body siehe Einstellungsreferenz → modelProviders.
Schritt 2: Umgebungsvariablen festlegen
Qwen Code liest API-Schlüssel aus Umgebungsvariablen (angegeben durch envKey in Ihrer Modellkonfiguration). Es gibt mehrere Möglichkeiten, diese bereitzustellen, die unten von höchster zu niedrigster Priorität aufgelistet sind:
1. Shell-Umgebung / export (höchste Priorität)
Direkt in Ihrem Shell-Profil (~/.zshrc, ~/.bashrc, etc.) oder inline vor dem Start festlegen:
# Alibaba Dashscope
export DASHSCOPE_API_KEY="sk-..."
# OpenAI / OpenAI-kompatibel
export OPENAI_API_KEY="sk-..."
# Anthropic
export ANTHROPIC_API_KEY="sk-ant-..."Google GenAI
export GEMINI_API_KEY=“AIza…”
**2. `.env`-Dateien**
Qwen Code lädt automatisch die **erste** `.env`-Datei, die es findet (Variablen werden **nicht** über mehrere Dateien hinweg zusammengeführt). Es werden nur Variablen geladen, die noch nicht in `process.env` vorhanden sind.
Suchreihenfolge (vom aktuellen Verzeichnis aus, aufsteigend bis `/`):
1. `.qwen/.env` (bevorzugt — hält Qwen Code-Variablen von anderen Tools getrennt)
2. `.env`
Wenn nichts gefunden wird, greift es auf Ihr **Home-Verzeichnis** zurück:
3. `~/.qwen/.env`
4. `~/.env`
> [!tip]
>
> `.qwen/.env` wird gegenüber `.env` empfohlen, um Konflikte mit anderen Tools zu vermeiden. Einige Variablen (wie `DEBUG` und `DEBUG_MODE`) sind von projektweiten `.env`-Dateien ausgeschlossen, um das Verhalten von Qwen Code nicht zu beeinträchtigen.
**3. `settings.json` → `env`-Feld (niedrigste Priorität)**
Sie können Umgebungsvariablen auch direkt in `~/.qwen/settings.json` unter dem `env`-Schlüssel definieren. Diese werden als **Fallback mit niedrigster Priorität** geladen — nur angewendet, wenn eine Variable noch nicht durch die Systemumgebung oder `.env`-Dateien gesetzt wurde.
```json
{
"env": {
"DASHSCOPE_API_KEY":"sk-...",
"OPENAI_API_KEY": "sk-...",
"ANTHROPIC_API_KEY": "sk-ant-...",
"GEMINI_API_KEY": "AIza..."
},
"modelProviders": {
...
}
}Dies ist nützlich, wenn Sie alle Konfigurationen (Anbieter + Zugangsdaten) in einer einzigen Datei halten möchten. Beachten Sie jedoch, dass settings.json möglicherweise geteilt oder synchronisiert wird — bevorzugen Sie .env-Dateien für sensible Geheimnisse.
Prioritätszusammenfassung:
| Priorität | Quelle | Überschreibeverhalten |
|---|---|---|
| 1 (höchste) | CLI-Flags (--openai-api-key) | Gewinnt immer |
| 2 | Systemumgebung (export, inline) | Überschreibt .env und settings.env |
| 3 | .env-Datei | Setzt nur, wenn nicht in Systemumgebung |
| 4 (niedrigste) | settings.json → env | Setzt nur, wenn nicht in Systemumgebung oder .env |
Schritt 3: Modelle mit /model wechseln
Nachdem Sie Qwen Code gestartet haben, verwenden Sie den Befehl /model, um zwischen allen konfigurierten Modellen zu wechseln. Die Modelle sind nach Protokoll gruppiert:
/modelDer Auswahlmodus zeigt alle Modelle aus Ihrer modelProviders-Konfiguration an, gruppiert nach ihrem Protokoll (z.B. openai, anthropic, gemini). Ihre Auswahl wird über Sitzungen hinweg beibehalten.
Sie können Modelle auch direkt mit einem Befehlszeilenargument wechseln, was praktisch ist, wenn Sie mit mehreren Terminals arbeiten.
# In einem Terminal
qwen --model "qwen3-coder-plus"
# In einem anderen Terminal
qwen --model "qwen3-coder-next"Sicherheitshinweise
- Committen Sie keine API-Schlüssel in das Versionskontrollsystem.
- Verwenden Sie bevorzugt
.qwen/.envfür projektlokale Geheimnisse (und lassen Sie es außen vor von Git). - Behandeln Sie die Ausgabe Ihres Terminals als sensibel, wenn dort Anmeldeinformationen zur Überprüfung ausgegeben werden.