Skip to Content
BlogQwen Code Wochenupdate: DeepSeek V4 mit Millionen-Kontext, einheitliche Hintergrundaufgaben und rückspulbare Gespräche
Zurück zum Blog

Qwen Code Wochenupdate: DeepSeek V4 mit Millionen-Kontext, einheitliche Hintergrundaufgaben und rückspulbare Gespräche

Qwen Team
2026-05-07

Diese Woche haben wir v0.15.7 als Hauptversion mit neuen Funktionen sowie sechs kleinere Folgeversionen veröffentlicht (v0.15.1-v0.15.6).

DeepSeek V4 war diese Woche eines der meistdiskutierten Themen in der AI-Community. Während auf HN antirez’ lokale Inference-Engine die Runde machte und Provider ihre Unterstützung ausbauten, haben wir Qwen Code ebenfalls angepasst: 1M Kontextfenster, 384K Ausgabelimit, reasoning effort “max” und Korrekturen für thinking blocks.

Agent-Multitasking wird bei Entwicklerwerkzeugen immer wichtiger, unter anderem bei OpenAI Codex und Google AlphaEvolve. In Qwen Code ist daraus jetzt ein echtes Task-Panel geworden: Hintergrundaufgaben lassen sich zentral einsehen, bei Bedarf abbrechen und nach einer Unterbrechung wiederaufnehmen. GitHub hat außerdem gerade Leitlinien für agentbasierte PR-Reviews veröffentlicht; passend dazu haben wir qwen review um weitere Subcommands und Agents erweitert, damit PR-Reviews direkt im Terminal durchlaufen können.

Auch im Alltag gibt es weniger Reibung: Läuft ein Gespräch in die falsche Richtung, bringt dich zweimal Esc zu einem früheren Turn zurück. Wenn ein langer Task fertig ist oder eine Freigabe braucht, melden sich Terminal und VS Code. /stats kann nach hinterlegten Preisen Kosten schätzen, und Modelle lassen sich jetzt mit einem Befehl wechseln.

✨ Neue Funktionen

DeepSeek V4 tief integriert

Nach dem Release von DeepSeek V4 hat Qwen Code direkt die nötige Unterstützung ergänzt. Das Kontextfenster liegt bei 1M, das Ausgabelimit bei 384K. Damit kann ein Agent große Codebasen in einem Durchlauf lesen und lange Ausgaben erzeugen. Zusätzlich wird reasoning effort “max” unterstützt, damit DeepSeek bei komplexen Aufgaben mehr Rechenaufwand investieren kann. Mehrere Probleme rund um thinking blocks wurden ebenfalls behoben, sodass DeepSeeks Denkprozess in verschiedenen Szenarien korrekt angezeigt wird.

Was du damit machen kannst:

  • Große Dateien und komplette Repositories mit DeepSeek V4 bearbeiten, ohne schnell an Kontextgrenzen zu stoßen
  • Reasoning effort auf “max” setzen, wenn Architekturentscheidungen oder lange Schlussfolgerungsketten mehr Tiefe brauchen
  • DeepSeek-Reasoning nach Session-Wiederherstellung, Gesprächs-Rewind und Kontextkomprimierung behalten
  • Thinking blocks auch im anthropic-kompatiblen Modus und bei Drittanbieter-Deployments wie sglang oder vllm korrekt nutzen

Siehe PR #3693 , #3800 , #3788 , #3747 , #3729 

Demo zur DeepSeek V4 Integration

Hintergrundaufgaben zentral anzeigen, abbrechen und fortsetzen

Bisher wurden Shell-Befehle nur in den Hintergrund verschoben. Es war schwer zu sehen, ob sie noch laufen, wo die Ausgabe landet oder wie man sie stoppt. Jetzt erscheinen background agents und Hintergrund-Shells in einer gemeinsamen Task-Ansicht mit Status, Ausgabe und Details. Wird eine Hintergrundaufgabe unterbrochen, pausiert sie automatisch und kann fortgesetzt oder abgebrochen werden.

Was du damit machen kannst:

  • Lange Tasks ausführen, ohne das Gespräch zu blockieren: npm run dev, Tests, File-Watcher und ähnliche Befehle können im Hintergrund laufen
  • Task-Status jederzeit prüfen und steuern: Über /tasks oder das Task-Panel siehst du Status und Ausgabe von background shell und background agent und kannst Tasks abbrechen, die du nicht mehr brauchst
  • Nach Unterbrechungen sicher weitermachen: Ein unterbrochener Task geht nicht verloren, sondern kann fortgesetzt oder verworfen werden

Siehe PR #3642 , #3739 

Gespräche auf einen früheren Punkt zurücksetzen

Wenn ein Gespräch früher in die falsche Richtung lief, musste man meist weiter korrigieren oder eine neue Session starten. Jetzt kannst du zweimal Esc drücken oder /rewind ausführen, einen früheren User-Turn auswählen und die Gesprächshistorie bis dorthin zurücksetzen.

Was du damit machen kannst:

  • Eine falsche Richtung zurücknehmen: Zur entscheidenden Frage zurückkehren und mit einer anderen Anweisung neu starten
  • Den Kontext behalten und erneut probieren: Keine neue Session und kein Kopieren alter Hintergrundinfos nötig
  • Exploratives Entwickeln sauberer machen: Bei mehreren Implementierungswegen zum Verzweigungspunkt zurückkehren und anders weitermachen

Siehe PR #3441 

/review Code-Review-Flow verbessert

/review wurde umfassend überarbeitet. Statt 5 Agents laufen jetzt 9 Agents. Die Review-Schritte, die bisher im Prompt verteilt waren, liegen nun in 6 plattformübergreifenden CLI-Subcommands, und die Ausgabe ist strukturiertes JSON. Ein /review <PR-Link oder Nummer> reicht, damit die AI Code holt, Projektregeln lädt, Lint ausführt, parallel reviewt, Duplikate entfernt, CI-Status prüft und Inline-Kommentare veröffentlicht.

Was du damit machen kannst:

  • PRs mit einem Befehl prüfen: /review https://github.com/xxx/pull/123 startet den gesamten Ablauf
  • Aus 9 Rollen gleichzeitig prüfen: Neben Korrektheit und Sicherheit kommen die Perspektiven “Angreifer”, “3-Uhr-Bereitschaft” und “Maintainer” dazu
  • Keine Freigabe bei roter CI: CI-Status und Self-PRs werden erkannt; bei Bedarf wird ein Approve zu einem Comment herabgestuft
  • Unsichere Hinweise bleiben aus PR-Kommentaren heraus: Low-Confidence-Funde werden nur im Terminal angezeigt
  • Doppelte Kommentare vermeiden: Bereits vorhandene Qwen-Kommentare werden erkannt

Siehe PR #3754 

Demo des verbesserten Code-Review-Flows

Benachrichtigung, wenn ein Task fertig ist oder Bestätigung braucht

Bisher hing die Erinnerung im Terminal vor allem am leicht zu überhörenden terminal bell. Auch in der VS-Code-Erweiterung waren Statushinweise nicht auffällig genug. Jetzt können iTerm2, Kitty und Ghostty Desktop-Benachrichtigungen anzeigen, wenn ein Task fertig ist; VS Code nutzt Tab-Punkte, Benachrichtigungen und Ton.

Was du damit machen kannst:

  • Lange Tasks laufen lassen, ohne aufs Terminal zu starren
  • Berechtigungsfragen schneller bemerken, wenn die AI Tool-Freigaben oder Antworten braucht
  • In VS Code keine Chat-Nachrichten verpassen, auch wenn du gerade in anderen Dateien arbeitest

Siehe PR #3562 , #3661 

Demo für Task-Benachrichtigungen

/stats zeigt geschätzte Modellkosten

Der Befehl /stats kann jetzt Kosten schätzen. Trage in settings.json unter modelPricing die Eingabe- und Ausgabepreise pro Million Tokens ein, und /stats berechnet daraus die ungefähren Kosten anhand des Token-Verbrauchs. Ohne Preis-Konfiguration werden wie bisher nur Token-Zahlen angezeigt.

Was du damit machen kannst:

  • Preise für häufig genutzte Modelle einmal konfigurieren und danach automatisch Kosten sehen
  • Nach einem Modellwechsel Kosten vergleichen und das passende Modell für den Job wählen
  • Lang laufende Automatisierungen im Blick behalten und Budget-Ausreißer vermeiden

Siehe PR #3780 

Modelle schneller mit /model wechseln

Bisher musste man für einen Modellwechsel den /model-Selector öffnen und in der Liste suchen. Jetzt reicht /model Modellname.

Was du damit machen kannst:

  • Den Selector überspringen: zum Beispiel mit /model qwen3.6-plus direkt wechseln
  • Modelle schnell vergleichen: einmal mit /model A fragen, dann zu /model B wechseln und erneut fragen
  • Upstream-Modelle direkt nutzen, sobald die base URL eingerichtet ist

Siehe PR #3783 

Demo zum schnellen Modellwechsel mit /model

📊 Verbesserungen

  • OpenRouter nutzt jetzt Browser-Autorisierung: Statt API-Key und Modellliste von Hand zu pflegen, startest du /auth, autorisierst im Browser, und Qwen Code speichert den Key sowie den Modellkatalog automatisch; /manage-models unterstützt Suche, Filter und Aktivierung (#3576 )
  • Die Todo-Liste bleibt angepinnt: Die aktuelle Aufgabenliste bleibt über dem Eingabefeld sichtbar und aktualisiert sich bei Statusänderungen, sodass du nicht im Verlauf nach dem Fortschritt suchen musst (#3507 , #3647 )
  • Dateien werden schneller und seltener doppelt gelesen: FileReadCache vermeidet erneutes Lesen gleicher Inhalte und stabilisiert Mehrfachrunden und Tool-Aufrufe (#3717 )
  • Websuche läuft über MCP: Der eingebaute web_search provider wurde auf MCP umgestellt; Dienste wie Bailian, Tavily oder GLM WebSearch Prime lassen sich nach Bedarf konfigurieren (#3502 )
  • Erste Modellanfrage schneller: Beim Start wird die Standard-API vorverbunden, sodass TCP- und TLS-Aufbau bei der ersten Anfrage teilweise wegfallen (#3318 )
  • Parallele Tool-Aufrufe sind leichter zu erfassen: Mehrere parallele Tools erhalten kurze semantische Labels statt nur einer Tool-Anzahl, damit schneller klar ist, was die AI gerade ausführt (#3538 )
  • Tool-Aufrufe sind auf dem Hotpath schneller: Weniger synchrone I/O sorgt dafür, dass lange Tasks und Tool-Ketten stabiler laufen (#3581 )
  • Session-Titel lassen sich neu generieren: /rename --auto kann unpassende automatische Titel neu erzeugen (#3540 )
  • Foreground-Subagents erscheinen im Task-Panel: Sie werden jetzt zusammen mit Hintergrundaufgaben in /tasks verwaltet (#3768 )
  • Skills laden schneller und können pfadbasiert aktivieren: Paralleles Laden beschleunigt den Start; Verzeichnisbedingungen können Skills automatisch aktivieren (#3604 )
  • MCP-Serverstatus in der Statusleiste: Du siehst sofort, ob ein MCP server online ist; Verbindungsprobleme lassen sich dadurch schneller eingrenzen (#3741 )
  • Shell-Laufzeit klarer angezeigt: Shell-Status zeigt Laufzeit und Timeout-Informationen (#3512 )
  • Lange Befehle können in den Hintergrund verschoben werden: Die AI kann bei langen Befehlen einen Hintergrundlauf vorschlagen (#3809 )
  • VS Code unterstützt /skills und /export: Skills-Auswahl und Session-Export sind im Companion leichter zugänglich (#2548 , #2592 )
  • MCP-Konfiguration per CLI-Flag: SDK- und Skript-Szenarien können MCP server config direkt übergeben, ohne Konfigurationsdateien manuell zu bearbeiten (#1279 )
  • MCP-Discovery geht intelligenter mit Duplikaten um: Wiederholte Discovery-Anfragen werden zusammengeführt und reduzieren Netzwerkaufwand beim Start (#3818 )
  • Slash Commands zeigen Parameterhinweise: Nach Completion erscheinen graue Hinweise für erwartete Parameter (#3593 )
  • Traditionelles Chinesisch als UI-Sprache: Wechsel über /language ui zh-TW (#3569 )
  • Kopieren im VS Code Webview ist bequemer: Der Chat-Webview unterstützt natives Rechtsklick-Kopieren (#3477 )
  • MCP-Tool-Aufrufe in ACP vollständiger: ACP Agent unterstützt SSE/HTTP MCP server und parallele Tool-Aufrufe (#3574 , #3463 )

🔧 Wichtige Fixes

PRVersionFixAuswirkung
#3645 v0.15.6Modellpriorität auf argv > settings > auth env vars korrigiertPer CLI gesetzte Modelle überschreiben Konfiguration wie erwartet
#3820 v0.15.7Lesen und Schreiben von Pfaden mit Sonderzeichen repariertDateien mit Leerzeichen oder Sonderzeichen funktionieren wieder
#3525 v0.15.1Geteilten Zustand im Streaming-Tool-Parser behobenStreaming-Ausgaben und Tool-Aufrufe geraten nicht mehr durcheinander
#3533 v0.15.1Render-Schleife bei Slash Completion behobenSlash-Eingaben frieren nicht mehr ein
#3753 v0.15.7Proxy-Einstellungen wurden nicht angewendetProxy-Konfiguration funktioniert in Unternehmens- und Intranet-Umgebungen
#3656 v0.15.4Wiederherstellung zusammengeklebter session JSONL records verbessertBeschädigte Sitzungsprotokolle lassen sich zuverlässiger retten, ohne direkt Kontext zu verlieren
#3547 v0.15.3Unnötige Rerender der History-Komponente behobenVerlauf lässt sich flüssiger ansehen
#3600 v0.15.4Parsing mehrzeiliger Shell-Befehle repariertMehrzeilige Befehle werden seltener falsch getrennt
#3531 v0.15.2Reihenfolge erneut gesendeter historischer Prompts korrigiertErneut gesendete Prompts stehen wieder an der neuesten Position, sodass der weitere Kontext passt
#3544 v0.15.2Kitty-Tastaturprotokoll nach SIGINT bereinigtNach Abbruch bleiben keine störenden Zeichen im Terminal
#3617 v0.15.4Multimedia-Tool-Ergebnisformat im strikten OpenAI-kompatiblen Modus repariertProvider mit OpenAI-Kompatibilität laufen stabiler
#3691 v0.15.4Fehlende Beschreibung bei reasoning fragments mit subject behobenReasoning-Inhalte werden vollständiger angezeigt
#3559 v0.15.2Leere pages-Parameter in ReadFile korrekt behandeltDatei-Lesevorgänge schlagen nicht mehr wegen leerer Seitenparameter fehl
#3677 v0.15.7MiniMax thinking tags korrekt geparstDenkprozess wird bei MiniMax-Modellen korrekt angezeigt
#3615 v0.15.6LSP-Doku, Pfadsicherheitsgrenzen und Tool-Call-Rate korrigiertCode-Intelligence-Tools funktionieren zuverlässiger
#3618 v0.15.6Slash Command Enter in VS Code füllt nur noch das EingabefeldParameter können ergänzt werden, ohne versehentlich abzusenden
#3752 v0.15.6Persistenz hinzugefügter Verzeichnisse repariertArbeitsverzeichnisse bleiben für spätere Nutzung gespeichert

🎈 Weitere Änderungen

  • Auto-memory dream tasks können manuell abgebrochen werden; Hintergrundarbeit an Memories hängt dadurch nicht mehr fest (#3836 )
  • Auto-memory rollback blockiert die Hauptanfrage nicht mehr, sodass Gespräche während der Hintergrundverarbeitung flüssiger bleiben (#3814 )
  • Doppelte API-Fehlermeldungen im non-interactive mode entfernt; Fehlermeldungen sind dadurch sauberer (#3749 )
  • VS Code: Slash command completion nach dem Absenden einer Nachricht repariert (#3609 )
  • qwen auth Menü enthält jetzt eine API-Key-Option (#3624 )
  • Fehler im Dispatch-Pfad der Slash-Command-Queue behoben (#3523 )
  • i18n-Key-Unterschiede zwischen chinesischen und englischen Sprachdateien korrigiert (#3534 )
  • OAuth2-Fehlerbehandlung verbessert, um uncaught error events zu vermeiden (#3481 )
  • Lokales /review respektiert jetzt /language Ausgabe-Einstellungen (#3611 )
  • OpenAI converter ist zustandsloser geworden und reduziert Restzustände (#3550 )
  • Telemetry-Export nutzt sichere JSON-Serialisierung (#3630 )
  • Java SDK kann beim Start des CLI-Prozesses eigene Umgebungsvariablen übergeben (#3543 )
  • TypeScript SDK v0.1.7 mit CLI v0.15.3 veröffentlicht (#3688 )
  • .gitignore enthält jetzt .codex, um lokale Konfiguration nicht versehentlich zu committen (#3665 )
  • Tool Token Usage Tracking entfernt, um störende interne Nutzungsmetriken zu reduzieren (#3727 )
  • Qwen-Code-Entwicklungsdoku ergänzt skills, agents und AGENTS.md Workflows (#3575 )
  • Release workflow erstellt stabile merge-back PRs (#3764 )
  • SDK release auto-merge nutzt squash merge für klarere Historie (#3690 )
  • PR-Template-Hinweise zur Validierung aktualisiert (#3522 )
  • Telemetry-Dokumentation ergänzt Alibaba Cloud Console Einstieg (#3498 )

👋 Neue Contributors

Upgrade: Führe npm i @qwen-code/qwen-code@latest -g aus, um auf die neueste Version zu aktualisieren.

Bei Fragen oder Vorschlägen nutze gerne GitHub Issues .

Last updated on