Skip to Content
БлогЕженедельное обновление Qwen Code: DeepSeek V4 с контекстом на миллион токенов, единая панель фоновых задач и откат диалога
Назад в блог

Еженедельное обновление Qwen Code: DeepSeek V4 с контекстом на миллион токенов, единая панель фоновых задач и откат диалога

Qwen Team
2026-05-07

На этой неделе мы выпустили v0.15.7 как основной функциональный релиз, а также шесть промежуточных версий (v0.15.1-v0.15.6).

DeepSeek V4 стал одной из главных тем недели в AI-сообществе. Пока на HN обсуждали локальный inference-движок antirez, а провайдеры быстро добавляли поддержку, мы интегрировали DeepSeek V4 в Qwen Code: окно контекста 1M, лимит вывода 384K, reasoning effort “max” и исправления для thinking blocks.

Многозадачность агентов становится заметным направлением в инструментах для разработчиков, в том числе в OpenAI Codex и Google AlphaEvolve. В Qwen Code это теперь оформлено как полноценная панель задач: фоновые задачи видны в одном месте, их можно отменять, а после прерывания продолжать. GitHub также выпустил рекомендации по agent-based PR review; в том же направлении мы расширили qwen review новыми subcommands и agents, чтобы PR review можно было провести из терминала от начала до конца.

Повседневные сценарии тоже стали спокойнее. Если диалог ушел не туда, два нажатия Esc возвращают к предыдущему ходу. Когда долгая задача завершилась или ждет разрешения, Terminal и VS Code могут показать уведомление. /stats оценивает стоимость после настройки цен, а модель теперь переключается одной командой.

✨ Новые возможности

Глубокая поддержка DeepSeek V4

После выхода DeepSeek V4 Qwen Code быстро добавил полную поддержку. Окно контекста установлено на 1M, лимит вывода — 384K. Это позволяет Agent за один проход читать крупные кодовые базы и генерировать длинные ответы. Также поддерживается reasoning effort “max”, чтобы DeepSeek мог тратить больше вычислений на сложные задачи. Исправлены проблемы совместимости thinking blocks, поэтому ход рассуждений DeepSeek корректно отображается в разных сценариях.

Что можно делать:

  • Работать с большими файлами и целыми репозиториями через DeepSeek V4 с меньшим риском упереться в лимит контекста
  • Включать reasoning effort “max” для архитектурных задач и длинных цепочек рассуждений
  • Сохранять reasoning DeepSeek после восстановления сессии, отката диалога и сжатия контекста
  • Корректно использовать thinking blocks в anthropic-совместимом режиме и в сторонних развертываниях вроде sglang/vllm

См. PR #3693 , #3800 , #3788 , #3747 , #3729 

Демо поддержки DeepSeek V4

Единый просмотр, отмена и возобновление фоновых задач

Раньше фоновые shell-команды просто уходили в фон: было трудно понять, выполняются ли они, где вывод и как их остановить. Теперь background agents и background shell попадают в общую панель задач, где видны статус, вывод и детали. Если задача прервана, она автоматически ставится на паузу и может быть возобновлена или отменена.

Что можно делать:

  • Запускать долгие задачи без блокировки диалога: npm run dev, тесты, file watchers и похожие команды могут идти в фоне
  • В любой момент смотреть и контролировать состояние через /tasks или панель задач, включая пути вывода и отмену задач, которые больше не нужны
  • Безопасно восстанавливаться после прерывания: задача не теряется, ее можно продолжить или оставить

См. PR #3642 , #3739 

Откат диалога к предыдущему месту

Если раньше диалог уходил не туда, обычно приходилось долго корректировать или начинать новую сессию. Теперь можно дважды нажать Esc или выполнить /rewind, выбрать предыдущий пользовательский ход и откатить историю диалога к этому месту.

Что можно делать:

  • Отменить неверное направление и вернуться к ключевому вопросу
  • Попробовать заново без новой сессии и копирования контекста
  • Исследовать несколько вариантов реализации, возвращаясь к точке ветвления

См. PR #3441 

Обновленный flow code review в /review

/review получил полноценное обновление. Вместо 5 agents теперь используется 9 agents. Шаги review, которые раньше были распределены внутри prompt, перенесены в 6 кроссплатформенных CLI subcommands, а вывод стал структурированным JSON. Достаточно ввести /review <ссылка или номер PR>, и AI сам получит код, загрузит правила проекта, запустит lint, выполнит параллельный review, уберет дубликаты, проверит CI и опубликует inline comments.

Что можно делать:

  • Запустить review PR одной командой: /review https://github.com/xxx/pull/123
  • Проверять с 9 ролями сразу: помимо корректности и безопасности добавлены перспективы “атакующего”, “дежурного в 3 часа ночи” и “мейнтейнера”
  • Не approve-ить PR с красной CI: статус CI и self-PR определяются автоматически, approve при необходимости превращается в comment
  • Не отправлять сомнительные замечания в PR: low-confidence findings остаются в терминале
  • Не дублировать комментарии: существующие комментарии Qwen распознаются

См. PR #3754 

Демо обновленного code review

Уведомления о завершении задач и запросах подтверждения

Раньше напоминания в терминале в основном опирались на едва заметный terminal bell. В расширении VS Code тоже не хватало заметных индикаторов. Теперь iTerm2, Kitty и Ghostty могут показывать системные уведомления о завершении задачи; VS Code также использует точку на вкладке, уведомления и звук.

Что можно делать:

  • Не смотреть постоянно на терминал во время долгих задач
  • Быстрее замечать, когда AI ждет разрешения на tool call или ответа
  • Не пропускать сообщения в VS Code, даже работая в другой вкладке

См. PR #3562 , #3661 

Демо уведомлений о задачах

/stats показывает оценку стоимости модели

Команда /stats теперь умеет оценивать стоимость. Укажите в settings.json поле modelPricing с ценой входа и выхода за миллион токенов, и /stats автоматически рассчитает примерную стоимость по расходу токенов. Без настройки цен команда, как и раньше, покажет только количество токенов.

Что можно делать:

  • Один раз настроить цены часто используемых моделей и дальше видеть расчет в /stats
  • Сравнивать расходы после переключения моделей
  • Контролировать стоимость длинных автоматизаций

См. PR #3780 

Быстрое переключение модели через /model

Раньше для смены модели нужно было открыть selector /model и искать нужный вариант. Теперь можно ввести /model имя-модели напрямую.

Что можно делать:

  • Не открывать selector: например, /model qwen3.6-plus
  • Быстро сравнивать модели: спросить с /model A, затем переключиться на /model B
  • Использовать upstream-модели сразу после настройки base URL

См. PR #3783 

Демо быстрого переключения модели через /model

📊 Улучшения

  • OpenRouter теперь авторизуется через браузер: вместо ручной настройки API Key и списка моделей запустите /auth, пройдите авторизацию в браузере, и Qwen Code сам сохранит ключ и загрузит каталог моделей; /manage-models поддерживает поиск, фильтры и включение моделей (#3576 )
  • Todo list закрепляется: последняя задача видна над полем ввода и обновляется при смене статуса, поэтому не нужно прокручивать историю, чтобы проверить прогресс (#3507 , #3647 )
  • Чтение файлов быстрее и без повторов: FileReadCache не перечитывает одинаковое содержимое, делая многошаговые диалоги и tool-heavy flows стабильнее (#3717 )
  • Web search переведен на MCP: встроенный web_search provider теперь работает через MCP, включая Bailian, Tavily и GLM WebSearch Prime (#3502 )
  • Первый запрос к модели быстрее благодаря предварительному соединению с API endpoint (#3318 )
  • Параллельные tool calls легче читать: вместо одной только механической цифры с количеством tools появляются короткие смысловые метки, по которым проще понять, что делает AI (#3538 )
  • Горячий путь tool calls ускорен: в runtime стало меньше синхронного I/O, поэтому долгие задачи и цепочки tools работают стабильнее (#3581 )
  • Название сессии можно сгенерировать заново через /rename --auto (#3540 )
  • Foreground subagents теперь в панели задач (#3768 )
  • Skills загружаются быстрее и могут активироваться по пути (#3604 )
  • Состояние MCP-серверов видно в status bar: сразу понятно, онлайн ли MCP server, и проще разбирать проблемы с подключением (#3741 )
  • Время выполнения shell-команд показано понятнее (#3512 )
  • Долгие команды можно предложить отправить в фон (#3809 )
  • VS Code поддерживает /skills и /export (#2548 , #2592 )
  • MCP config можно передать через CLI flags: SDK и скрипты могут передавать MCP server config напрямую, без ручного редактирования файлов конфигурации (#1279 )
  • Повторные MCP discovery requests объединяются: дублирующиеся запросы на поиск MCP server сливаются, снижая сетевые затраты при старте (#3818 )
  • Slash commands показывают подсказки параметров (#3593 )
  • Добавлен традиционный китайский UI через /language ui zh-TW (#3569 )
  • Копирование в VS Code Webview стало удобнее (#3477 )
  • MCP tool calls в ACP mode стали полнее: SSE/HTTP MCP server и параллельные вызовы (#3574 , #3463 )

🔧 Важные исправления

PRВерсияИсправлениеЧто меняется
#3645 v0.15.6Приоритет выбора модели исправлен на argv > settings > auth env varsМодель из CLI корректно переопределяет конфиг
#3820 v0.15.7Чтение/запись путей со спецсимволамиПути с пробелами и спецсимволами больше не падают
#3525 v0.15.1Состояние streaming tool call parserПотоковый вывод и tool calls не смешиваются
#3533 v0.15.1Render loop в slash completionВвод slash commands не подвисает
#3753 v0.15.7Proxy settings не применялисьКорпоративные и intranet-среды работают надежнее
#3656 v0.15.4Восстановление склеенных session JSONL recordsПоврежденные записи сессии проще восстановить без потери контекста
#3547 v0.15.3Лишние rerenders историиПросмотр истории плавнее
#3600 v0.15.4Parsing многострочных shell-командКоманды реже режутся неправильно
#3531 v0.15.2Порядок повторно отправленных исторических promptsПовторно отправленные prompts попадают в последнюю позицию, и дальнейший контекст выстраивается корректно
#3544 v0.15.2Остатки Kitty keyboard protocol после SIGINTПосле прерывания нет лишних символов
#3617 v0.15.4Формат multimedia tool result в strict OpenAI-compatible modeOpenAI-compatible providers стабильнее
#3691 v0.15.4Описание reasoning fragments с subjectReasoning показывается полнее
#3559 v0.15.2Пустой pages в ReadFileЧтение файлов не падает из-за пустого параметра
#3677 v0.15.7Parsing MiniMax thinking tagsThinking MiniMax отображается корректно
#3615 v0.15.6LSP docs, path safety limits и tool call rateCode intelligence tools работают надежнее
#3618 v0.15.6Enter у slash command в VS Code только заполняет inputМожно дописать параметры без случайной отправки
#3752 v0.15.6Persist добавленных директорийРабочие директории сохраняются

🎈 Прочие изменения

  • Auto-memory dream tasks можно отменять вручную, поэтому фоновую организацию памяти больше не приходится ждать без возможности остановить (#3836 )
  • Auto-memory rollback больше не блокирует основной запрос, и диалог остается отзывчивым, пока память обрабатывается в фоне (#3814 )
  • Убрана двойная печать API errors в non-interactive mode, поэтому вывод ошибок стал чище (#3749 )
  • VS Code: исправлена slash command completion после отправки сообщения (#3609 )
  • В qwen auth добавлена опция API Key (#3624 )
  • Исправлен dispatch path очереди slash commands (#3523 )
  • Исправлены несовпадающие i18n keys между китайским и английским файлами (#3534 )
  • Улучшена обработка OAuth2 errors (#3481 )
  • Локальный /review теперь уважает /language output settings (#3611 )
  • OpenAI converter стал stateless (#3550 )
  • Telemetry export использует безопасную JSON serialization (#3630 )
  • Java SDK может передавать custom env vars при запуске CLI (#3543 )
  • TypeScript SDK v0.1.7 опубликован с CLI v0.15.3 (#3688 )
  • .gitignore теперь включает .codex (#3665 )
  • Удален tracking использования Tool Token, чтобы снизить шум во внутренних метриках (#3727 )
  • Документация разработки Qwen Code дополнена skills, agents и AGENTS.md workflows (#3575 )
  • Release workflow добавил stable merge-back PR (#3764 )
  • SDK release auto-merge перешел на squash merge (#3690 )
  • Обновлены инструкции проверки в PR template (#3522 )
  • Документация Telemetry дополнила вход в Alibaba Cloud console (#3498 )

👋 Новые участники

Обновление: выполните npm i @qwen-code/qwen-code@latest -g, чтобы перейти на последнюю версию.

Если есть вопросы или предложения, пишите в GitHub Issues .

Last updated on