Команда Qwen выкатила Qwen3-Coder-Next — новую open-weight модель, специально заточенную под работу AI-агентов и локальную разработку. Это не просто очередной «дописыватель кода», а полноценный движок для агентных воркафлоу, который по производительности наступает на пятки гигантам, оставаясь при этом эффективным.
Архитектура: MoE и гибридное внимание
В основе модели лежит архитектура Sparse Mixture-of-Experts (MoE) на базе Qwen3-Next-80B-A3B. Общий объем параметров составляет 80 млрд, но благодаря MoE на каждый токен активируется всего 3 млрд параметров.
Главная фишка — структура слоев: 12 повторений связки Gated DeltaNet → MoE, за которыми следует слой Gated Attention → MoE. Такая гибридная схема позволяет модели эффективно работать с контекстом до 256K токенов, что критично для вайбкодинга, когда в промпт нужно закинуть логи, документацию и несколько файлов проекта целиком.
Бенчмарки: Убийца тяжеловесов?
Результаты на SWE-bench Verified (тест на решение реальных GitHub-issue) впечатляют. Используя фреймворк SWE-agent, Qwen3-Coder-Next набрала 70.6 баллов. Для сравнения:
- DeepSeek-V3.2 (671B параметров) — 70.2 балла;
- GLM-4.7 (358B параметров) — 74.2 балла.
На мультиязычном тесте SWE-Bench Multilingual модель показала 62.8, практически сравнявшись с DeepSeek. В тесте Terminal-Bench 2.0 (работа с CLI) результат составил 36.2, что подтверждает пригодность модели для автономной работы в терминале.
Что это значит для вайбкодеров
Qwen3-Coder-Next создавалась не для автокомплита, а для Agentic Coding. Разработчики обучили её на огромном корпусе исполняемых задач с применением Reinforcement Learning (RL), чтобы модель умела планировать действия и пользоваться инструментами.
Как это использовать:
- Интеграция с агентами: Модель оптимизирована для работы с Claude Code, Cline, Windsurf и собственным Qwen-Code.
- Локальный запуск: Благодаря тому, что активно всего 3B параметров, инференс будет быстрым даже на домашнем железе (при наличии достаточного объема VRAM для весов 80B модели или использовании квантованных версий).
- Длинный контекст: 256K токенов позволяют держать в памяти весь проект, не теряя нить рассуждений при глубоком рефакторинге.
Модель уже доступна с открытыми весами, что делает её отличным кандидатом на роль основного бэкенда для ваших локальных AI-агентов.