Новости
Последние обновления инструментов, релизы и важные события из мира вайб-кодинга
Загрузка...
Последние обновления инструментов, релизы и важные события из мира вайб-кодинга
Команда Qwen выпустила плотную модель на 27 млрд параметров, которая обходит гигантские MoE-системы в задачах агентного программирования и репозиторного анализа.
10+ лет в маркетинге, 300+ клиентских проектов: сайты, реклама, боты. Создатель GoBanana (228K+ пользователей, 11.6 млн ₽ выручки) и VibeCoderz. Делаю AI-продукты сам через Claude Code, Cursor, Windsurf и консультирую тех, кто хочет так же.
Об авторе →Qwen3.6-27B: Плотная модель на 27 млрд параметров обходит гигантов в кодинге
Команда Qwen выпустила Qwen3.6-27B — компактную, но мощную модель, которая превзошла предыдущий флагман на 397B параметров в задачах программирования.
Qwen Code v0.14: Мощный апдейт с Qwen3.6-Plus и режимом автономного агента
Qwen Code превращается в полноценного цифрового разработчика: удаленное управление через Telegram, Cron-задачи и поддержка Qwen3.6-Plus с контекстом 1M токенов.
Qwen3-Coder захватил 20% рынка: как Alibaba меняет правила игры для вайбкодеров
Alibaba Cloud агрессивно доминирует в сегменте AI-кодинга: модель Qwen3-Coder заняла 20.7% мирового рынка всего за месяц, потеснив Anthropic и Google.
Claude Code: новый CLI-агент от Anthropic
Anthropic выпустила Claude Code — терминальный AI-агент для разработчиков. Инструмент работает прямо в командной строке и умеет писать, редактировать и запускать код.
Alibaba представила Qwen3-Coder-Next: 80B параметров и мощь MoE
Новая open-source модель от Alibaba активирует всего 3B параметров из 80B, обходя Claude 4.5 в тестах безопасности и предлагая поддержку 370 языков программирования.
Alibaba представила Qwen3-Coder-Next: мощь 80B параметров в компактном формате
Новая open-weight модель от Alibaba показывает невероятные результаты в кодинге, используя всего 3 млрд активных параметров. Идеально для локального запуска и AI-агентов.
Команда Alibaba Qwen официально представила Qwen3.6-27B — первую «плотную» (dense) модель в семействе 3.6 с открытыми весами. Несмотря на умеренные по современным меркам 27 миллиардов параметров, новинка демонстрирует впечатляющие результаты, обходя в бенчмарках на агентный кодинг даже монструозную Qwen3.5-397B-A17B (MoE).
Главный фокус в этой версии сделан на Agentic Coding. Модель специально оптимизировали для работы в составе AI-агентов: она лучше справляется с фронтенд-воркфлоу, рассуждениями на уровне целого репозитория и многошаговым планированием. Для вайбкодеров это означает, что инструменты вроде Cursor или Windsurf при подключении этой модели станут точнее понимать контекст проекта, а не только текущего файла.
Разработчики внедрили несколько архитектурных решений, которые выделяют Qwen3.6-27B на фоне конкурентов:
Модель уже доступна на Hugging Face в двух вариантах: стандартном BF16 и квантованном FP8 (с размером блока 128). Примечательно, что FP8-версия практически не теряет в качестве, но значительно снижает порог входа по «железу».
Qwen3.6-27B «из коробки» поддерживается популярными движками: SGLang (>=0.5.10), vLLM (>=0.19.0), KTransformers и стандартной библиотекой Hugging Face Transformers. Лицензия Apache 2.0 позволяет свободно использовать модель в коммерческих проектах.
Для сообщества вайбкодеров этот релиз — отличный повод обновить локальные сетапы. Если вам нужна мощная модель, которая понимает структуру проекта и не требует кластера из H100 для запуска, Qwen3.6-27B сейчас выглядит как один из лучших кандидатов на роль основного «движка» для ваших AI-агентов.