Zhipu AI и Университет Цинхуа выпустили технический отчет по GLM-5 — на текущий момент это самая производительная open-weight модель в мире. Она уже заняла первое место среди открытых решений на Artificial Analysis и возглавила рейтинг LMArena в категориях «Coding» и «Text».
Проект полностью открыт: веса, код и документация доступны на GitHub и Hugging Face. Но главное здесь не просто цифры бенчмарков, а смена парадигмы, которую продвигают разработчики.
От вайбкодинга к агентному инжинирингу
Команда Zhipu позиционирует GLM-5 как инструмент для перехода от привычного нам «вайбкодинга» к агентному инжинирингу.
Если вайбкодинг — это когда мы описываем задачу в чате Cursor или Windsurf, получаем код и вручную его правим, то агентный инжиниринг работает иначе. Модель получает высокоуровневую цель и автономно выполняет цепочку действий: анализирует репозиторий, пишет патч, запускает тесты, фиксит ошибки и повторяет цикл до победного конца. Человек нужен только для постановки задачи и финальной приемки.
Что под капотом: Архитектура и инновации
GLM-5 — это Mixture of Experts (MoE) модель с общим числом параметров 744 млрд, из которых активны 40 млрд. Это в два раза больше, чем у предшественника GLM-4.5.
Основные фишки, которые делают её быстрой и эффективной:
- DSA (DeepSeek Sparse Attention): Механизм разреженного внимания, который выбирает только важные токены в контексте. Это снижает вычислительные затраты в 1.5–2 раза на длинных последовательностях (до 128K токенов) без потери качества.
- MLA-256 (Multi-Latent Attention) с Muon Split: Оптимизация сжатия ключей и значений в компактный вектор. Разработчики внедрили разделение матриц по головам (Muon Split), что позволило догнать и перегнать стандартный GQA по качеству при меньшем потреблении памяти.
Бенчмарки и реальные возможности
В сравнении с DeepSeek-V3.2, Claude Opus 4.5 и GPT-5.2, новая GLM-5 показывает впечатляющие результаты:
- BrowseComp: 75.9% (против 65.8% у GPT-5.2) — модель лучше всех справляется с поиском информации в сети.
- HLE с инструментами: 1 место с результатом 50.4%.
- SWE-bench Multilingual: 73.3%.
Интересный факт: до официального релиза Zhipu провели «пасхалку», выставив модель в слепых тестах. 25% пользователей решили, что это Claude Sonnet 5, а 20% приняли её за DeepSeek.
Контекст для вайбкодеров
Для тех, кто привык собирать продукты на AI-агентах, GLM-5 — это маст-хэв. Она значительно дешевле проприетарных моделей. Через API провайдеров (DeepInfra, SiliconFlow) стоимость составляет порядка $0.80 за 1 млн входных токенов, что в 5–8 раз дешевле, чем Claude Opus.
Вердикт: GLM-5 — сильнейшая открытая модель для кодинга на сегодня. Она отлично подходит для автономных агентов, которые должны «думать» долго и выполнять много шагов. Однако эксперты предупреждают: несмотря на мощь, запускать её в продакшн на полном автопилоте без надзора пока рано — риск галлюцинаций в сложных логических цепочках сохраняется.