Китайская компания Z.ai представила свою флагманскую модель GLM-5, которая совершила серьезный рывок в сегменте open-weights. Разработчики увеличили размер модели более чем в два раза, сфокусировавшись на «агентских» способностях — длительных задачах, требующих сложного планирования и автономности.
Технические характеристики и архитектура
GLM-5 построена на архитектуре Mixture-of-Experts (MoE) и насчитывает внушительные 744 миллиарда параметров, из которых 40 миллиардов активны при обработке каждого токена.
Ключевые фичи для вайбкодеров:
- Контекстное окно: 200 000 токенов на вход и до 128 000 на выход.
- Sparse Attention: Используется технология от DeepSeek, которая позволяет эффективно работать с длинным контекстом, не перегружая вычислительные мощности.
- Context Caching: Существенно удешевляет повторные запросы к длинным кодовым базам.
- Лицензия MIT: Веса доступны на Hugging Face для коммерческого и личного использования.
Производительность: На пятках у проприетарных гигантов
В рейтинге Artificial Analysis Intelligence Index, который оценивает модели по способности выполнять экономически полезную работу, GLM-5 с включенным режимом рассуждения (reasoning) набрала 50 баллов. Для сравнения: у лидера рынка Claude Opus 4.6 — 53 балла, а у GPT-5.2 — 51 балл.
В дисциплине Chatbot Arena Code модель заняла первое место среди всех открытых решений (1449 Elo), сравнявшись с Gemini 3 Pro. Это делает GLM-5 отличным кандидатом для интеграции в AI-редакторы вроде Cursor или Windsurf, если вы предпочитаете запускать модели на своем железе или через API с открытыми весами.
Агентские возможности
Модель показала выдающиеся результаты в тестах на взаимодействие:
- 𝜏²-Bench Telecom: 98% успеха в сценариях техподдержки.
- Vending-Bench 2: Лидирующие позиции в симуляциях автономных действий.
Для обучения использовалось собственное ПО Z.ai под названием slime — это фреймворк для обучения с подкреплением (RL), где генерация данных и сам процесс обучения разделены.
Что это значит для вайбкодеров?
Центр тяжести в разработке LLM окончательно смещается в сторону открытых китайских моделей (Qwen, Kimi, GLM). Для нас это означает больше выбора и снижение зависимости от API OpenAI или Anthropic. GLM-5 — это мощный инструмент для создания автономных агентов, которые могут «переваривать» огромные репозитории и выполнять сложные цепочки действий по цене всего $1.00 за 1 млн входных токенов.