🎯 О чём этот конспект: Разбор новой открытой модели GLM-5 от лаборатории Zhipu AI. Модель позиционируется как прямой конкурент Claude 3.5 Sonnet и GPT-4o, но с открытыми весами и феноменальной устойчивостью к галлюцинациям при выполнении длительных (более 1 часа) инженерных задач.
👤 Кому будет полезно: Вайбкодерам и разработчикам, которые ищут бюджетную, но мощную альтернативу закрытым моделям для рефакторинга, миграции старых кодовых баз и автоматизации через AI-агентов.
✨ Что получите: Пошаговое понимание, как использовать GLM-5 для сложных задач, сравнение стоимости с топовыми моделями и инструкции по запуску через CLI-инструменты.
1. GLM-5 против индустрии: Новая планка open-weight моделей
Контекст: GLM-5 — это модель с 744 млрд параметров (40 млрд активных благодаря архитектуре Mixture of Experts), которая вплотную приблизилась к лидерам рынка (Claude 3.5 Opus/Sonnet). В отличие от многих других моделей, она показывает невероятную стабильность в «длинных» задачах. Автор видео успешно провел миграцию старого проекта (Ping.gg), которая длилась почти час непрерывной работы агента без сбоев и потери контекста. Это первая open-weight модель, способная на такой горизонт планирования.
Выгода: Экономия в 3–6 раз по сравнению с Claude Opus при сопоставимом качестве кода на сложных инженерных задачах.
Как применить:
Шаг 1: Выбор провайдера — Поскольку модель весит 1.5 ТБ, запустить её локально на обычном ПК невозможно. Используйте хостинг-провайдеры типа Modal, OpenRouter или специализированные CLI.
Шаг 2: Оценка стоимости — На OpenRouter цена составляет ~$3 за 1 млн токенов на выход и $1 за 1 млн на вход. Это в 4-5 раз дешевле, чем Claude 3.5 Sonnet.
Шаг 3: Запуск через Kilo CLI (или Open Code) — Для работы в режиме агента используйте форки Open Code, поддерживающие GLM-5.
# Пример запуска задачи через CLI (концептуально)kilo task "Migrate this old TRPC v9 codebase to the latest version, fix all type errors and update dependencies" --model glm-5
Результат: Вы получаете «рабочую лошадку», которая не устает и не теряет нить рассуждения на протяжении часа работы над одной задачей.
2. Борьба с галлюцинациями: Самая честная модель на рынке
Контекст: Согласно бенчмарку Hallucination Bench, GLM-5 показала самый низкий уровень галлюцинаций среди всех существующих моделей. Её показатель ошибок — в районе 30%, тогда как у Gemini 3 Pro он достигает 88%. Модель обучена «признавать поражение»: если она чего-то не знает, она скажет «я не знаю» вместо того, чтобы выдумывать несуществующие библиотеки или функции.
Выгода: Вы тратите меньше времени на отладку кода, который «выглядит правильно, но не работает».
Как применить:
Шаг 1: Делегирование аудита — Используйте GLM-5 для проверки безопасности или код-ревью перед деплоем.
Шаг 2: Промпт для глубокого анализа — Благодаря низкому уровню галлюцинаций, ей можно доверять сканирование всей структуры проекта.
Промпт: "Проанализируй все файлы в папке /src. Найди потенциальные узкие места в производительности и безопасности. Если ты не уверен в работе какой-то специфической библиотеки, прямо укажи на это, не пытайся угадать её поведение."
Результат: Более надежный код и четкое понимание границ компетенции AI в вашем конкретном проекте.
3. Агентский инжиниринг и Long Horizon Tasks
Контекст: Разработчики GLM-5 отошли от термина «vibe coding» в сторону «Agentic Engineering». Модель оптимизирована для многошаговых задач, где нужно не просто написать кусок кода, а спланировать изменения в нескольких файлах, запустить тесты, поправить ошибки и сделать коммит. В тестах на «выживаемость» в терминале (Terminal Bench) она обошла Gemini и сравнялась с Anthropic.
Выгода: Возможность автоматизировать рутинные миграции, которые раньше требовали часов ручного труда инженера.
Как применить:
Шаг 1: Подготовка окружения — Убедитесь, что у вашего AI-агента есть доступ к терминалу и файловой системе.
Шаг 2: Постановка многоэтапной задачи — Разбейте задачу на фазы, но позвольте модели самой управлять переходами.
Промпт: "Выполни миграцию проекта на Vite. Фаза 1: Обнови package.json и удали старые конфиги webpack.Фаза 2: Создай vite.config.ts и настрой алиасы.Фаза 3: Запусти билд. Если возникнут ошибки в типах TS — исправь их итеративно.Делай коммит после каждой успешной фазы."
Результат: Полностью обновленный и рабочий проект с историей коммитов, выполненный практически без вашего участия.
4. Ограничения: Отсутствие мультимодальности и Vision
Контекст: Важный нюанс — GLM-5 на данный момент не является мультимодальной. Она не умеет «видеть» скриншоты ошибок или макеты дизайна напрямую. Если вы вставите изображение в чат, модель либо выдаст ошибку, либо (в некоторых обертках) попытается вызвать сторонний инструмент для описания картинки.
Выгода: Понимание этого ограничения позволяет не тратить токены на бесполезные попытки «показать» AI баг в UI.
Как применить:
Шаг 1: Копирование логов текстом — Вместо скриншота ошибки из консоли браузера, всегда копируйте текст ошибки (Stack Trace).
Шаг 2: Использование вспомогательных моделей — Если нужно работать с дизайном, используйте связку: Kimi k2.5 (которая отлично видит картинки) для описания проблемы, и GLM-5 для написания кода по этому описанию.
Результат: Эффективный рабочий процесс без раздражения от «слепоты» модели.
FAQ
В: Можно ли запустить GLM-5 локально на MacBook?
О: Практически нет. Модель в полном весе занимает около 1.5 ТБ. Даже квантованные версии требуют огромного объема видеопамяти (сотни гигабайт), что доступно только на серверном оборудовании или через облачные API.
В: Чем GLM-5 лучше Claude 3.5 Sonnet?
О: В первую очередь — ценой (в 3-5 раз дешевле) и открытостью весов (MIT лицензия). В плане кодинга она чуть слабее в дизайне интерфейсов, но сопоставима или даже лучше в длительных системных задачах и миграциях бэкенда.
В: Поддерживает ли GLM-5 работу с инструментами (Function Calling)?
О: Да, это одна из её сильных сторон. Она отлично работает с MCP (Model Context Protocol) и может вызывать функции для поиска в браузере, чтения файлов или выполнения команд в терминале.
В: Насколько быстро работает модель?
О: На старте наблюдаются задержки (latency) до 7+ секунд из-за высокой нагрузки на хостинг-провайдеров. Ожидается, что со временем скорость оптимизируют, как это было с предыдущими версиями.
В: Безопасно ли использовать китайскую модель для приватного кода?
О: GLM-5 имеет лицензию MIT, что позволяет компаниям хостить её на своих защищенных серверах (например, через Modal или собственные GPU-кластеры), обеспечивая полную приватность данных, в отличие от закрытых облачных решений OpenAI или Anthropic.
Конспект создан на основе видео «GLM-5: The Best Open-Weight Model for Coding?» канала T3 Dot GG. Все права на оригинальный материал принадлежат авторам.Источник: https://www.youtube.com/watch?v=vtWMgVCMsx8