Новости
Последние обновления инструментов, релизы и важные события из мира вайб-кодинга
Загрузка...
Последние обновления инструментов, релизы и важные события из мира вайб-кодинга
Новая модель GLM-5.1 с архитектурой MoE обходит GPT-5 и Claude 4.6 в кодинге и способна на 8 часов автономной работы в режиме агента.
10+ лет в маркетинге, 300+ клиентских проектов: сайты, реклама, боты. Создатель GoBanana (228K+ пользователей, 11.6 млн ₽ выручки) и VibeCoderz. Делаю AI-продукты сам через Claude Code, Cursor, Windsurf и консультирую тех, кто хочет так же.
Об авторе →GLM-5.1 ворвалась в топ-3 Code Arena: первая open-weight модель такого уровня
Модель GLM-5.1 от Z.ai обошла GPT-5 и Gemini 3 в кодинге, заняв третье место в престижном рейтинге Code Arena под лицензией MIT.
Z.ai выпустила GLM-5.1: новый лидер SWE-Bench с 8-часовым автономным кодингом
Китайская Z.ai представила GLM-5.1 — open-source модель, которая обходит GPT-5.4 и Claude 4.6 в кодинге и способна работать автономно до 8 часов.
Z.ai представила GLM-5.1: AI-агенты теперь могут кодить автономно часами
Китайская компания Z.ai выпустила open-source модель GLM-5.1, способную выдерживать более 600 итераций без потери качества. Это новый уровень для автономных AI-агентов.
GLM-5.1: Новый король длинных сессий и агентного кодинга
Z.ai представили GLM-5.1 — флагманскую модель, которая не выгорает на длинных дистанциях и обходит GPT-5.4 в сложных инженерных задачах.
Claude Code: новый CLI-агент от Anthropic
Anthropic выпустила Claude Code — терминальный AI-агент для разработчиков. Инструмент работает прямо в командной строке и умеет писать, редактировать и запускать код.
Zcode AI: Полный гид по визуальному интерфейсу для Claude Code и AI-агентов
Узнайте, как использовать Zcode для управления Claude Code, Gemini и Codex в едином GUI. Настройка провайдеров, MCP-серверов и визуальный вайбкодинг.
Команда Z.AI выкатила GLM-5.1 — флагманскую open-weight модель на 754 миллиарда параметров, заточенную под «агентский» инжиниринг. Это не просто очередной чат-бот, а полноценный движок для автономных разработчиков, который может удерживать контекст и принимать решения на протяжении 8-часовых сессий.
GLM-5.1 построена на базе архитектуры Mixture of Experts (MoE) в сочетании с технологией DSA. Для нас, вайбкодеров, это означает профит в производительности: при огромном общем весе в 754B, во время инференса активируется лишь часть параметров. Это делает модель быстрее и дешевле в работе по сравнению с классическими плотными (dense) моделями аналогичного масштаба.
Разработчики внедрили новую инфраструктуру асинхронного обучения с подкреплением (RL). Она разделяет процессы генерации и обучения, что позволило модели справляться с длинными цепочками задач, где обычные LLM «выгорают» или теряют нить рассуждений.
Цифры говорят сами за себя. На самом жестком тесте для AI-кодеров — SWE-Bench Pro — GLM-5.1 набрала 58.4 балла. Для понимания масштаба: она оставила позади таких гигантов, как GPT-5 (версия 5.4), Claude Opus 4.6 и Gemini 3.1 Pro.
Помимо SWE-Bench, модель доминирует в:
Главная фишка GLM-5.1 — 8 часов автономного выполнения задач. Если текущие агенты в Cursor или Windsurf иногда «тупят» на длинных дистанциях, то GLM-5.1 проектировалась именно для того, чтобы вы могли поставить задачу утром, а к обеду получить готовый фичер-пак без необходимости каждые 5 минут править промпт.
Открытый вес (open-weight) дает надежду на то, что скоро мы сможем запускать подобные решения на собственных мощностях или через специализированные API с меньшей цензурой и большим контролем над процессом разработки.