Новости
Последние обновления инструментов, релизы и важные события из мира вайб-кодинга
Загрузка...
Последние обновления инструментов, релизы и важные события из мира вайб-кодинга
Китайская компания Z.ai выпустила open-source модель GLM-5.1, способную выдерживать более 600 итераций без потери качества. Это новый уровень для автономных AI-агентов.
10+ лет в маркетинге, 300+ клиентских проектов: сайты, реклама, боты. Создатель GoBanana (228K+ пользователей, 11.6 млн ₽ выручки) и VibeCoderz. Делаю AI-продукты сам через Claude Code, Cursor, Windsurf и консультирую тех, кто хочет так же.
Об авторе →GLM-5.1 ворвалась в топ-3 Code Arena: первая open-weight модель такого уровня
Модель GLM-5.1 от Z.ai обошла GPT-5 и Gemini 3 в кодинге, заняв третье место в престижном рейтинге Code Arena под лицензией MIT.
Z.ai выпустила GLM-5.1: новый лидер SWE-Bench с 8-часовым автономным кодингом
Китайская Z.ai представила GLM-5.1 — open-source модель, которая обходит GPT-5.4 и Claude 4.6 в кодинге и способна работать автономно до 8 часов.
Z.AI представила GLM-5.1: открытая модель на 754B параметров рвет SWE-Bench Pro
Новая модель GLM-5.1 с архитектурой MoE обходит GPT-5 и Claude 4.6 в кодинге и способна на 8 часов автономной работы в режиме агента.
GLM-5.1: Новый король длинных сессий и агентного кодинга
Z.ai представили GLM-5.1 — флагманскую модель, которая не выгорает на длинных дистанциях и обходит GPT-5.4 в сложных инженерных задачах.
Claude Code: новый CLI-агент от Anthropic
Anthropic выпустила Claude Code — терминальный AI-агент для разработчиков. Инструмент работает прямо в командной строке и умеет писать, редактировать и запускать код.
Zcode AI: Полный гид по визуальному интерфейсу для Claude Code и AI-агентов
Узнайте, как использовать Zcode для управления Claude Code, Gemini и Codex в едином GUI. Настройка провайдеров, MCP-серверов и визуальный вайбкодинг.
Китайская компания Z.ai официально представила GLM-5.1 — новую open-source модель, специально заточенную под «агентную» разработку (agentic software engineering). Главная фишка релиза: модель способна поддерживать высокую производительность на протяжении сотен итераций, не «тупея» и не теряя контекст со временем.
Для нас, вайбкодеров, это переход от простых автодополнений в духе Copilot к полноценным автономным сотрудникам. Теперь вопрос не в том, что спросить у чата, а в том, какую задачу поручить агенту на ближайшие 8 часов.
Большинство современных LLM начинают «плыть» или зацикливаться после нескольких десятков промптов в рамках одной сессии. GLM-5.1 решает эту проблему. В качестве примера разработчики привели кейс по оптимизации векторной БД: модель совершила более 600 итераций и 6000 вызовов инструментов.
Результат впечатляет: производительность базы выросла до 21 500 запросов в секунду — это в 6 раз лучше, чем результат модели, ограниченной стандартной сессией в 50 ходов.
Z.ai заявляет, что GLM-5.1 обходит конкурентов в сложных инженерных задачах, таких как генерация целых репозиториев и решение проблем через терминал. На бенчмарке SWE-Bench Pro модель набрала 58.4 балла, оставив позади:
Модель выпущена под лицензией MIT, а веса доступны для локального развертывания. Это открывает огромные возможности для интеграции в кастомные воркфлоу в Cursor или Windsurf.
Как отмечает аналитик Forrester Чарли Дай, такая автономность делает реальностью сценарии, когда вы утром вешаете на агента тикет по рефакторингу или миграции кода, а к вечеру получаете готовое и протестированное решение. Агент сам проводит сотни экспериментов и профилирует код, пока вы занимаетесь архитектурой или просто отдыхаете.
«Индустрия переходит от инструментов, отвечающих на вопросы, к системам, которым можно делегировать работу на целый рабочий день», — подчеркивает Парик Джайн, CEO Pareekh Consulting. Для сообщества вайбкодеров GLM-5.1 может стать тем самым движком, который позволит собирать сложные продукты буквально в одиночку.