Context Mode: Как расширить контекст Claude Code в 6 раз и экономить 99% токенов
Узнайте, как использовать Context Mode MCP для оптимизации контекста в Claude Code. Экономия токенов, индексация логов в SQLite и длинные сессии без потерь.
🎯 О чём этот конспект: Разбор инструмента Context Mode — специализированного MCP-сервера, который решает проблему «раздувания» контекста (context bloat) в AI-агентах. Вместо того чтобы скармливать модели огромные файлы целиком, инструмент индексирует их в локальной базе данных и предоставляет агенту доступ только к нужным фрагментам.
👤 Кому будет полезно: Вайбкодерам и разработчикам, использующим Claude Code, Gemini CLI или VS Code Copilot для работы с большими репозиториями, логами или сложными задачами, где AI быстро начинает «забывать» контекст.
✨ Что получите: Вы научитесь устанавливать и настраивать Context Mode, что позволит увеличить время активной сессии с AI с 30 минут до 3 часов, снизить затраты на токены и избежать ошибок, связанных с очисткой истории (compacting).
1. Проблема Context Bloat и решение через виртуализацию
Контекст: При использовании Claude Code каждый вызов MCP-инструмента (чтение файлов, поиск, снимки Playwright) напрямую загружает весь вывод в контекстное окно модели (200k токенов). Например, один скриншот страницы через Playwright весит ~56 КБ, а чтение 20 тикетов GitHub — ~59 КБ. Несколько таких операций на этапе планирования съедают до 70% контекста еще до написания первой строки кода. Когда окно переполняется, происходит «сжатие» (compacting), и AI забывает важные решения, структуру файлов или предыдущие ошибки.
Выгода: Увеличение длительности сессии в 6 раз (с 30 минут до 3 часов) и сохранение «интеллекта» модели за счет освобождения места для рассуждений, а не хранения сырых данных.
Как применить:
Шаг 1: Понимание архитектуры — Вместо прямой передачи данных от ОС к AI, Context Mode создает прослойку (песочницу).
Шаг 2: Индексация — Все тяжелые выводы (логи, CSV, код) индексируются в локальной базе данных SQLite с использованием FTS5 (Full Text Search).
Шаг 3: Виртуализация ответов — AI получает не весь файл, а подтверждение индексации и возможность делать точечные поисковые запросы к базе.
Результат: Снижение объема передаваемых данных на 99% (например, 56 КБ превращаются в 299 байт).
2. Установка и интеграция в Claude Code
Контекст: Инструмент разработан для бесшовной интеграции с экосистемой Anthropic и другими CLI-агентами. Процесс установки автоматизирован и добавляет необходимые хуки для мониторинга действий агента.
Выгода: Быстрый старт и автоматическая настройка маршрутизации инструкций для AI.
Как применить:
Шаг 1: Добавление маркетплейса — В терминале Claude Code выполните команду для регистрации источника:
claude config mcp add marketplace
Шаг 2: Установка плагина — Выполните команду установки конкретного расширения:
claude mcp install context-mode
Шаг 3: Альтернативная установка (для Gemini/VS Code) — Если вы используете другие инструменты, используйте npm:
npm install -g context-mode
Результат: В вашем распоряжении появляется набор инструментов context-mode, которые Claude начнет использовать автоматически для работы с данными.
3. Практическая работа: Индексация и анализ тяжелых файлов
Контекст: Традиционный подход заставляет AI читать весь файл (например, лог на 5000 строк). С Context Mode вы просите AI сначала проиндексировать файл, а затем задаете вопросы по его содержимому.
Выгода: Экономия тысяч токенов на каждом запросе. В примере с логом на 20 КБ экономия составила 25% сразу, но на больших файлах (production logs) экономия достигает 100,000+ токенов.
Как применить:
Шаг 1: Команда индексации — В чате с Claude дайте промпт:
Use context mode to index access.log. I want to find all the 500 error patterns and summarize the IP addresses associated with them.
Шаг 2: Поиск по индексу — AI сам вызовет инструменты поиска по SQLite базе, не загружая весь access.log в память.
Шаг 3: Проверка статистики — Чтобы увидеть реальную экономию в текущей сессии, используйте специальную команду:
context-mode:cts-stats
Результат: AI находит паттерны в огромных файлах, используя лишь несколько сотен байт контекста вместо мегабайтов.
Контекст: Главная проблема длинных сессий — потеря контекста при «сжатии» (compacting). AI забывает, что он уже пробовал этот метод и он не сработал, или теряет структуру проекта. Context Mode использует хуки для мониторинга правок файлов, операций Git и подзадач.
Выгода: AI не повторяет старых ошибок и «помнит» код, написанный 20-30 минут назад, даже после сброса основного контекста.
Как применить:
Шаг 1: Автоматический мониторинг — Инструмент сам следит за file_edit и git операциями.
Шаг 2: Создание снапшотов — При достижении лимита контекста, Context Mode создает приоритетный снапшот сессии (обычно до 2 КБ).
Шаг 3: Инъекция контекста — Этот микро-снапшот впрыскивается обратно в новую итерацию диалога, восстанавливая «память» агента.
Результат: Стабильная работа агента над сложными задачами в течение нескольких часов без деградации качества кода.
FAQ
В: Работает ли Context Mode с Cursor или Windsurf? О: На данный момент основная интеграция реализована для Claude Code и через npm для CLI-инструментов. Однако, так как это стандартный MCP-сервер, его можно подключить к любому инструменту, поддерживающему протокол MCP (Model Context Protocol), включая Cursor (через настройку MCP серверов).
В: Безопасно ли индексировать конфиденциальные логи в SQLite? О: Да, база данных SQLite создается локально на вашем компьютере. Данные не отправляются на сторонние сервера для индексации, в облако Anthropic уходят только результаты поиска или краткие выжимки.
В: Нужно ли мне вручную указывать AI использовать Context Mode? О: В начале сессии лучше один раз явно попросить: «Используй context-mode для работы с файлами в этом проекте». После этого, благодаря системным инструкциям MCP, Claude обычно сам выбирает нужный инструмент для тяжелых данных.
В: Что произойдет, если файл изменится после индексации? О: Context Mode отслеживает правки файлов через хуки. Если файл значительно изменился, рекомендуется попросить AI «re-index [filename]», чтобы обновить локальную базу данных FTS5.
В: Насколько сильно это замедляет работу AI? О: Напротив, это ускоряет получение ответа. Передача 200 байт и поиск по локальной БД происходит быстрее, чем загрузка и обработка моделью 50-100 КБ текста в каждом сообщении.
Конспект создан на основе видео «Stop Wasting Tokens in Claude Code (Context Mode)» канала Better Stack. Все права на оригинальный материал принадлежат авторам.Источник: https://youtu.be/QUHrntlfPo4?si=ZnjoSC52apJwUc_R