🎯 О чём этот конспект: Разбор open-source инструмента Continue, который является мощной альтернативой GitHub Copilot. В видео CTO проекта Нейт Цести объясняет, как развернуть полностью приватную среду разработки с использованием локальных LLM через Ollama, обеспечивая безопасность кода и отсутствие подписок.
👤 Кому будет полезно: Разработчикам (VibeCoderz), которые ценят приватность, хотят кастомизировать свои AI-инструменты или работают в корпоративных средах с закрытым контуром.
✨ Что получите: Пошаговую инструкцию по настройке связки VS Code + Continue + Ollama, понимание разницы между моделями для автодополнения и чата, а также методику создания «промптов как кода» для командной работы.
1. Локальный AI-ассистент: Приватность и экономия
Контекст: Главная проблема облачных решений вроде GitHub Copilot — передача вашего кода на внешние сервера и ежемесячная плата. Continue решает это, позволяя подключать любые модели (локальные или облачные) через единый интерфейс. При использовании локального режима (через Ollama) данные не покидают ваш компьютер, что критично для безопасности и позволяет работать без интернета. Это идеальный «пермишнлесс» вариант: вам не нужно одобрение руководства на использование AI, так как код остается внутри вашей машины.
Выгода: 100% приватность данных, отсутствие затрат на подписки, возможность работы в офлайне.
Как применить:
Шаг 1: Установка Ollama — Ollama — Скачайте и запустите Ollama. Это движок, который будет крутить модели на вашем железе.
Шаг 2: Установка расширения — [VS Code / JetBrains] — Найдите и установите расширение Continue в маркетплейсе вашей IDE.
Шаг 3: Выбор локального режима — При первом запуске выберите «Local Mode». Continue автоматически предложит скачать подходящие модели (например, Llama 3 для чата и StarCoder 2 для автодополнения).
Результат: Полноценный AI-ассистент в IDE, работающий на Localhost.
2. Разделение моделей: Автодополнение vs Чат
Контекст: Для эффективной работы не нужна одна «супер-модель». Continue использует два разных движка параллельно. Для Tab Autocomplete (автодополнение кода на лету) нужны маленькие и быстрые модели (3-8 млрд параметров), которые мгновенно реагируют на каждое нажатие клавиши. Для Chat (объяснение кода, написание тестов, архитектурные вопросы) используются более «умные» и тяжелые модели. Современные версии Ollama позволяют держать обе модели в памяти одновременно, переключаясь между ними без задержек.
Выгода: Высокая скорость автодополнения без «тормозов» системы при сохранении высокого качества ответов в чате.
Как применить:
Настройка Tab Autocomplete: Откройте config.json в настройках Continue (иконка шестеренки) и укажите быструю модель.
Настройка Chat: В том же конфиге или через UI выберите более мощную модель (например, GPT-4o или Llama 3 8B/70B).
Пример конфигурации в config.json:
Результат: Мгновенное автодополнение (ghost text) и глубокая экспертиза в чате.
3. RAG и контекстное управление (Context is Key)
Контекст: AI часто галлюцинирует, если не знает структуры вашего проекта. Continue использует RAG (Retrieval Augmented Generation) для автоматического подбора нужных файлов. Когда вы задаете вопрос, инструмент индексирует ваш репозиторий, делает семантический поиск и передает в промпт только те части кода, которые важны для ответа. Вы можете вручную добавлять контекст, используя символ @ или нажимая Cmd+Enter для глубокого поиска по всему проекту.
Выгода: Точные ответы, основанные на специфике вашего проекта, а не на общих знаниях модели.
Как применить:
Индексация: После открытия проекта дождитесь завершения индексации (индикатор в правом нижнем углу Continue).
Использование контекста: В чате используйте команду @Codebase, чтобы AI проанализировал весь проект перед ответом.
Пример запроса:
@Codebase где в этом проекте настраиваются роуты API и как добавить новый эндпоинт?
Результат: AI «видит» ваш проект целиком и дает советы с учетом существующих функций и стилистики.
4. Промпты как код (Prompt Files)
Контекст: Разработчики часто тратят время на написание одних и тех же инструкций: «напиши юнит-тест на Jest», «проверь на уязвимости», «сделай рефакторинг по SOLID». Continue вводит концепцию .prompt файлов. Это текстовые файлы, которые можно хранить в репозитории (Git), версионировать и шарить с командой. Это превращает удачные промпты в многоразовые инструменты (слэш-команды).
Выгода: Стандартизация качества кода в команде и автоматизация рутинных проверок.
Как применить:
Создание файла: Создайте папку .continue/prompts в корне проекта.
Написание инструкции: Создайте файл test.prompt.
Использование: В чате введите /test, и Continue выполнит заложенную инструкцию.
Пример содержимого test.prompt:
---name: Unit Test Generatordescription: Генерирует тесты для текущего файла---Напиши юнит-тесты для выделенного кода, используя Vitest. Обязательно проверь граничные условия и обработку ошибок. Используй моки для внешних зависимостей.
Результат: У каждого разработчика в команде появляются одинаковые мощные инструменты автоматизации через слэш-команды.
FAQ
В: Какое железо нужно для комфортной работы локально? О: Для моделей 8B (Llama 3) и 3B (StarCoder 2) достаточно MacBook с 16-32 ГБ оперативной памяти (Unified Memory). Чем больше RAM, тем более тяжелые модели можно запускать (например, 70B модели требуют 64ГБ+).
В: Можно ли использовать Continue с GPT-4 или Claude 3? О: Да, Continue поддерживает API-ключи OpenAI, Anthropic, Google Gemini и других провайдеров. Вы можете комбинировать: локальное автодополнение (бесплатно) + облачный чат (платно).
В: Не мешает ли Continue работе стандартного Copilot? О: Они могут сосуществовать, но для предотвращения конфликтов автодополнения (когда два ассистента пишут поверх друг друга) лучше оставить активным только один инструмент для Tab-complete.
В: Что такое индексация и зачем она нужна? О: Это процесс создания векторной базы данных вашего кода. Благодаря ей Continue понимает связи между файлами и может найти нужный класс или функцию в другом конце проекта, чтобы передать их в контекст модели.
В: Как добавить свою собственную модель, которой нет в списке? О: Если модель запущена через Ollama или имеет OpenAI-совместимый API, её можно добавить в config.json, указав apiBase (URL) и название модели.
Конспект создан на основе видео «Local LLMs for Devs with Continue.dev» канала Brett Fisher. Все права на оригинальный материал принадлежат авторам.Источник: https://www.youtube.com/watch?v=9zyJrMwGEKs