🎯 О чём этот конспект: В видео разбирается процесс превращения обычного VS Code в мощную AI-среду (Agentic IDE), аналогичную GitHub Copilot или Cursor, но полностью бесплатную и работающую локально. Автор объясняет архитектуру решения, состоящую из трех типов моделей, и показывает процесс настройки через расширение Continue.dev.
👤 Кому будет полезно: Разработчикам (вайбкодерам), которые хотят сэкономить на подписках (Copilot, Windsurf), а также тем, кто работает с чувствительным кодом, который нельзя отправлять в облако.
✨ Что получите: Полностью настроенную рабочую среду в VS Code с функциями чата по коду, автодополнения и индексации проекта (RAG), работающую без интернета и ограничений по токенам.
1. Архитектура локального AI-агента: Почему нужно 3 модели?
Контекст: Многие пытаются использовать одну модель для всех задач, но это приводит к медленной работе или плохим результатам. Чтобы достичь уровня GitHub Copilot, расширение Continue.dev использует разделение обязанностей. Вам не нужно платить за API; вместо этого вы запускаете три специализированных типа моделей локально через Ollama. Это обеспечивает баланс между скоростью автодополнения и глубиной понимания кода при чате.
Выгода: Максимальная производительность и точность ответов при нулевых затратах на API и полной приватности данных.
Как применить:
Шаг 1: Установка базы — Ollama — Скачайте и установите Ollama с официального сайта. Это движок, который будет крутить модели на вашем железе.
Шаг 2: Выбор Chat-модели — Llama 3 / DeepSeek / GPT4All — Это «мозг» для сложных задач, объяснения кода и рефакторинга. Автор рекомендует Llama 3 или DeepSeek (с большим количеством параметров, если позволяет RAM).
Шаг 3: Выбор Autocomplete-модели — Qwen (малые параметры) / StarCoder — Легкая и быстрая модель, которая «дописывает» код на лету. Она должна быть маленькой, чтобы не было задержек при вводе текста.
Шаг 4: Выбор Embedding-модели — Nomic Embed Text — Эта модель не пишет код, она индексирует ваш проект. Она превращает ваш код в векторы, чтобы AI мог «видеть» контекст всего репозитория (например, как связаны функции в разных файлах).
Результат: Сбалансированная система, где каждая модель выполняет свою роль, имитируя работу платных облачных сервисов.
2. Настройка Continue.dev в VS Code
Контекст: Continue.dev — это open-source мост между вашим редактором кода и локальными моделями. В отличие от стандартных расширений, оно позволяет гибко настраивать роли каждой модели и подключать внешние инструменты через протокол MCP. Установка занимает менее 10 минут и превращает VS Code в полноценного AI-агента.
Выгода: Бесплатный аналог Cursor и Copilot с поддержкой локального контекста проекта.
Как применить:
Шаг 1: Установка расширения — VS Code Marketplace — Найдите и установите расширение Continue.
Шаг 2: Конфигурация моделей — Continue Sidebar — Нажмите на иконку Continue, выберите "Add Model" -> "Local" -> "Ollama".
Шаг 3: Настройка config.json — Continue Config — Откройте файл конфигурации (через иконку шестеренки в Continue) и пропишите роли. Пример базовой настройки:
Результат: Ваш VS Code теперь понимает локальные модели и готов к работе в режиме AI-ассистента.
3. Практическая работа: Чат, Редактирование и Индексация
Контекст: После настройки вы можете взаимодействовать с кодом через контекстное меню или горячие клавиши. Главная фишка — индексация. Благодаря Embedding-модели, AI может анализировать огромные репозитории (как Argo CD в примере видео) и объяснять структуру папок, назначение Docker-файлов и связи между функциями, не требуя ручного копирования кода в чат.
Выгода: Быстрое погружение в новые проекты и автоматизация рутинного написания тестов или комментариев.
Как применить:
Действие 1: Объяснение проекта — В чате введите запрос:
Explain this project in simple words and describe the folder structure.
Действие 2: Редактирование функции — Выделите код, нажмите Cmd/Ctrl + I (Add to Edit) и введите промпт:
Enhance this function, fix potential issues and add comments.
Действие 3: Использование контекста (@) — Используйте символ @ в чате, чтобы добавить в контекст конкретные файлы, папки или даже документацию из сети.
Результат: Возможность вести диалог со всей кодовой базой и получать точные правки прямо в редакторе.
FAQ
В: Какие системные требования для локального запуска? О: Для комфортной работы (Llama 3 8B + Autocomplete) желательно иметь от 16 ГБ оперативной памяти и видеокарту (GPU) от 8 ГБ VRAM. Если ресурсов мало, используйте модели меньшего размера, например, Qwen 1.5B или Phi-3.
В: Можно ли использовать Continue.dev с внешними моделями, если локальных не хватает? О: Да, Continue поддерживает API ключи для OpenAI, Anthropic (Claude) и других провайдеров. Вы можете комбинировать: например, локальный автокомплит для скорости и Claude 3.5 Sonnet для сложных архитектурных чатов.
В: Что такое MCP (Model Context Protocol) в контексте Continue? О: Это протокол, который позволяет AI-агенту подключаться к внешним инструментам: базам данных, Google Search или локальным файлам. Вы можете прописать конфиг MCP сервера в настройках Continue, чтобы агент мог, например, искать информацию в интернете.
В: Как обновить индекс проекта, если я добавил много новых файлов? О: Continue делает это автоматически в фоновом режиме с помощью Embedding-модели. Если вы заметили, что AI "тупит", можно перезапустить индексацию в настройках расширения.
В: Безопасно ли это для корпоративного кода? О: Абсолютно. Если вы используете Ollama и локальные модели, ваш код никогда не покидает ваш компьютер. Это идеальное решение для компаний с жесткой политикой безопасности.
Конспект создан на основе видео «Free Agentic IDE with Unlimited Tokens» канала Abhishek.Veeramalla. Все права на оригинальный материал принадлежат авторам.Источник: https://www.youtube.com/watch?v=13ab5dyOasI