VibeCoderzVibeCoderz
Telegram
Все статьи
2026/05/069 мин чтения

Как установить DeepSeek Coder через Ollama пошаговый гайд для Windows и Mac

DeepSeek Coder через Ollama ставится за 10-15 минут на Windows и Mac без видеокарты, без регистрации и без платных подписок. Скачиваете Ollama, одной командой тянете модель, подключаете к VS Code через плагин Continue — и локальный AI-ассистент для к…

Содержание (12)+

DeepSeek Coder через Ollama ставится за 10-15 минут на Windows и Mac без видеокарты, без регистрации и без платных подписок. Скачиваете Ollama, одной командой тянете модель, подключаете к VS Code через плагин Continue — и локальный AI-ассистент для кода готов.

В этом гайде: выбор версии, установка на Windows и Mac по шагам, подключение к VS Code и решение типовых ошибок.


Что такое Ollama и зачем он нужен

Изображение

Ollama это инструмент, который позволяет запускать языковые модели локально через командную строку. Думайте о нём как о Docker, только для AI-моделей: скачал, запустил одной командой, работает как локальный сервер на localhost:11434.

Без Ollama запустить DeepSeek Coder локально значительно сложнее: нужно разбираться с Python, transformers, CUDA и т.д. Ollama убирает весь этот слой и даёт чистый интерфейс: одна команда для скачивания, одна для запуска.

Изображение

Почему это лучше, чем просто использовать сайт deepseek.com? Три причины. Код не уходит на внешние серверы, важно если работаете с чужим проприетарным кодом. Работает без интернета. И не зависит от нагрузки на серверы DeepSeek, которые периодически недоступны из-за наплыва пользователей.


Выбор версии: какой DeepSeek Coder скачать

Перед установкой определитесь с версией. От этого зависит, сколько нужно памяти и какое качество кода получите.

ВерсияКоманда OllamaРазмерRAM без GPUКачество
DeepSeek Coder 1.3Bdeepseek-coder:1.3b776 МБ4 ГББазовое
DeepSeek Coder 6.7Bdeepseek-coder:6.7b3.8 ГБ8-16 ГБХорошее
DeepSeek Coder V2 Litedeepseek-coder-v28.9 ГБ16 ГБ+Отличное
DeepSeek Coder 33Bdeepseek-coder:33b19 ГБ32 ГБ+Максимальное
Изображение

Для большинства: версия 6.7B, это начать. 3.8 ГБ, работает на любом ноутбуке с 8 ГБ RAM, качество кода в несколько раз выше, чем у 1.3B.

Изображение

Если RAM 16 ГБ и больше: смотрите на DeepSeek Coder V2 (он же Lite, 16B параметров). Весит 8.9 ГБ, поддерживает 338 языков программирования, контекст 128K токенов. По качеству значительно лучше 6.7B.

Если вообще не уверены: запустите deepseek-coder:6.7b. Ollama сам подберёт подходящую квантизацию под ваше железо.


Шаг 1. Установка Ollama на Windows

Скачать установщик. Зайдите на ollama.com и нажмите Download for Windows. Скачается файл OllamaSetup.exe.

Запустить установщик. Двойной клик, следуйте инструкциям. Установка стандартная, занимает около минуты. После завершения Ollama автоматически запустится как системный сервис.

Проверить установку. Откройте PowerShell (Win + X -> Windows PowerShell) и введите:

ollama --version

Если видите что-то вроде ollama version 0.x.x, установка прошла успешно.

Важный нюанс для Windows. Если команда ollama не распознается после установки — закройте PowerShell и откройте заново. Это стандартное поведение Windows: изменения в PATH применяются только для новых процессов. Если после перезапуска PowerShell проблема осталась — перезагрузите компьютер.


Шаг 2. Установка Ollama на Mac

Через сайт. Зайдите на ollama.com, нажмите Download for macOS. Скачается файл Ollama.dmg. Откройте, перетащите в Applications — готово.

Через Homebrew (если используете):

brew install --cask ollama

Проверить установку. Откройте Terminal и введите:

ollama --version

Нюанс для Mac. Если установили через .dmg, не запускайте ollama serve вручную. Приложение Ollama само управляет серверным процессом. Запустите его через Launchpad или Spotlight — увидите иконку в строке меню. Если запустить serve параллельно с приложением — получите конфликт портов.

На Apple Silicon (M1/M2/M3/M4) Ollama работает особенно быстро благодаря унифицированной памяти. M2 16 ГБ выдает 12-18 токенов/с на модели 6.7B, это примерно строка кода в секунду, вполне комфортно для работы.

Изображение

Шаг 3. Скачать и запустить DeepSeek Coder

Откройте терминал (PowerShell на Windows, Terminal на Mac) и введите команду для нужной версии.

DeepSeek Coder 6.7B — рекомендуется для начала:

ollama run deepseek-coder:6.7b

DeepSeek Coder V2 Lite — если RAM 16+ ГБ:

ollama run deepseek-coder-v2

DeepSeek Coder V2 Lite Instruct — лучше для диалога:

ollama pull deepseek-coder-v2:16b-lite-instruct-q4_k_m

Ollama покажет прогресс скачивания. После загрузки автоматически откроется чат прямо в терминале. Можно проверить сразу:

>>> Напиши функцию на Python, которая разворачивает строку

Модель ответит. Чтобы выйти из чата и вернуться в терминал: введите /bye или нажмите Ctrl+D.

Проверить список скачанных моделей:

ollama list

Удалить модель, если не нужна:

ollama rm deepseek-coder:6.7b

Шаг 4. Подключить DeepSeek Coder к VS Code через Continue

Работа в терминале удобна для быстрых запросов, но для ежедневной разработки нужна интеграция прямо в редактор. Плагин Continue делает это за 5 минут.

Установить Continue. В VS Code нажмите Ctrl+Shift+X (Cmd+Shift+X на Mac), найдите Continue, нажмите Install. Или через терминал:

code --install-extension Continue.continue

Открыть конфиг Continue. После установки в левой панели появится иконка Continue. Нажмите на неё, затем на шестерёнку в правом нижнем углу. Откроется файл config.yaml (или config.json в старых версиях).

Добавить DeepSeek Coder как модель. Замените содержимое на:

name: My AI Setup
version: 1.0.0
schema: v1
models:
  - name: DeepSeek Coder 6.7B
    provider: ollama
    model: deepseek-coder:6.7b
    apiBase: http://localhost:11434
    roles:
      - chat
      - edit
      - apply
  - name: DeepSeek Coder V2 (autocomplete)
    provider: ollama
    model: deepseek-coder-v2
    apiBase: http://localhost:11434
    roles:
      - autocomplete

Для V2 Lite вместо deepseek-coder:6.7b укажите deepseek-coder-v2.

Более простой вариант — автоопределение. Continue сам найдет все скачанные модели:

models:
  - name: Autodetect
    provider: ollama
    model: AUTODETECT
    roles:
      - chat
      - edit
      - autocomplete

Сохраните файл. Continue автоматически перезагрузит конфиг.

Проверить подключение. В панели Continue выберите модель из выпадающего списка и напишите что-нибудь в чат. Если Ollama запущен и модель скачана — ответ придёт за несколько секунд.

Горячие клавиши Continue в VS Code:

  • Cmd/Ctrl + L: добавить выделенный код в контекст чата
  • Cmd/Ctrl + I: inline-редактирование прямо в файле
  • Tab: принять предложение автодополнения

deepseek coder онлайн без установки: три варианта

Если не хочется ничего устанавливать или просто нужно быстро протестировать, есть несколько бесплатных онлайн-вариантов.

chat.deepseek.com — официальный чат DeepSeek. Там доступны V3 и V4 (Flash и Pro). Для кодинговых задач работают не хуже специализированного Coder. Регистрация нужна, но бесплатно.

OpenRouter — агрегатор моделей. DeepSeek Coder V2 доступен напрямую через OpenRouter API. Можно подключить к Continue как провайдер — тогда получаете интеграцию в VS Code без локальной установки.

Replicate — облачный инференс. Можно запустить DeepSeek Coder V2 Lite Instruct через API без своего железа. Оплата за время вычислений.

Честная оговорка: для повседневной работы онлайн-варианты хуже. Код уходит на внешние серверы, нет работы офлайн, бывают задержки. Если конфиденциальность не критична и нет желания разбираться с Ollama — используйте DeepSeek V4 Flash через официальный API, он стоит примерно $0.14 за миллион токенов, что при обычном использовании выходит меньше доллара в месяц.

Изображение

Типовые ошибки и как их решить

ollama: command not found или command not recognized На Windows: закройте PowerShell полностью и откройте заново. Если не помогло, перезагрузитесь, установщик должен был добавить путь в PATH. На Mac проверьте, что приложение Ollama запущено (иконка в строке меню).

Модель скачивается, но потом Error: model not found Ollama чувствителен к точным тегам. Запустите ollama list и посмотрите, как именно называется модель в списке. В конфиге Continue используйте ровно то же написание.

Continue пишет "Model is not available" или не отвечает Убедитесь, что Ollama работает: откройте браузер и зайдите на http://localhost:11434. Должно отобразиться Ollama is running. Если нет, запустите Ollama вручную.

Модель работает очень медленно, меньше 1 токена/с Это значит, что модель не влезает в оперативную память и начала использовать файл подкачки на SSD. Решение: возьмите меньшую версию. С 8 ГБ RAM: 1.3B или 6.7B. С 16 ГБ — 6.7B или V2 Lite.

На Mac ошибка конфликта портов Если запустили ollama serve вручную, а приложение Ollama уже работает, они конфликтуют. Завершите один из процессов. Для проверки: lsof -i :11434.

API ключ DeepSeek отображается только один раз Если подключаете DeepSeek через API (не локально), а не через Ollama: скопируйте ключ сразу при создании. Повторно его посмотреть нельзя, придётся создавать новый.


Сравнение: локально через Ollama vs. онлайн через API

Главный вопрос, который возникает после установки: а стоило ли? Ответ зависит от ситуации.

Изображение
КритерийOllama локальноDeepSeek API онлайн
СтоимостьБесплатно$0.14/1M токенов (~$1-2/мес)
КонфиденциальностьКод не покидает машинуКод уходит на серверы
Скорость5-18 т/с (зависит от железа)40-80 т/с (серверные GPU)
Качество моделиОграничено вашим RAMДоступны V4 Flash и V4 Pro
Офлайн-работаДаНет
Сложность настройки15 минут5 минут

Для большинства разработчиков оптимальная стратегия из реальных видеообзоров: локальная модель (6.7B или V2 Lite) для автокомплита, быстро, без задержек, бесплатно. И DeepSeek V4 через API или официальный сайт для сложных вопросов и рефакторинга — там мощнее и контекст больше.

Максим: "Ребят, я сам работаю именно так. Ollama с V2 Lite локально в Continue для автодополнения — это ощущение как GitHub Copilot, только ни копейки не стоит и код никуда не уходит. Для сложных задач — DeepSeek через API или Claude Code. Сборка NanaBanana целиком шла на таком стеке."
Изображение

Альтернативные плагины для VS Code

Изображение

Continue это лучший вариант для Ollama, но не единственный.

Cline (раньше Claude Dev) — агентский плагин, умеет не только чатиться, но и самостоятельно создавать файлы, запускать команды. Работает с Ollama через OpenAI-совместимый API. Подробнее: обзор Cline на VibeCoderz.

CodeGPT — более простой вариант для новичков. Есть GUI для выбора моделей, не нужно редактировать config-файлы. Поддерживает Ollama через раздел Local LLMs.

VS Code Copilot Chat — встроен в VS Code, иногда уже установлен. Можно подключить DeepSeek через него, не требует подписки на GitHub для работы с локальными моделями.

Из тестов в видео: Continue при работе через локальную модель немного медленнее прямого чата в Ollama, потому что сканирует директорию проекта для контекста. Но это даёт важное преимущество — модель видит ваши файлы и может давать советы в контексте проекта, а не в вакууме.


FAQ

Как скачать DeepSeek Coder бесплатно? Через Ollama. Установите его с ollama.com, затем в терминале: ollama run deepseek-coder:6.7b. Это скачает модель (3.8 ГБ) и сразу запустит чат. Регистрация не нужна, бесплатно.

Как установить deepseek coder v2 через Ollama? Команда: ollama run deepseek-coder-v2. Это Lite-версия (16B, 2.4B активных), файл около 8.9 ГБ. Для Instruct-варианта: ollama pull deepseek-coder-v2:16b-lite-instruct-q4_k_m. Нужно 16+ ГБ свободной RAM.

Где взять deepseek coder онлайн без установки? На сайте chat.deepseek.com: официальный интерфейс с V3 и V4. Через OpenRouter, там Coder V2 доступен отдельно. На Replicate, облачный инференс по API. Для встройки в VS Code без Ollama используйте Continue с провайдером DeepSeek и API-ключом с platform.deepseek.com.

Работает ли deepseek coder ollama на Windows без GPU? Да. Ollama автоматически переключается на CPU-режим, если нет видеокарты. На CPU скорость ниже: 5-9 токенов/с против 30-60 на GPU. Для автодополнения и объяснений кода этого достаточно.

Как проверить, что Ollama запущен и модель работает? В браузере зайдите на http://localhost:11434. Если Ollama работает, увидите "Ollama is running". Список скачанных моделей: ollama list. Версия Ollama: ollama --version.

Можно ли использовать deepseek coder v2 онлайн через VS Code без локальной установки? Да. В Continue укажите провайдер deepseek и API-ключ с platform.deepseek.com. В конфиге Continue: provider: deepseekmodel: deepseek-coder или любую другую доступную модель. Тогда весь инференс идёт на серверах DeepSeek, локально ничего не нужно.

Какую версию DeepSeek Coder выбрать для ноутбука с 8 ГБ RAM? DeepSeek Coder 6.7B (команда deepseek-coder:6.7b, файл 3.8 ГБ). Для автокомплита добавьте 1.3B как отдельную быструю модель. Версии V2 Lite (8.9 ГБ) на 8 ГБ RAM будет тесно — Ollama может частично выгрузить модель в swap, что замедлит работу.


Глоссарий

Ollama — инструмент для локального запуска языковых моделей. Работает как сервер на localhost:11434, принимает OpenAI-совместимые API-запросы. Установка стандартная, без настройки Python-окружения.

Continue — open-source плагин для VS Code и JetBrains IDE. Добавляет AI-чат, inline-редактирование и автодополнение, работает с Ollama и любыми OpenAI-совместимыми API.

Квантизация Q4 — формат сжатия весов модели до 4 бит. Модель 6.7B весит 3.8 ГБ вместо ~13 ГБ в полной точности. Незначительная потеря качества в обмен на то, что модель помещается в обычную оперативную память.

localhost:11434 — адрес, на котором Ollama запускает локальный API-сервер. Continue и другие плагины обращаются к нему, чтобы получить ответы от модели.

PATH — системная переменная, которая сообщает терминалу, где искать исполняемые файлы. Если ollama не распознается как команда на Windows — это значит, что путь к Ollama не прописан в PATH.

Instruct-версия — вариант модели, дообученный на следование инструкциям. Отвечает на вопросы и выполняет просьбы на естественном языке. В отличие от Base, которая просто продолжает текст.

Изображение

Если разобрались с установкой и хотите выстроить полноценный AI-стек для разработки, загляните в каталог AI IDE на VibeCoderz. Там обзоры CursorWindsurfAider и Claude Code с честным сравнением под разные задачи и бюджеты.

Хотите подобрать стек под конкретный проект — запишитесь на консультацию к Максиму.


Обновлено: май 2026

All Posts

Автор

Максим Наговицын
Максим Наговицын

Маркетинг-стратег, IT-предприниматель, ментор по вайбкодингу

2026/05/06

10+ лет в маркетинге, 300+ клиентских проектов: сайты, реклама, боты. Создатель GoBanana (228K+ пользователей, 11.6 млн ₽ выручки) и VibeCoderz. Делаю AI-продукты сам через Claude Code, Cursor, Windsurf и консультирую тех, кто хочет так же.

Об авторе →

Читать далее

📢 Новость

Claude Code: новый CLI-агент от Anthropic

Anthropic выпустила Claude Code — терминальный AI-агент для разработчиков. Инструмент работает прямо в командной строке и умеет писать, редактировать и запускать код.

2026/02/27
📝 Конспект

Zcode AI: Полный гид по визуальному интерфейсу для Claude Code и AI-агентов

Узнайте, как использовать Zcode для управления Claude Code, Gemini и Codex в едином GUI. Настройка провайдеров, MCP-серверов и визуальный вайбкодинг.

2026/02/28
📝 Конспект

YouTube-канал с монетизацией из любой точки мира: Пошаговый гайд 2024

Инструкция по созданию YouTube-канала: обход блокировок SMS, настройка расширенных функций через виртуальные номера и правила безопасности для монетизации.

2026/02/28
📝 Конспект

Windsurf Code Maps: Как глубоко понимать архитектуру проекта перед написанием кода

Полный гайд по Windsurf Code Maps, модели Sway 1.5 и Sway Grep. Узнайте, как визуализировать архитектуру кода и ускорить разработку в 13 раз.

2026/02/28
📝 Конспект

Vk Fast Cash Strategy

Аудитория ВКонтакте — это те же люди, что и в Instagram, но 'социальный контракт' площадки другой. Если Instagram — это 'дорогой ресторан' с демонстрацией успеха, то VK — это 'душевная шашлычная'. Здесь не работает глянцевый 'успешный успех

2026/02/28