Gemini CLI + n8n: 1000 бесплатных запросов к топовым AI-моделям в день
Узнайте, как интегрировать Gemini CLI в n8n через SSH и получить 1000 бесплатных запросов к нейросети в сутки. Пошаговая настройка сервера и AI-агента.
🎯 О чём этот конспект: Пошаговое руководство по интеграции Gemini CLI в n8n для обхода платных лимитов API. Вы узнаете, как использовать квоту в 1000 бесплатных запросов в сутки, запуская нейросеть прямо в терминале вашего сервера и обращаясь к ней через n8n.
👤 Кому будет полезно: Вайбкодерам, разработчикам автоматизаций и владельцам SaaS-проектов, которые хотят снизить затраты на LLM-модели (Gemini Pro) и расширить возможности своих агентов за счет прямого доступа к файловой системе сервера.
✨ Что получите: Готовую связку «n8n + SSH + Gemini CLI», которая позволяет бесплатно обрабатывать до 1000 запросов в день с возможностью выхода нейросети в интернет и управления вашим VPS.
1. Подготовка инфраструктуры и установка Gemini CLI
Контекст: Для работы потребуется чистый VPS-сервер (рекомендуется Ubuntu 22.04 или 24.04), так как Gemini CLI работает как терминальное приложение. Основная фишка в том, что при авторизации через личный Google-аккаунт система предоставляет щедрую бесплатную квоту, недоступную через стандартные методы API для бизнеса. Это позволяет превратить ваш сервер в мощный AI-хаб.
Выгода: Экономия на API-запросах (1000 запросов в день бесплатно) и высокая скорость работы за счет локального исполнения команд.
Как применить:
Шаг 1: Подготовка сервера. Арендуйте любой дешевый VPS (достаточно 1-2 ГБ RAM). Подключитесь по SSH:
ssh root@your_server_ip
Шаг 2: Обновление системы и установка Node.js. Gemini CLI требует Node.js версии 20+. Выполните команды:
Шаг 3: Установка Gemini CLI. Установите пакет глобально через npm:
npm install -g @google/generative-ai # В видео используется команда установки cli, если она отличается: npm install -g gemini-chat-cli
Шаг 4: Авторизация. Запустите утилиту и пройдите по ссылке для привязки Google-аккаунта:
gemini login
Скопируйте полученную ссылку в браузер, подтвердите доступ и вставьте код обратно в терминал.
Результат: Рабочая нейросеть Gemini прямо в консоли вашего сервера, готовая принимать команды.
2. Интеграция терминального AI в n8n через SSH
Контекст: Чтобы n8n мог использовать установленную нейросеть, мы используем стандартную ноду SSH. Это позволяет отправлять текстовые промпты из сценария автоматизации прямо в командную строку сервера и получать ответ в виде текста (stdout). Таким образом, n8n выступает лишь «пультом управления», а вся тяжелая работа и запросы к Google происходят на стороне сервера.
Выгода: Возможность использовать мощные модели Gemini Pro внутри любых цепочек n8n без оплаты токенов через официальный AI-коннектор.
Как применить:
Шаг 1: Настройка SSH Credentials в n8n. Создайте новое соединение, указав IP сервера, имя пользователя (root) и пароль (или приватный ключ).
Шаг 2: Создание ноды SSH. Добавьте ноду SSH и выберите действие Execute Command.
Шаг 3: Написание команды. В поле команды используйте вызов Gemini с передачей промпта:
gemini "Ваш вопрос здесь"
Шаг 4: Обработка ответа. Ответ нейросети придет в поле stdout. Используйте ноду Edit Fields (Set), чтобы извлечь чистый текст:
{{ $json.stdout }}
Результат: n8n получает ответы от Gemini, используя бесплатную квоту вашего сервера.
3. Создание AI-агента с инструментами (Tools) через Subflow
Контекст: Для создания полноценного чат-бота, который понимает, когда нужно обратиться к Gemini CLI, используется архитектура с Subflow. Мы создаем отдельный воркфлоу для SSH-запроса и подключаем его к основному AI-агенту как «Инструмент» (Tool). В качестве «мозга»-оркестратора можно использовать дешевую модель (например, GPT-4o-mini), которая будет просто перенаправлять сложные задачи на бесплатный Gemini CLI.
Выгода: Интеллектуальное распределение задач: дешевый оркестратор управляет логикой, а бесплатный Gemini выполняет основную работу и поиск в сети.
Как применить:
Шаг 1: Создание Subflow (Worker). Создайте воркфлоу, который принимает prompt через Execute Workflow Trigger, выполняет SSH-команду и возвращает результат.
Шаг 2: Настройка основного Агента. В главном воркфлоу добавьте ноду AI Agent.
Шаг 3: Подключение инструмента. Добавьте к агенту инструмент Workflow Tool. Укажите созданный ранее Subflow. Назовите его, например, CLI_Tool.
Шаг 4: Системный промпт. В настройках агента пропишите инструкцию, чтобы он всегда использовал этот инструмент для доступа к актуальной информации или ресурсам сервера:
You must use the CLI_Tool every time before you provide the final response to get actual data or execute server commands.
Результат: Автономный агент, который через терминал может гуглить (Gemini CLI поддерживает поиск), читать файлы на сервере и отвечать на вопросы, используя 1000 бесплатных запросов в день.
FAQ
В: Безопасно ли давать n8n доступ к серверу через SSH root?
О: Для максимальной безопасности рекомендуется создать отдельного пользователя в Linux с ограниченными правами доступа только к нужным папкам и Gemini CLI, вместо использования root-аккаунта.
В: Можно ли использовать этот метод, если n8n стоит на том же сервере?
О: Да, в этом случае в ноде SSH в качестве хоста можно указать localhost или 127.0.0.1, либо использовать ноду Execute Command (если n8n запущен не в Docker).
В: Что будет, если я превышу лимит в 1000 запросов?
О: Google начнет выдавать ошибку квоты (429 Too Many Requests). В этом случае выполнение ноды SSH в n8n завершится с ошибкой, которую нужно обработать через Error Workflow.
В: Умеет ли Gemini CLI работать с файлами?
О: Да, это одно из главных преимуществ. Вы можете передавать в промпт пути к локальным файлам на сервере, и нейросеть сможет их проанализировать (например, логи или код проекта).
В: Какие модели доступны через Gemini CLI?
О: Обычно это актуальные версии Gemini Pro и Gemini Flash. Точный список можно проверить командой gemini --help в терминале после установки.
Конспект создан на основе видео «How to use Gemini for FREE in n8n» канала [AI-Driven]. Все права на оригинальный материал принадлежат авторам.Источник: https://www.youtube.com/watch?v=hyb5LEHSwK4