🎯 О чём этот конспект: Разбор системы «Auto Research» (по мотивам репозитория Андрея Карпати), адаптированной для автоматического создания и оптимизации контента. Система ежедневно создает 5 видео, анализирует их просмотры в Instagram/Facebook, выявляет закономерности и самостоятельно переписывает свои промпты для улучшения результата.
👤 Кому будет полезно: Вайбкодерам, контент-мейкерам и владельцам агентств, которые хотят автоматизировать производство Reels/Shorts и внедрить цикл самообучения AI без участия человека.
✨ Что получите: Готовую архитектуру системы, которая не просто генерирует контент, а умнеет с каждым днем, используя реальные данные о просмотрах как функцию потерь (loss function).
1. Концепция Auto Research для контента
Контекст: Андрей Карпати (экс-Tesla AI) создал метод оптимизации кода, где AI агент меняет файл, проверяет результат и сохраняет изменения, если стало лучше. Автор видео применил этот подход к контенту: файл — это промпт для генерации видео, а метрика успеха — реальные просмотры из соцсетей. Вместо того чтобы гадать, какой хук сработает, система проводит сотни микро-экспериментов, обучаясь на «живом» трафике.
Выгода: Экономия сотен часов на аналитике и копирайтинге; рост охватов за счет математически выверенной эволюции промптов (у автора — улучшение на 11% за короткий срок).
Как применить:
Шаг 1: Определите "Trainable" файл — Это ваш системный промпт в формате .txt или .json, который отвечает за структуру сценария.
Шаг 2: Настройте сбор данных — Используйте Meta Graph API для выгрузки статистики просмотров последних 200 рилсов.
Шаг 3: Создайте цикл оптимизации — Напишите скрипт, который сравнивает промпт "победителя" с промптом "проигравшего" и просит LLM (Claude/GPT) синтезировать новую, улучшенную версию.
2. Построение объективного Eval (Системы оценки)
Контекст: Главная ошибка — просить AI оценить контент «на глаз» (визуально или по ощущениям). Для работы Auto Research нужны бинарные критерии (Да/Нет). Система должна проверять сценарий по жесткому чек-листу из 10 пунктов, которые коррелируют с виральностью. Это превращает субъективное творчество в измеримый код.
Выгода: Исключение галлюцинаций AI и получение стабильного "Score", который можно использовать в коде.
Как применить:
Шаг 1: Сформулируйте 10 бинарных вопросов — Gemini или Claude должны отвечать только "1" или "0".
Пример промпта для оценки (Eval):
Проанализируй сценарий видео и ответь строго "Да" или "Нет" на следующие вопросы:1. Хук описывает конкретный результат/трансформацию, а не просто функцию?2. В первом кадре есть человек или захватывающий визуальный ряд?3. Сценарий избегает формата "пресс-релиза" или списка обновлений?4. Есть ли в конце четкий призыв к действию, связанный с темой?[Добавьте еще 6 своих критериев]Выдай результат в формате JSON: {"score": X, "answers": {...}}
Шаг 2: Корреляция — Сравните высокий балл от AI с реальными просмотрами. Если видео с баллом 10/10 набирает мало просмотров, значит, нужно менять сами вопросы в Eval.
3. Технический стек и архитектура петли обратной связи
Контекст: Система работает на связке Python, Airtable и n8n. Каждый день в 8:00 утра запускается скрипт, который подтягивает данные из Meta API, обновляет базу в Airtable и запускает процесс самосовершенствования промптов.
Выгода: Полная автономность. Система сама понимает, что "wow-фактор" и демо-версии софта работают лучше, чем просто советы по продуктивности, и автоматически смещает фокус генерации.
Как применить:
Шаг 1: База данных — Используйте Airtable для хранения сценариев, ссылок на видео и их метрик (views, likes).
Шаг 2: Автоматизация — Настройте n8n workflow, который принимает новый промпт через API и генерирует 5 видео.
Шаг 3: Запуск по расписанию — На Mac используйте launchd, на Linux — cron для ежедневного запуска Python-скрипта.
Команда для проверки логов (пример):
# Просмотр истории изменений промптов в JSON логеcat auto_research_prompt_history.json | jq '.revisions[] | {date: .date, changes: .summary}'
4. Эволюция промпта: от анонса к "Curiosity Trigger"
Контекст: В процессе работы система прошла 5 крупных ревизий за 2 дня. Сначала промпты создавали скучные описания обновлений. AI заметил, что это не смотрят, и начал добавлять "life-altering language" (язык, меняющий жизнь), делать хуки более драматичными и универсальными, уходя от узких тем к "секретам, которые скоро раскроются".
Выгода: Вы получаете промпт, который "отполирован" тысячами реальных просмотров, а не просто вашим мнением.
Пример структуры промпта, к которой пришел AI:
### Content Engine V2.1- **Hook Framing:** Sharpened with "Secrets about to be revealed"- **Tone:** Dramatic, universal, timeless discoveries- **Constraint:** Word budget < 150 words- **Visual Instructions:** High-contrast demos only
FAQ
В: Можно ли запустить это без навыков программирования? О: Полностью — нет, так как требуется работа с API и Python-скриптами. Однако можно использовать n8n для визуального программирования большей части логики, а для написания самого скрипта оптимизации использовать Claude Code или Cursor.
В: Сколько стоит работа такой системы? О: Основные затраты — это API токены (Gemini/Claude) и инструменты генерации видео (например, HeyGen или аналоги). Meta Graph API бесплатен. В среднем, поддержка такой петли обходится в $50-200 в месяц в зависимости от объема видео.
В: Что если AI начнет генерировать плохой контент ради просмотров? О: Для этого в системе предусмотрен этап "Human Approval". Человек (или ассистент) тратит 5 минут в день, чтобы нажать "Одобрить" или "Отклонить" в Airtable. AI обучается на этих отказах так же, как и на просмотрах.
В: Какие соцсети поддерживают такую автоматизацию? О: В видео реализовано для Instagram и Facebook через Meta Graph API. Аналогично можно настроить для YouTube Shorts (через YouTube Data API) и TikTok (через TikTok Research API).
В: В чем главная ценность системы, если я решу сменить модель AI? О: Как сказал Карпати, самая большая ценность — это Research Log (лог исследований). Это история всех изменений промпта и реакция аудитории на них. Новая, более мощная модель (например, GPT-5) сможет прочитать этот лог и сразу начать с высшей точки эффективности, не повторяя ошибок прошлого.
Конспект создан на основе видео «I Built a Self-Improving AI Content Machine (Auto Research)» канала Jesse Manser. Все права на оригинальный материал принадлежат авторам.Источник: https://youtu.be/vjJwgXsMfjM?si=xBLF0ttkbu01iRnF