Про то, как нейросети помогли быстро создать систему управления influence-маркетингом, которая позволила сэкономить 3-5 минут на каждом размещении, убрать задержки в работе и человеческий фактор, а также красиво визуализировать данные.

Последние месяцы активно занимаюсь продуктом EasyFit AI — Telegram-ботом для контроля питания по фото. Основной канал нашего продвижения сейчас — influence-маркетинг через блогеров.

И столкнулись мы с типичной проблемой: когда количество размещений растёт, ручное ведение кампаний в таблицах превращается в узкое место.

Сегодня поделюсь практичным кейсом: как за 20 часов создал систему управления кампаниями с блогерами. Раньше всё велось в Google Таблицах, теперь — автоматизация процессов и экономия времени на каждом размещении.

В июльскую кампанию импортировал июльские размещения, а выше уже то, что запланировали на сентябрь — там 5 кампаний, сгруппированных по сегментам блогеров
В июльскую кампанию импортировал июльские размещения, а выше уже то, что запланировали на сентябрь — там 5 кампаний, сгруппированных по сегментам блогеров

Проблема: когда таблицы становятся узким местом

В EasyFit AI мы активно тестируем influence-маркетинг. Начинали с 10-20 размещений в месяц при бюджете около 50 тысяч рублей. Сейчас масштабируемся до 50-100 размещений при бюджете 250+ тысяч рублей.

Старый процесс выглядел так:

  1. Менеджер подбирает блогеров → мой партнёр согласовывает

  2. Менеджер договаривается с блогером, берёт реквизиты → передаёт на оплату

  3. Я вручную вбиваю платёж в банк и отправляю → отправляю подтверждение оплаты

  4. Менеджер запрашивает UTM-ссылку → мы даём через несколько часов (иногда на следующий день)

  5. Блогер выпускает пост

  6. Менеджер через неделю вручную вбивает статистику в Google Таблицы

  7. Потом повторно обновляет статистику через несколько недель

При малых объёмах это отлично работало, но с ростом количества кампаний становятся более критичными три проблемы:

Человеческий фактор: ошибки при переносе UTM-ссылок, дублирование платежей, неточности в статистике.

Задержки: ожидание UTM-ссылок затягивало запуск, ручной сбор статистики откладывал анализ результатов.

Время: на каждое размещение уходило лишние 3-5 минут на рутину, которую оказалось легко автоматизировать.

С ростом количества кампаний такой подход становится всё менее эффективным. К тому же анализировать эффективность разных сегментов блогеров в совокупности с эффективностью разных ТЗ по каджому сегменту в таблицах становится довольно затруднительно.

Буду тут эпизодически вставлять элементы интерфейса, чтобы было понятно о как это выглядит
Буду тут эпизодически вставлять элементы интерфейса, чтобы было понятно о как это выглядит

Решение: система аналитики для блогеров

Решил создать простую систему управления кампаниями, которая автоматизирует основные процессы:

Что получилось:

  • Автогенерация UTM-ссылок при согласовании блогера

  • Уникальные платежи без риска дублирования

  • Автоматическая синхронизация статистики в реальном времени

  • Автоматическое формирование платежей в банке

  • Аналитика по тематикам и эффективности размещений

Прошу прощения за чёрные квадраты — скрины делаю из админки с реальными данными
Прошу прощения за чёрные квадраты — скрины делаю из админки с реальными данными

Новый процесс:

  1. Менеджер подбирает блогеров → кофаундер согласовывает в интерфейсе

  2. UTM-ссылка генерируется автоматически

  3. Менеджер вбивает реквизиты в систему → платёж появляется в банке

  4. Я подписываю платежи пачкой

  5. Статистика синхронизируется с основным сервисом автоматически, а результаты наглядно видны в разрезе кампаний, блогеров, технических заданий и даже отдельных тематик каналов блогеров

Как это делалось: процесс разработки с ИИ

Стек и подход

Выбрал максимально знакомый для себя стек: Django + PostgreSQL + Redis + Celery. Причина простая — при возникновении проблем смогу быстро вклиниться в работу нейросети и исправить.

Основные инструменты:

  • Cursor

  • Claude Code

  • Perplexity Labs

Этапы работы

День 1: Планирование и начало реализации

Начал с описания идеи в Cursor. Попросил GPT-5 задать уточняющие вопросы, затем он составил подробную спецификацию. На планирование с подбором дизайна ушло час-два, после чего сразу приступил к реализации.

Задачи формировал в несколько этапов:

  1. Основная логика (модели, админка)

  2. Интеграция с UTM-аналитикой основного сервиса

  3. Интеграция с Т-Банком для платежей

Для понимания приведу пример документа, который у меня получился при планировании интеграции с основным сервисом для синхронизации статистики. Сначала при помощи нейросети я детализировал задачу, а затем разбил её на 2 промпта — один закинул в основной сервис для разработки нужного метода API, а второй уже для нового сервиса.

День 1-3: Основная разработка

Писал чисто промптами, в код практически не залезал. Cursor отлично справлялся с типовыми задачами Django-разработки.

Для сложных задач использовал интерфейс Cursor, для мелких правок — Claude Code. Cursor не так давно стал дороговат, а у меня давно есть подписка от Anthropic, так что теперь использую оба инструмента.

День 4-5: Интеграции и финальная доработка

Делал интеграцию с основным сервисом EasyFit и API банка. Здесь пришлось больше контролировать процесс и иногда дебажить вручную.

Ну и потом всё это прихорашивал, чтобы нужные данные были в нужных местах. Здесь не обошлось без багов, но нейронки справлялись за 1-2 промпта, так что лезть в код не приходилось.

Единственная трудность

Я лепил это всё в директории основного сервиса, в результате чего заметил, что Claude Code в некоторых задачах сильно тупил, когда я открывал его из корневой директории основного проекта. Например, пытался применять миграции Django из основного сервиса. Всё прошло, когда я начал открывать Claude Code из директории конкретно разрабатываемого сервиса.

Конкретные результаты

Оптимизация процессов

  • Время на размещение: сократил 3-5 минут на размещение, что на объёме в сотни размещений скажется довольно приятно

  • Задержки в процессе: сократил цикл с момента планирования размещения до анализа результатов минимум на пару дней

  • Человеческие ошибки: практически исключены

Новые возможности

Аналитика по тематикам: Теперь можем группировать результаты по нишам блогеров и видеть, какие дают лучший ROMI. В таблицах такой анализ занимал бы часы ручной работы.

A/B тестирование ТЗ: Планируем тестировать разные варианты технических заданий для блогеров — например, с упором на ценность похудения или упоминанием старых конкурентов.

Масштабируемость: Система легко выдержит рост до сотен размещений в месяц без увеличения количества сотрудников.

Что работает автоматически, а раньше делалось вручную

  • Генерация уникальных UTM-ссылок при согласовании

  • Оплата платежей в банке в один клик

  • Синхронизация статистики переходов и конверсий в реальном времени

  • Группировка аналитики по тематикам и блогерам

Дизайн за 5 минут

Отдельно, думаю, стоит упомянуть про дизайн. Если не задать какой-то стиль, то нейросети с большой вероятностью сгенерируют что-то не очень привлекательное. Поэтому для генерации референсов я использовал Perplexity Labs:

  1. Попросил придумать современный дизайн для системы управления кампаниями

  2. Выбрал понравившийся референс

  3. Скинул его агентам-разработчикам

Можно было бы сделать как-то более продуманно, но результат меня устроил, поэтому решил дальше не усердствовать.

Выводы

Подобная автоматизация стоит того, когда можно сделать её быстро. Если бы эта система требовала месяцы разработки, я бы даже не думал о ней. Но когда весь проект — вопрос 20 часов, то определённо стоит попробовать. Так что вайб-кодинг открывает новые возможности, которые стоит учитывать.

Если дальше усложнять систему, то она определённо потребует рефакторинга и полного погружения в код, но на данном этапе всё работает хорошо и пока этого не потребовалось.

Для тех, кто хочет попробовать:

  1. Выбирайте знакомый стек — при проблемах сможете быстро исправить

  2. Начинайте с детального описания задачи — попросите ИИ задать уточняющие вопросы

  3. Разбивайте на этапы — не пытайтесь сделать всё в одном промпте

Минимальные навыки: Достаточно базового понимания выбранного фреймворка. Если что-то непонятно — спрашивайте у нейросети детали.


Обо мне: Делаю стартапы с 2018 года, активно использую нейросети в разработке. О том, как использую нейросети в жизни и создаю продукты с минимальным бюджетом, рассказываю в своём телеграм-канале.

Мои проекты:

  • Buyer — метамаркетплейс брендовых кроссовок с выручкой в десятки миллионов

  • EasyFit AI — Telegram-бот для контроля питания по фото