Первая статья из цикла «Как мы делали TiROBOTS» — история создания платформы автоматизации контента с AI, от идеи до продакшена. Один разработчик, один AI-напарник, ноль инвесторов.


Предыстория: боль, знакомая каждому

Осень 2025 года. У меня есть Telegram-канал, и я знаю, что для его роста нужна регулярность. Три поста в неделю, стабильно, месяцами. Звучит просто — пока не начинаешь делать.

Написать текст. Подобрать картинку. Отредактировать. Запланировать публикацию. Повторить. И так каждый день, параллельно с основной работой.

Через месяц я понял: либо я нанимаю SMM-менеджера, либо автоматизирую процесс. Нанимать кого-то для канала на 200 подписчиков — абсурд. А вот автоматизировать...

У меня 10+ лет в разработке, опыт интеграции AI-моделей. Почему бы не сделать систему, которая будет вести канал за меня?


Идея: не генератор текстов, а AI-редакция

Первая мысль была банальной: бот, который генерирует тексты по промпту и постит в канал. Таких уже десятки на рынке.

Но настоящая проблема не в генерации текста. Настоящая проблема — в управлении контентом. Когда публиковать? Какую тему выбрать сегодня? Чередовать развлекательный и полезный контент? Следить за новостями в нише? Добавлять брендированные иллюстрации?

Так родилась концепция AI-редакции:

Пользователь описывает свой канал. Главный редактор анализирует аудиторию и создаёт медиаплан: расписание на неделю, темы, стили. Роботы-исполнители получают задания и работают автономно — Креативщик генерирует тексты, Аналитик парсит новости, система автоматически публикует по расписанию.

Это уже не «генератор текстов». Это полноценная редакция, только вместо людей — AI-роботы.

Пример: как это выглядит для кофейни

Представьте: у локальной кофейни есть Telegram-канал. Владелец регистрируется, описывает бренд. Главный редактор AI создаёт план на неделю:

  • Понедельник 9:00 — обучающий пост про методы заваривания

  • Вторник 14:00 — новости кофейной индустрии (робот-аналитик парсит профильные сайты)

  • Среда 10:00 — юмористическая история из жизни бариста

  • Четверг 18:00 — рецепт авторского напитка с AI-иллюстрацией

Владелец одобряет — и всё. Роботы работают, канал живёт, контент выходит. Без ежедневной рутины.


Почему один? Потому что AI изменил правила

В 2024–2025 годах произошла тихая революция: AI перестал быть инструментом и стал напарником. Раньше один разработчик мог сделать лендинг или простой CRUD. Теперь один разработчик с AI может построить полноценную микросервисную платформу.

Я не искал сооснователей и инвесторов. Не потому что не верю в команды — просто для стартапа на ранней стадии скорость принятия решений важнее числа рук. А с AI у меня и так достаточно «рук».

Мой напарник — Claude (сначала Sonnet, потом Opus). Вот что он делает:

  • Архитектурные решения — обсуждаем trade-offs, выбираем подходы

  • Кодинг — пишет ~80% кода, я ревьюю и направляю

  • Дебаг — анализирует логи, находит root causes

  • Документация — CLAUDE.md на 1000+ строк, который растёт с проектом

  • Тестирование — 240+ unit-тестов, E2E через Playwright

Это не «я и ChatGPT». Это полноценное парное программирование, где AI помнит контекст проекта (через CLAUDE.md и memory), знает архитектуру, конвенции кода и историю решений.


Выбор стека: минимум зависимостей, максимум контроля

Принцип: ноль системных зависимостей

Одно из первых архитектурных решений — всё через npm install. Никакого Redis, RabbitMQ, PostgreSQL. Один сервер, один npm install, готово.

Звучит как ограничение? На самом деле — это свобода. Вот что получилось:

Компонент

Выбор

Почему

Frontend

Vue 3 + Tailwind

Composition API, быстрый, знакомый

Backend

Strapi 5

CMS из коробки, REST API, админка

БД

SQLite

Встроенная, без сервера, файл на диске

Очередь задач

SQLite Queue (свой)

Заменил RabbitMQ — 0 зависимостей

Process Manager

PM2

14 микросервисов на одной машине

AI

MiniMax, YandexGPT, Replicate

Мультимодельность с fallback

SQLite Queue — решение, которым горжусь

Самый нетипичный выбор — своя очередь задач на SQLite вместо Redis/RabbitMQ. Один файл queue.db, WAL mode для параллельного доступа, polling каждые 200ms.

Зачем? Потому что для одного сервера Redis — это overhead. А SQLite:

  • Ноль конфигурации

  • Работает из коробки

  • Данные в одном файле (легко бэкапить)

  • WAL mode позволяет параллельное чтение/запись

Через эту очередь проходят все задачи: генерация текстов, создание изображений, публикация в каналы, парсинг новостей. Каждый микросервис — отдельный worker.

14 микросервисов? Серьёзно?

Да. publisher-tg, publisher-vk, text-generator, image-generator, analyst-parser, brand-analyzer, robot-scheduler, post-scheduler, tg-bot, dialog-agent, dialog-analyzer, modelmanager, strapi-mcp, msgtoadmin.

Почем�� не монолит? Потому что каждый сервис решает одну задачу и может упасть, не утянув за собой остальных. text-generator завис на MiniMax API? Публикации продолжают работать. publisher-tg получил rate limit от Telegram? Генерация текстов не страдает.

PM2 управляет всем: автоперезапуск, логи, мониторинг. Один pm2 list — и видишь здоровье всей системы.


Мультимодельный AI: не кладём все яйца в одну корзину

Одна из ранних ошибок стартапов на AI — зависимость от одного провайдера. API упал? Лимиты кончились? Модель деградировала после обновления? Весь продукт встаёт.

Мы изначально заложили мультимодельность:

  • Генерация текста: MiniMax M2.5 (primary) → YandexGPT Pro 5.1 (fallback)

  • Диалоговый агент: YandexGPT Pro 5.1 (быстрый, 600ms) → MiniMax M2.5 (надёжный)

  • Генерация изображений: Replicate flux.1-dev → MiniMax image-01

  • Анализ: MiniMax M2.5 → YandexGPT

Переключение автоматическое: circuit breaker отслеживает ошибки, при превышении порога — fallback на следующего провайдера. Пользователь не замечает ничего.

ModelManager — отдельный микросервис для управления: конфигурация провайдеров, routing rules, метрики, health checks. Всё через админку, без правки кода.


Что дальше

Это была предыстория. В следующих статьях расскажу:

  • Как я создал двух AI-агентов — Васю и Петю — и заставил их спорить о будущем продукта

  • Как устроена архитектура из 14 микросервисов на одном сервере

  • Как прошёл первый деплой (спойлер: ночью, с кофе, четыре бага)

  • Как за 5 дней мы выпустили 56 релизов и стабилизировали платформу

  • Как AI-агент R11 поселился на production-сервере

А потом из их споров родились фичи, которые сейчас работают в продакшене.


TiROBOTS — платформа автоматизации контент-маркетинга. Попробуйте бесплатно на tirobots.ru.