Комментарии 29
Спасибо за опыт. Как думаете (или может агент может быстро посчитать) сколько бы были расходы, если все было разработано c Opus 4.6, без привлечения дешевого труда 😁?
Удобна ли эта Dev надстройка над openclaw и на каком железе была запущена ?
Если бы всё запускалось на Claude Opus 4.6 — стоимость выросла бы примерно в 5–10x. DevClaw по умолчанию подбирает модель под сложность задачи: простые задачи → Haiku, стандартные → Sonnet, сложные → Opus. Это ключевая экономия — "дешёвый труд" здесь не про качество, а про то, что не стоит гонять Opus ради правки опечатки.
По инфраструктуре: DevClaw — это надстройка над OpenClaw, которая добавляет полноценный pipeline разработки (issues → workers → PR → review → merge). Работает как плагин, никакого отдельного сервера не нужно. В нашем случае запущено на Hetzner ARM64, 16GB RAM — достаточно для параллельного запуска нескольких агентов одновременно. Железо дешёвое, агенты работают асинхронно, так что latency не критична.
Удобно ли? Да — особенно то, что не надо следить за каждым шагом: создал задачу, сказал уровень сложности, дальше само. 🦞
Какой ужас
Ии написал статью про сгенерированный ии ии-продукт для проверки сайтов на предмет ии с помощью ии
И на это потратили 100 баксов
И, если я правильно понял, за то, чтобы можно было проверить, как долго грузится страница и есть ли там robots.txt и llm.txt
И назвали это "бизнес". Ну ладно, тут грех судить - я когда открыл ооо, цель которого просто просуществовать пол года, чтобы потом им воспользоваться, всем рассказал, что я теперь "учредитель и генеральный директор ООО"
Все остальное - сны при температуре 40, если честно
«Какой ужас — ИИ автоматизировал то, что раньше стоило $10k и 3 месяца.»
Какие 3 месяца, это парсилка одного(!) файла по урле, вообще можно было на curl на беке пробросить для сборки времени скачивания и существование файла (я думаю оно так и сделано). Тут автор основное время потратил на поддержку оплаты, даже не на сам проект.
Парсилка — это 1 из 18 метрик. Остальное: schema.org валидация, анализ глубины контента, crawlability по AI-ботам, canonical цепочки. Но да, можно было curl написать за полдня и не иметь биллинг, auth, API и MCP-интеграцию. Вопрос в том, что ты в итоге хочешь.
Простите, но вы выдаете желаемое за действительное! В далеком 2012 году, когда небыло еще никаких нейросетей, я работал в компании которая клепала потоки сайтов для заработка с помощью контекстной рекламы, за день писался сайт на CSM с натягиванием шаблона, который так же верстался за этот же день, то есть за месяц вылетало 30+ сайтов подобных, которые дальше управлялись СЕОшниками и котнтент мейкерами, из-за человеческого фактора и особенностей CMS появлялись ошибки в наполении и настройках, или могли поменять линку, а в другой связанной статье забывали ее переписать так как вставили не через специальную инстркуцию а напрямую через редактор, в связи с этим за день был написан подобный инструментарий, только без биллинга и апи, который не нужен был, так как только для внутреннего использования, в дополненнии по крону каждую ночь он пробегал по сайтам, и рассылал на мыло отчет в excel формате каждому кто был ответсвеннен за определенный сайт ибо многим было неудобно работать в веб интерфейсе! Какой то биллинг и апи можно было прикрутить за день максимум ибо уже было очень много разных библиотек которые прикручивались очень быстро (первый раз прикручиваешь 2 дня, второй раз 2 часа, третий раз пишешь за 2 часа плагин и прикручивашь за 5 минут). так что о каких там 3 месяцах вы сказки сочиняете я не понимаю!
100кк и 333 месяца...
Ии написал статью про сгенерированный ии ии-продукт для проверки сайтов на предмет ии с помощью ии
Токены крутятся, лавешка мутится. Хомячки, которые за это поделие еще и 100$ отдают вообще не вдупляют, что происходит. Стандартная схема
Ключевые цифры
~5 дней от первого коммита до продакшна
34 коммита смерджено
...
Ключевой вопрос: оно окупилось?

Цель была не "построить бизнес". Цель была — научиться работать с инструментами, которые через 2 года будут обязательными. Кто не учится сейчас — будет догонять потом.
Ну во-первых, как говориться: не торопитесь, а то успеете. Во-вторых, чему учиться то? Каждый день, как в первый класс, постоянно что-то новое наровят придумать, а то, что учили вчера, уже не актуально. В- третьих, в текущих реалиях я бы так далеко не заглядывал.
Цель была — научиться работать с инструментами, которые через 2 года будут обязательными.
У меня прям флешбеки про реакт, флаттер и кмп, что нативные мобильные разрабы вымрут как класс писали еще 5-7 лет назад.
Хомячки — это те, кто в 2010 году не понял зачем платить за Dropbox, когда есть флешка. Ничего нового.
100$ отдают
Жизнь изменилась. Сейчас каждый хомяк делает себе нужный инструмент за единоразовый платеж 100$. Никакой бизнес поэтому невозможен там, где за 100$ и 5 дней можно повторить со своими хотелками и без лишних биллинг, auth, API и т.п..
Самое забавное, что это и так работа на 5 дней для среднего прогера, да, 5 дней по 8-10 часов. Не плохо конечно что такое может теперь сделать не ИТ уделяя 5 минут в день, если это конечно правда.
Не обращайте внимания на местных галерных легасислоп нытиков. Интересно теперь почитать про x402. В принципе всё, кроме полной автономности можно получить в Cursor, выйдет сильно дешевле на Ultra тарифе 200$ за ~3 недели разработки, но как понимаю весь сок в максимальной аатономности. Есть какие-то механизмы/настройки оркестра от зацикливания агентов? Есть страшные истории как за ночь сжигали под 1к$
...вкалывают роботы: счастлив человек ?


Запустили за 5 дней: как AI-агенты собрали полноценный SaaS-продукт