Создай изображение на основе загруженной фотографии, которое представит объект в виде сверхдетализированного 3D-эскиза графитным карандашом на текстурированной белой бумаге из блокнота. Подчеркни четкую текстуру бумаги, едва заметные несовершенства и естественные волокна поверхности. Покажи, как объект активно рисует, держа карандаш в руке, пока эскиз оживает. Добавь ластик, точилку и разбросанные карандашные стружки на странице. Добавь реалистичные тени, разводы и мелкие частицы графита вокруг рабочей области, чтобы усилить ощущение ручной работы и тактильность изображения.
К сожалению на других моделях результат совсем плохой (там просто выходят другие люди в очень примитивной стилизации). Только на GPT удалось сделать такое.
Да, вы правы — такие инструменты были и есть. DAP я тоже помню, и идея показывать процесс рисования во времени там действительно классная, это добавляет ощущение «ручной работы».
В моём случае фокус немного в другом: не столько в том, как рисуются мазки, сколько в том, какое художественное решение вообще выбрать. Ассистент сначала пытается понять образ — что здесь важнее, где упростить, где усилить, какую технику это лучше всего выразит — и только потом формирует сам запрос на картину.
То есть это не замена таким программам, а скорее попытка сместить акцент с визуального эффекта на художественное мышление перед рисованием.
Спасибо за ремарку про Windows. Я сам уже давно живу на macOS, поэтому руками все боли PowerShell + Codex CLI не ощущаю, но от коллег похожие истории слышал. Для человека, который просто хочет попробовать подход "спека → ИИ → код", действительно логичнее начать вообще без CLI: через веб-интерфейс GPT, где Codex выступает как инструмент. Логика та же самая, но без танцев с оболочкой. А если хочется уже "робота внутри репозитория", который ходит по файлам и гоняет команды, тогда да — либо WSL, либо отдельный Linux-контейнер/хост.
Про Spec Driven Development полностью согласен, по сути это оно и есть, только с ИИ в роли того, кто помогает вытянуть вменяемую спецификацию из головы и потом по ней кодить.
Task Master AI MCP пока не щупал, спасибо за наводку. Сейчас как раз экспериментирую с разными тулзами вокруг этого подхода, обязательно посмотрю, как там организован цикл задач и чем он отличается от моей "ручной" схемы.
Я пробовал Claude Code, да, он вполне ок и местами, возможно, даже ощущается поудобнее.
Но у меня сейчас всё крутится вокруг продуктов OpenAI: корпоративный тариф уже оформлен, настроена куча ассистентов, есть обвязка под проекты, интеграции, свой опыт работы именно с их стеком. В такой ситуации брать ещё отдельную подписку под Claude Code, чтобы по сути дублировать те же сценарии в другом интерфейсе, я для себя смысла не вижу.
Скорее углубляюсь дальше в экосистему OpenAI – assistants, инструменты, интеграцию во внутренние процессы – чем развожу зоопарк из нескольких платных решений, которые делают примерно одно и то же. Но если человек живёт в антропиковском стеке, то для него Claude Code, скорее всего, и правда будет самым удобным вариантом.
Кажется, я ваш вопрос в прошлый раз немного не так понял, сорри.
Если речь про вариант "вообще не писать скрипт, а просить нейросеть самой пройтись по проекту и собрать JSON", то я так просто не делаю из-за большого расхода токенов, поэтому прям точных цифр у меня нет. Я как раз пошёл от обратного: локальный PHP-снимок без токенов, а уже потом ИИ для анализа.
Если вы имели в виду что-то другое, напишите, пожалуйста, чуть точнее, чтобы я ответил по делу.
Спасибо за развёрнутый коммент, реально есть с чем согласиться.
По безопасности: этот скрипт я вообще не подразумеваю как штуку "повесили на прод и пусть все ходят". В реальной жизни я им пользуюсь на локалке или на сервере разработки. На боевых проектах не запускаю. Плюс там есть защита от совсем уж классического косяка: с паролем по умолчанию авторизоваться нельзя, он просто не пустит, пока не поменяете. Для битрикс-проектов ещё и используется стандартная авторизация Битрикса, то есть сам скрипт доступен только админам. А дальше уже по ситуации можно хоть за VPN его прятать, хоть под http-auth.
Про IDE/агентов я с вами в целом не спорю. В идеальном мире, который вы описываете, я тоже за то, чтобы был один проект, нормальная структура, живая дока в md и agents.md, а Copilot/Cursor всё это видел и сам грепал. Под такой сценарий у меня есть отдельная линия статей и репозиторий с workspace и кастомными агентами.
scan2json решает другую, более приземлённую задачу. Мы много работаем с php-проектами (Bitrix, Laravel) в окружениях без Node и без нормального CLI, где до "агентского рая" ещё далеко, а вот живой код на сервере уже есть. В таких случаях удобно один раз "щёлкнуть" проект этим скриптом, получить JSON/JSONL со срезом именно того, что реально крутится, и уже этот снимок отдать GPT/агентам/своим сервисам. То есть он не заменяет автоматизм агентов, а даёт им сырьё там, где никакого agents.md и репомикса пока просто нет.
Хороший вопрос, я бы сказал, что это не "лучше", а просто под другой стек и сценарий.
repomix классный, если живешь в мире git + Node + CLI, и нужен инструмент "упаковать репозиторий для ИИ".
У меня немного другой контекст - мы делаем готовые веб-решения на Bitrix и Laravel и сознательно живем в php-стеке без Node/SSR. Частый кейс - прод или стейджинг, где есть только php и браузер, без node, без удобного терминала.
Под это я и делал scan2json:
это обычный php-скрипт, который можно закинуть прямо на сервер и снять снимок именно "живого" проекта, а не только того, что лежит в git
управляется через веб-интерфейс - можно выбрать корень, отрезать лишние папки, скачать json/jsonl, не заходя в консоль
плюс есть обратная сторона с restore.php - можно из снимка собрать отдельную копию модуля или проекта для экспериментов или передачи подрядчику
То есть если у вас уже выстроен процесс вокруг repomix и Node - вообще ок, он решает свою задачу. scan2json я делал под другой мир - php/Bitrix/Laravel без Node, когда нужно снять и отдать срез кода прямо с сервера через браузер.
Сам скрипт как раз работает без участия ИИ и без токенов. Это обычный PHP: он локально проходит по файловой системе и сохраняет срез проекта в JSON/JSONL.
Модель подключается уже на следующем шаге, когда я готовый снимок передаю в чат. Чат у меня по подписке, обычно использую gpt-5.1 thinking (extended) — её хватает, чтобы спокойно переваривать довольно большие объёмы кода.
То есть ИИ не «делает работу скрипта». Наоборот: скрипт снимает рутину по обходу файлов, чтобы токены тратились уже на анализ и планирование, а не на то, что проще и дешевле сделать на стороне PHP.
Вы очень точно нащупали идею «сначала структура, потом код».
В этом посте я показываю более низкий уровень — как дать модели снимок проекта в виде JSON/JSONL. А дальше поверх этого хорошо ложится как раз то, о чём вы пишете: формализованная модель в файлах, с которыми ИИ сверяется перед изменениями.
В отдельной статье я как раз разбираю подход, где перед кодом мы строим для Copilot набор структурированных артефактов: ТЗ, домен, архитектуру, план батчей, pipeline в JSON/YAML, и только потом подключаем «строителя кода». Это вот здесь: https://habr.com/ru/articles/972648/
Так что ваше «пусть модель сначала описывает структуру/изменения в JSON, а потом кодит» — это очень в том же духе, просто я раскладываю это на несколько файлов и этапов вместо одного большого JSON.
У меня сейчас два разных сценария вайб-кодинга. В первом — работа через VS Code и агентов Копилота, там дополнительный скрипт не нужен: агенты и так видят проект и работают по своим правилам. Про это у меня уже есть отдельная статья: https://habr.com/ru/articles/972648/.
Во втором сценарии я разделяю роли: GPT в браузере разбирает архитектуру, формулирует ТЗ и план действий, а Codex в VS Code этот план уже реализует. Codex видит репозиторий, а вот GPT нужно как-то дать такой же контекст — здесь как раз пригождается scan2json, который превращает проект в JSON/JSONL и становится «мостиком» между GPT (планирует) и Codex (пишет код по ТЗ).
Сравнения с «чистым» IDE-подходом как раз планирую вынести в отдельную статью по связке GPT + Codex, там будет больше практики именно в этом разрезе.
Отдельный плагин для популярных IDE пока не планирую: сами IDE-помощники (Copilot, Codex и т.п.) хорошо закрывают сторону «видеть код и помогать писать». Задача scan2json другая — дать внешний переносимый снимок проекта, с которым удобно работать уже вне IDE (GPT, свои сервисы, RAG и т.д.), поэтому поверх существующих плагинов городить ещё один не вижу большого смысла.
Да, ChatGPT использовался как инструмент для редактирования и структурирования текста. Все идеи, логика и примеры изначально были моими, а модель просто помогла привести материал в более удобочитаемый формат. Надеюсь, получилось хорошо )
Именно голосом мне нужно было чтобы по английскому помог (общение, практика). Потому что сама Алиса очень плоха в этом. Но надо учитывать что голоса для навыков заточены под русский язык и у них в английском есть акцент.
Отвечает сразу, но там есть у самой системы навыков технические ограничения. Если ответ не придёт в течении 3-х секунд, то он не ответит. Поэтому лучше использовать более быстрые модели, например gpt-4o-mini
Информация
В рейтинге
994-й
Зарегистрирован
Активность
Специализация
Технический директор, Архитектор программного обеспечения
На днях натолкнулся на похожий проект от команды github. Возможно кому-то будет интересно https://github.com/github/spec-kit
Идея пошла от этого промта:
Создай изображение на основе загруженной фотографии, которое представит объект в виде сверхдетализированного 3D-эскиза графитным карандашом на текстурированной белой бумаге из блокнота. Подчеркни четкую текстуру бумаги, едва заметные несовершенства и естественные волокна поверхности. Покажи, как объект активно рисует, держа карандаш в руке, пока эскиз оживает. Добавь ластик, точилку и разбросанные карандашные стружки на странице. Добавь реалистичные тени, разводы и мелкие частицы графита вокруг рабочей области, чтобы усилить ощущение ручной работы и тактильность изображения.
Источник: https://www.iphones.ru/iNotes/hochesh-svoj-portret-karandashom-odin-promt-i-krasivyj-sketch-bez-hudozhnika-gotov
К сожалению на других моделях результат совсем плохой (там просто выходят другие люди в очень примитивной стилизации). Только на GPT удалось сделать такое.
Да, вы правы — такие инструменты были и есть. DAP я тоже помню, и идея показывать процесс рисования во времени там действительно классная, это добавляет ощущение «ручной работы».
В моём случае фокус немного в другом: не столько в том, как рисуются мазки, сколько в том, какое художественное решение вообще выбрать. Ассистент сначала пытается понять образ — что здесь важнее, где упростить, где усилить, какую технику это лучше всего выразит — и только потом формирует сам запрос на картину.
То есть это не замена таким программам, а скорее попытка сместить акцент с визуального эффекта на художественное мышление перед рисованием.
Спасибо за ремарку про Windows. Я сам уже давно живу на macOS, поэтому руками все боли PowerShell + Codex CLI не ощущаю, но от коллег похожие истории слышал. Для человека, который просто хочет попробовать подход "спека → ИИ → код", действительно логичнее начать вообще без CLI: через веб-интерфейс GPT, где Codex выступает как инструмент. Логика та же самая, но без танцев с оболочкой. А если хочется уже "робота внутри репозитория", который ходит по файлам и гоняет команды, тогда да — либо WSL, либо отдельный Linux-контейнер/хост.
Про Spec Driven Development полностью согласен, по сути это оно и есть, только с ИИ в роли того, кто помогает вытянуть вменяемую спецификацию из головы и потом по ней кодить.
Task Master AI MCP пока не щупал, спасибо за наводку. Сейчас как раз экспериментирую с разными тулзами вокруг этого подхода, обязательно посмотрю, как там организован цикл задач и чем он отличается от моей "ручной" схемы.
Я пробовал Claude Code, да, он вполне ок и местами, возможно, даже ощущается поудобнее.
Но у меня сейчас всё крутится вокруг продуктов OpenAI: корпоративный тариф уже оформлен, настроена куча ассистентов, есть обвязка под проекты, интеграции, свой опыт работы именно с их стеком. В такой ситуации брать ещё отдельную подписку под Claude Code, чтобы по сути дублировать те же сценарии в другом интерфейсе, я для себя смысла не вижу.
Скорее углубляюсь дальше в экосистему OpenAI – assistants, инструменты, интеграцию во внутренние процессы – чем развожу зоопарк из нескольких платных решений, которые делают примерно одно и то же. Но если человек живёт в антропиковском стеке, то для него Claude Code, скорее всего, и правда будет самым удобным вариантом.
Кажется, я ваш вопрос в прошлый раз немного не так понял, сорри.
Если речь про вариант "вообще не писать скрипт, а просить нейросеть самой пройтись по проекту и собрать JSON", то я так просто не делаю из-за большого расхода токенов, поэтому прям точных цифр у меня нет. Я как раз пошёл от обратного: локальный PHP-снимок без токенов, а уже потом ИИ для анализа.
Если вы имели в виду что-то другое, напишите, пожалуйста, чуть точнее, чтобы я ответил по делу.
Спасибо за развёрнутый коммент, реально есть с чем согласиться.
По безопасности: этот скрипт я вообще не подразумеваю как штуку "повесили на прод и пусть все ходят". В реальной жизни я им пользуюсь на локалке или на сервере разработки. На боевых проектах не запускаю. Плюс там есть защита от совсем уж классического косяка: с паролем по умолчанию авторизоваться нельзя, он просто не пустит, пока не поменяете. Для битрикс-проектов ещё и используется стандартная авторизация Битрикса, то есть сам скрипт доступен только админам. А дальше уже по ситуации можно хоть за VPN его прятать, хоть под http-auth.
Про IDE/агентов я с вами в целом не спорю. В идеальном мире, который вы описываете, я тоже за то, чтобы был один проект, нормальная структура, живая дока в md и agents.md, а Copilot/Cursor всё это видел и сам грепал. Под такой сценарий у меня есть отдельная линия статей и репозиторий с workspace и кастомными агентами.
scan2json решает другую, более приземлённую задачу. Мы много работаем с php-проектами (Bitrix, Laravel) в окружениях без Node и без нормального CLI, где до "агентского рая" ещё далеко, а вот живой код на сервере уже есть. В таких случаях удобно один раз "щёлкнуть" проект этим скриптом, получить JSON/JSONL со срезом именно того, что реально крутится, и уже этот снимок отдать GPT/агентам/своим сервисам. То есть он не заменяет автоматизм агентов, а даёт им сырьё там, где никакого agents.md и репомикса пока просто нет.
Хороший вопрос, я бы сказал, что это не "лучше", а просто под другой стек и сценарий.
repomix классный, если живешь в мире git + Node + CLI, и нужен инструмент "упаковать репозиторий для ИИ".
У меня немного другой контекст - мы делаем готовые веб-решения на Bitrix и Laravel и сознательно живем в php-стеке без Node/SSR. Частый кейс - прод или стейджинг, где есть только php и браузер, без node, без удобного терминала.
Под это я и делал scan2json:
это обычный php-скрипт, который можно закинуть прямо на сервер и снять снимок именно "живого" проекта, а не только того, что лежит в git
управляется через веб-интерфейс - можно выбрать корень, отрезать лишние папки, скачать json/jsonl, не заходя в консоль
плюс есть обратная сторона с restore.php - можно из снимка собрать отдельную копию модуля или проекта для экспериментов или передачи подрядчику
То есть если у вас уже выстроен процесс вокруг repomix и Node - вообще ок, он решает свою задачу. scan2json я делал под другой мир - php/Bitrix/Laravel без Node, когда нужно снять и отдать срез кода прямо с сервера через браузер.
Сам скрипт как раз работает без участия ИИ и без токенов. Это обычный PHP: он локально проходит по файловой системе и сохраняет срез проекта в JSON/JSONL.
Модель подключается уже на следующем шаге, когда я готовый снимок передаю в чат. Чат у меня по подписке, обычно использую gpt-5.1 thinking (extended) — её хватает, чтобы спокойно переваривать довольно большие объёмы кода.
То есть ИИ не «делает работу скрипта». Наоборот: скрипт снимает рутину по обходу файлов, чтобы токены тратились уже на анализ и планирование, а не на то, что проще и дешевле сделать на стороне PHP.
Вы очень точно нащупали идею «сначала структура, потом код».
В этом посте я показываю более низкий уровень — как дать модели снимок проекта в виде JSON/JSONL. А дальше поверх этого хорошо ложится как раз то, о чём вы пишете: формализованная модель в файлах, с которыми ИИ сверяется перед изменениями.
В отдельной статье я как раз разбираю подход, где перед кодом мы строим для Copilot набор структурированных артефактов: ТЗ, домен, архитектуру, план батчей, pipeline в JSON/YAML, и только потом подключаем «строителя кода». Это вот здесь: https://habr.com/ru/articles/972648/
Так что ваше «пусть модель сначала описывает структуру/изменения в JSON, а потом кодит» — это очень в том же духе, просто я раскладываю это на несколько файлов и этапов вместо одного большого JSON.
Спасибо за вопросы.
У меня сейчас два разных сценария вайб-кодинга. В первом — работа через VS Code и агентов Копилота, там дополнительный скрипт не нужен: агенты и так видят проект и работают по своим правилам. Про это у меня уже есть отдельная статья: https://habr.com/ru/articles/972648/.
Во втором сценарии я разделяю роли: GPT в браузере разбирает архитектуру, формулирует ТЗ и план действий, а Codex в VS Code этот план уже реализует. Codex видит репозиторий, а вот GPT нужно как-то дать такой же контекст — здесь как раз пригождается scan2json, который превращает проект в JSON/JSONL и становится «мостиком» между GPT (планирует) и Codex (пишет код по ТЗ).
Сравнения с «чистым» IDE-подходом как раз планирую вынести в отдельную статью по связке GPT + Codex, там будет больше практики именно в этом разрезе.
Отдельный плагин для популярных IDE пока не планирую: сами IDE-помощники (Copilot, Codex и т.п.) хорошо закрывают сторону «видеть код и помогать писать». Задача scan2json другая — дать внешний переносимый снимок проекта, с которым удобно работать уже вне IDE (GPT, свои сервисы, RAG и т.д.), поэтому поверх существующих плагинов городить ещё один не вижу большого смысла.
Да, ChatGPT использовался как инструмент для редактирования и структурирования текста. Все идеи, логика и примеры изначально были моими, а модель просто помогла привести материал в более удобочитаемый формат. Надеюсь, получилось хорошо )
Именно голосом мне нужно было чтобы по английскому помог (общение, практика). Потому что сама Алиса очень плоха в этом. Но надо учитывать что голоса для навыков заточены под русский язык и у них в английском есть акцент.
Отвечает сразу, но там есть у самой системы навыков технические ограничения. Если ответ не придёт в течении 3-х секунд, то он не ответит. Поэтому лучше использовать более быстрые модели, например gpt-4o-mini