Из того, что вы написали как раз и следует, что можно спокойно уволить вас и еще 2-3 человек и при этом получить больший объем работы
А можно не увольнять, и получить ещё больший. Откуда концепция, что бизнес только и мечтает кого-то уволить?)) Найм сотрудника, особенно разработчика - дорогостоящий процесс, и если в компании уже есть человек, интегрированный в коллектив, понимающий бизнес изнутри и так далее, увольнение - это странный путь.
Если я правильно понял у вас сделали ставку на количество. Но кто-то может сделать ставку на качество
Я говорил про результаты моей деятельности как некоторую абстракцию, не обязательно про конкретное количество строчек кода. Улучшение качества тоже происходит кратное - ИИ прекрасно документирует код, который пишет (причем сразу же, в момент написания), очень хорошо пишет юнит-тесты и интеграционные тесты (более того, я топлю за то, что это практически обязательное условие использования ИИ в работе), ну и так далее.
Короче, "делать больше" - это действительно не обязательно про кол-во кода, но и про его качество тоже.
в целом, все ваши утверждения верны, чисто экономически)
если что-то стало делаться в 5-6 раз меньшим трудом (при неизменной стоимости труда), то это что-то теперь стоит в 5-6 раз дешевле (при условии, что весь продукт и состоит из труда, не имеет других источников стоимости, типа материалов).
да, можно уволить коллег, и получать тот же объём работы. но зачем, если можно получать больший?
да, можно грузить меня в 5-6 раз больше - только по сути я буду работать то же кол-во времени, просто с большим результатом. это, в целом, и происходит, так работает развитие рабочих инструментов - люди при помощи них за то же время делают больше.
ну, я, честно говоря, больше хотел сделать акцент на подсвечивании проблем обоих групп, и с чем они сталкиваются, нежели на самом факте того, что вайб-кодинг - это не то, про что часто говорят)
беда в том, что примеры на простых проектах - не впечатляют, т.к. кажется, что ИИ справился с простой задачей. а на сложные проектах - они во многом непонятны, т.к. я даю какую-то непонятную задачу в огромной неизвестной никому кодовой базе, из-за чего понять - а это сейчас было сложно или нет - тоже не удается.
в целом, мне сегодня уже пару раз написали с просьбой показать именно как я в агентском режиме работаю, так что думаю скоро бахну видос.
примеры простых проектов в неагентском режиме я в канале когда-то выкладывал, на 14 февраля к примеру были видео: https://t.me/elkornacio/149
спасибо, очень дельный коммент. на выходных потыкаю RooCode. от github copilot я отказался в своё время как раз потому, что они очень сильно отстали от Cursor. потом они наверстали - но я не увидел причин возвращаться назад.
Один ИИ будет генерить код, а другой будет говорить "фу, фигня", пока тот нормальный код не напишет
я, кстати, сейчас при разработке так и делаю. буквально TDD, даже исследование на эту тему было, я на Хабр про него писал: https://habr.com/ru/news/879826/
то есть, я буквально агенту даю задачу - напиши автотесты, покрывающие будущую функциональность. а потом говорю - пиши функциональность, гоняй тесты, пока всё не заработает идеально. и он именно так и делает - сам итерирует, сам смотрит на ошибки, решает проблемы. очень удобно.
а, понял. ну, с локальными моделями я Cursor гонял - он умеет в custom api URL, а LM Studio в свою очередь умеет в OpenAI-compatible API. главная беда в том, что LLM для генерации кода в агенте - это, безусловно, супер-важная вещь и 50% результата, но ещё 50% - это Tab LLM, та самая, которая делает очень быстрый автокомплит. и вот там кастомные модели, локально которые не особо разворачиваются :(
в любом случае, может быть вам стоит глянуть в сторону Void - это попытка сделать open-source версию Cursor, очень свежий проект: https://github.com/voideditor/void
простите, а вы именно агента используете, или просто режим "запрос-ответ"? просто проблемы, с которыми вы столкнулись выглядят именно как использование обычного режима, не агентского. и отсутствие архитектуры/проектирования решается тем, что в начале процесса надо попросить его запроектировать решение, согласовать с вами, после чего уже переходить к написанию кода.
плюс, задокументированное и запроектированное решение можно держать в контексте ко всем будущим запросам - это кратко улучшает качество решений.
для DevOps задач я его юзаю не очень часто, мне непривычно использовать терминал в Cursor, пока не переучился, но в кейсах, когда надо было что-то несложное сделать - зайти на сервер по ssh, прочитать конфиг-файлы postgres, поправить лимиты памяти и кол-ва коннектов - справлялся вообще без проблем, полностью автономно.
ну, честно говоря, мне кажется вы очень хардкорные вещи имеете в виду. там поиск уровня "встретил в коде неизвестную либу -> загуглил документацию этой либы -> получил ссылку на документацию на официальном сайте, и нашел ответ в доках". ну то есть в 90% случаев - это просто запрос дополнительной информации по какому-то компоненту системы, очень редко, когда ИИ идёт в интернет именно за поиском готового решения (все таки мы от него обычно ждём, что он это готовое решение напишет сам).
Я тыкал все эти редакторы, Cursor юзаю ежедневно. Из плагинов - тестил только continue.dev. Я не очень понял, зачем пользоваться им, а не полноценным редактором. Я довольно глубоко изучаю как работают эти IDE на базе ИИ, у того же Cursor очень интересные технические статьи в блоге, и мне совершенно непонятно, как плагин может конкурировать с IDE. С кажем, те же lint errors Cursor исправляет при помощи очень хитрой механики клона IDE в бекграунде, в которой агент работает незаметно для юзера. Плагином или экстеншеном ничего такого сделать нельзя.
цена на 4.5 сейчас в целом совершенно неадекватная. думаю, в ближайшие недели можно будет ждать снижения, может быть после выхода GPT-5. учитывая, что в GPT-5 обещают как reasoning, так и быстрые ответы, то GPT-4.5 в целом не очень понятно где окажется в модельном ряду от OpenAI.
по правде говоря, моё "что" скорее было не "что именно вы имеете в виду?", а "что за несусветная дичь?")
все точки в числах написаны мною собственноручно. каюсь, я даже и забыл, что в русском десятичный разделитель это запятая.
но идея, что кто-то осознанно будет использовать точку вместо запятой чтобы манипулировать людьми с плохим зрением, кажется мне даже менее реалистичной, чем теория плоской Земли)
я поторопился опубликовать эту новость, и вчера, после вашего комментария, спрятал её в черновики, чтобы не распространять дичь, и сегодня более вдумчиво пройтись по тексту.
в процессе написания я действительно использовал нейронки для перевода небольших кусочков, в которых используются неизвестные мне термины, и, по всей видимости, в каких-то моментах получилось криво.
я поправил указанные вами куски и перепроверил источник, чтобы поправить ещё пару мест.
в целом, по остальным комментариям есть некоторая сложность - вы критикуете в том числе оригинальные статьи Guardian и Microsoft, на основе которых я собирал этот текст, и я не могу сказать кто прав.
скажем, ваш аргумент про фермионы мне кажется логичным, но в той же новости от Microsoft явно используется термин "Majorana particles", я его дословно и использую.
так как тип этой публикации - это именно новость, а не статья, мне хотелось бы чтобы она была как можно ближе к оригиналу, и если сами Microsoft написали дичь - пусть тогда все видят, что написана дичь. встраивать мои собственные (или ваши) комментарии в новость мне кажется не очень удачной мыслью, тогда уж лучше оформить отдельный пост с критикой.
в любом случае, спасибо за комментарий, и простите за косяки в первой версии.
Да, именно показанный текст запроса. Таблица users объявлена выше по тексту - в ней 2 колонки, id и firstName. Разные ORM поступают по разному - какие-то действительно делают `select *`, а какие-то перечисляют колонки. Drizzle - перечисляет.
Каким образом "логика на клиенте" связана с тем, что источник информации о структуре БД - бекенд? Это не просто нормальная практика, это фактически доминирующий подход в современных ORM - когда структуру требуется поменять в реальной БД - делают миграцию, но главный источник этой структуры - всегда бекенд.
Мало того, что в оригинальной статье написана какая-то дичь, где процесс работы LLM спутан с эмбеддинговыми моделями (LLM не пытается предсказать самый "близкий" токен, она предсказывает самый вероятный). Так ещё и при переводе просто выкинули пару предложений, из-за чего текст стал бессвязным: сразу после абзаца про размерность моделей вдруг из ниоткуда выплывает "Этот процесс напоминает попытку параллельно соединить две спутанные веревки". Какой процесс? Какие веревки?
ага, хочу чтобы приложение заработало в ручном режиме, после чего уже встрою AI. он никуда не убежит)
А можно не увольнять, и получить ещё больший. Откуда концепция, что бизнес только и мечтает кого-то уволить?)) Найм сотрудника, особенно разработчика - дорогостоящий процесс, и если в компании уже есть человек, интегрированный в коллектив, понимающий бизнес изнутри и так далее, увольнение - это странный путь.
Я говорил про результаты моей деятельности как некоторую абстракцию, не обязательно про конкретное количество строчек кода. Улучшение качества тоже происходит кратное - ИИ прекрасно документирует код, который пишет (причем сразу же, в момент написания), очень хорошо пишет юнит-тесты и интеграционные тесты (более того, я топлю за то, что это практически обязательное условие использования ИИ в работе), ну и так далее.
Короче, "делать больше" - это действительно не обязательно про кол-во кода, но и про его качество тоже.
в целом, все ваши утверждения верны, чисто экономически)
если что-то стало делаться в 5-6 раз меньшим трудом (при неизменной стоимости труда), то это что-то теперь стоит в 5-6 раз дешевле (при условии, что весь продукт и состоит из труда, не имеет других источников стоимости, типа материалов).
да, можно уволить коллег, и получать тот же объём работы. но зачем, если можно получать больший?
да, можно грузить меня в 5-6 раз больше - только по сути я буду работать то же кол-во времени, просто с большим результатом. это, в целом, и происходит, так работает развитие рабочих инструментов - люди при помощи них за то же время делают больше.
ну, я, честно говоря, больше хотел сделать акцент на подсвечивании проблем обоих групп, и с чем они сталкиваются, нежели на самом факте того, что вайб-кодинг - это не то, про что часто говорят)
вот тут - в окошке написания сообщения в Курсоре можно выбрать текущий режим
беда в том, что примеры на простых проектах - не впечатляют, т.к. кажется, что ИИ справился с простой задачей. а на сложные проектах - они во многом непонятны, т.к. я даю какую-то непонятную задачу в огромной неизвестной никому кодовой базе, из-за чего понять - а это сейчас было сложно или нет - тоже не удается.
в целом, мне сегодня уже пару раз написали с просьбой показать именно как я в агентском режиме работаю, так что думаю скоро бахну видос.
примеры простых проектов в неагентском режиме я в канале когда-то выкладывал, на 14 февраля к примеру были видео: https://t.me/elkornacio/149
спасибо, очень дельный коммент. на выходных потыкаю RooCode. от github copilot я отказался в своё время как раз потому, что они очень сильно отстали от Cursor. потом они наверстали - но я не увидел причин возвращаться назад.
я, кстати, сейчас при разработке так и делаю. буквально TDD, даже исследование на эту тему было, я на Хабр про него писал: https://habr.com/ru/news/879826/
то есть, я буквально агенту даю задачу - напиши автотесты, покрывающие будущую функциональность. а потом говорю - пиши функциональность, гоняй тесты, пока всё не заработает идеально. и он именно так и делает - сам итерирует, сам смотрит на ошибки, решает проблемы. очень удобно.
а, понял. ну, с локальными моделями я Cursor гонял - он умеет в custom api URL, а LM Studio в свою очередь умеет в OpenAI-compatible API. главная беда в том, что LLM для генерации кода в агенте - это, безусловно, супер-важная вещь и 50% результата, но ещё 50% - это Tab LLM, та самая, которая делает очень быстрый автокомплит. и вот там кастомные модели, локально которые не особо разворачиваются :(
в любом случае, может быть вам стоит глянуть в сторону Void - это попытка сделать open-source версию Cursor, очень свежий проект: https://github.com/voideditor/void
простите, а вы именно агента используете, или просто режим "запрос-ответ"? просто проблемы, с которыми вы столкнулись выглядят именно как использование обычного режима, не агентского. и отсутствие архитектуры/проектирования решается тем, что в начале процесса надо попросить его запроектировать решение, согласовать с вами, после чего уже переходить к написанию кода.
плюс, задокументированное и запроектированное решение можно держать в контексте ко всем будущим запросам - это кратко улучшает качество решений.
для DevOps задач я его юзаю не очень часто, мне непривычно использовать терминал в Cursor, пока не переучился, но в кейсах, когда надо было что-то несложное сделать - зайти на сервер по ssh, прочитать конфиг-файлы postgres, поправить лимиты памяти и кол-ва коннектов - справлялся вообще без проблем, полностью автономно.
ну, честно говоря, мне кажется вы очень хардкорные вещи имеете в виду. там поиск уровня "встретил в коде неизвестную либу -> загуглил документацию этой либы -> получил ссылку на документацию на официальном сайте, и нашел ответ в доках". ну то есть в 90% случаев - это просто запрос дополнительной информации по какому-то компоненту системы, очень редко, когда ИИ идёт в интернет именно за поиском готового решения (все таки мы от него обычно ждём, что он это готовое решение напишет сам).
вот пример, как это обычно выглядит:
Я тыкал все эти редакторы, Cursor юзаю ежедневно. Из плагинов - тестил только continue.dev. Я не очень понял, зачем пользоваться им, а не полноценным редактором. Я довольно глубоко изучаю как работают эти IDE на базе ИИ, у того же Cursor очень интересные технические статьи в блоге, и мне совершенно непонятно, как плагин может конкурировать с IDE. С кажем, те же lint errors Cursor исправляет при помощи очень хитрой механики клона IDE в бекграунде, в которой агент работает незаметно для юзера. Плагином или экстеншеном ничего такого сделать нельзя.
цена на 4.5 сейчас в целом совершенно неадекватная. думаю, в ближайшие недели можно будет ждать снижения, может быть после выхода GPT-5. учитывая, что в GPT-5 обещают как reasoning, так и быстрые ответы, то GPT-4.5 в целом не очень понятно где окажется в модельном ряду от OpenAI.
по правде говоря, моё "что" скорее было не "что именно вы имеете в виду?", а "что за несусветная дичь?")
все точки в числах написаны мною собственноручно. каюсь, я даже и забыл, что в русском десятичный разделитель это запятая.
но идея, что кто-то осознанно будет использовать точку вместо запятой чтобы манипулировать людьми с плохим зрением, кажется мне даже менее реалистичной, чем теория плоской Земли)
что...?
я поторопился опубликовать эту новость, и вчера, после вашего комментария, спрятал её в черновики, чтобы не распространять дичь, и сегодня более вдумчиво пройтись по тексту.
в процессе написания я действительно использовал нейронки для перевода небольших кусочков, в которых используются неизвестные мне термины, и, по всей видимости, в каких-то моментах получилось криво.
я поправил указанные вами куски и перепроверил источник, чтобы поправить ещё пару мест.
в целом, по остальным комментариям есть некоторая сложность - вы критикуете в том числе оригинальные статьи Guardian и Microsoft, на основе которых я собирал этот текст, и я не могу сказать кто прав.
скажем, ваш аргумент про фермионы мне кажется логичным, но в той же новости от Microsoft явно используется термин "Majorana particles", я его дословно и использую.
так как тип этой публикации - это именно новость, а не статья, мне хотелось бы чтобы она была как можно ближе к оригиналу, и если сами Microsoft написали дичь - пусть тогда все видят, что написана дичь. встраивать мои собственные (или ваши) комментарии в новость мне кажется не очень удачной мыслью, тогда уж лучше оформить отдельный пост с критикой.
в любом случае, спасибо за комментарий, и простите за косяки в первой версии.
Да, именно показанный текст запроса. Таблица
users
объявлена выше по тексту - в ней 2 колонки,id
иfirstName
. Разные ORM поступают по разному - какие-то действительно делают `select *`, а какие-то перечисляют колонки. Drizzle - перечисляет.Каким образом "логика на клиенте" связана с тем, что источник информации о структуре БД - бекенд? Это не просто нормальная практика, это фактически доминирующий подход в современных ORM - когда структуру требуется поменять в реальной БД - делают миграцию, но главный источник этой структуры - всегда бекенд.
Причем здесь клиент я не понимаю.
Мало того, что в оригинальной статье написана какая-то дичь, где процесс работы LLM спутан с эмбеддинговыми моделями (LLM не пытается предсказать самый "близкий" токен, она предсказывает самый вероятный).
Так ещё и при переводе просто выкинули пару предложений, из-за чего текст стал бессвязным: сразу после абзаца про размерность моделей вдруг из ниоткуда выплывает "Этот процесс напоминает попытку параллельно соединить две спутанные веревки". Какой процесс? Какие веревки?
уф.
конечно. я 90% тестов последний год пишу только через ИИ (Claude 3.5 в Cursor). качество тестов отличное, ни капли не хуже, чем я бы сам написал.