Search
Write a publication
Pull to refresh
25
22
Danila Simonov @ElKornacio

Tech entrepreneur | t.me/elkornacio

Send message

ага, хочу чтобы приложение заработало в ручном режиме, после чего уже встрою AI. он никуда не убежит)

Из того, что вы написали как раз и следует, что можно спокойно уволить вас и еще 2-3 человек и при этом получить больший объем работы

А можно не увольнять, и получить ещё больший. Откуда концепция, что бизнес только и мечтает кого-то уволить?)) Найм сотрудника, особенно разработчика - дорогостоящий процесс, и если в компании уже есть человек, интегрированный в коллектив, понимающий бизнес изнутри и так далее, увольнение - это странный путь.

Если я правильно понял у вас сделали ставку на количество. Но кто-то может сделать ставку на качество

Я говорил про результаты моей деятельности как некоторую абстракцию, не обязательно про конкретное количество строчек кода. Улучшение качества тоже происходит кратное - ИИ прекрасно документирует код, который пишет (причем сразу же, в момент написания), очень хорошо пишет юнит-тесты и интеграционные тесты (более того, я топлю за то, что это практически обязательное условие использования ИИ в работе), ну и так далее.

Короче, "делать больше" - это действительно не обязательно про кол-во кода, но и про его качество тоже.

в целом, все ваши утверждения верны, чисто экономически)

если что-то стало делаться в 5-6 раз меньшим трудом (при неизменной стоимости труда), то это что-то теперь стоит в 5-6 раз дешевле (при условии, что весь продукт и состоит из труда, не имеет других источников стоимости, типа материалов).

да, можно уволить коллег, и получать тот же объём работы. но зачем, если можно получать больший?

да, можно грузить меня в 5-6 раз больше - только по сути я буду работать то же кол-во времени, просто с большим результатом. это, в целом, и происходит, так работает развитие рабочих инструментов - люди при помощи них за то же время делают больше.

ну, я, честно говоря, больше хотел сделать акцент на подсвечивании проблем обоих групп, и с чем они сталкиваются, нежели на самом факте того, что вайб-кодинг - это не то, про что часто говорят)

вот тут - в окошке написания сообщения в Курсоре можно выбрать текущий режим

беда в том, что примеры на простых проектах - не впечатляют, т.к. кажется, что ИИ справился с простой задачей. а на сложные проектах - они во многом непонятны, т.к. я даю какую-то непонятную задачу в огромной неизвестной никому кодовой базе, из-за чего понять - а это сейчас было сложно или нет - тоже не удается.

в целом, мне сегодня уже пару раз написали с просьбой показать именно как я в агентском режиме работаю, так что думаю скоро бахну видос.

примеры простых проектов в неагентском режиме я в канале когда-то выкладывал, на 14 февраля к примеру были видео: https://t.me/elkornacio/149

спасибо, очень дельный коммент. на выходных потыкаю RooCode. от github copilot я отказался в своё время как раз потому, что они очень сильно отстали от Cursor. потом они наверстали - но я не увидел причин возвращаться назад.

Один ИИ будет генерить код, а другой будет говорить "фу, фигня", пока тот нормальный код не напишет

я, кстати, сейчас при разработке так и делаю. буквально TDD, даже исследование на эту тему было, я на Хабр про него писал: https://habr.com/ru/news/879826/

то есть, я буквально агенту даю задачу - напиши автотесты, покрывающие будущую функциональность. а потом говорю - пиши функциональность, гоняй тесты, пока всё не заработает идеально. и он именно так и делает - сам итерирует, сам смотрит на ошибки, решает проблемы. очень удобно.

а, понял. ну, с локальными моделями я Cursor гонял - он умеет в custom api URL, а LM Studio в свою очередь умеет в OpenAI-compatible API. главная беда в том, что LLM для генерации кода в агенте - это, безусловно, супер-важная вещь и 50% результата, но ещё 50% - это Tab LLM, та самая, которая делает очень быстрый автокомплит. и вот там кастомные модели, локально которые не особо разворачиваются :(

в любом случае, может быть вам стоит глянуть в сторону Void - это попытка сделать open-source версию Cursor, очень свежий проект: https://github.com/voideditor/void

простите, а вы именно агента используете, или просто режим "запрос-ответ"? просто проблемы, с которыми вы столкнулись выглядят именно как использование обычного режима, не агентского. и отсутствие архитектуры/проектирования решается тем, что в начале процесса надо попросить его запроектировать решение, согласовать с вами, после чего уже переходить к написанию кода.

плюс, задокументированное и запроектированное решение можно держать в контексте ко всем будущим запросам - это кратко улучшает качество решений.

для DevOps задач я его юзаю не очень часто, мне непривычно использовать терминал в Cursor, пока не переучился, но в кейсах, когда надо было что-то несложное сделать - зайти на сервер по ssh, прочитать конфиг-файлы postgres, поправить лимиты памяти и кол-ва коннектов - справлялся вообще без проблем, полностью автономно.

ну, честно говоря, мне кажется вы очень хардкорные вещи имеете в виду. там поиск уровня "встретил в коде неизвестную либу -> загуглил документацию этой либы -> получил ссылку на документацию на официальном сайте, и нашел ответ в доках". ну то есть в 90% случаев - это просто запрос дополнительной информации по какому-то компоненту системы, очень редко, когда ИИ идёт в интернет именно за поиском готового решения (все таки мы от него обычно ждём, что он это готовое решение напишет сам).

вот пример, как это обычно выглядит:

Я тыкал все эти редакторы, Cursor юзаю ежедневно. Из плагинов - тестил только continue.dev. Я не очень понял, зачем пользоваться им, а не полноценным редактором. Я довольно глубоко изучаю как работают эти IDE на базе ИИ, у того же Cursor очень интересные технические статьи в блоге, и мне совершенно непонятно, как плагин может конкурировать с IDE. С кажем, те же lint errors Cursor исправляет при помощи очень хитрой механики клона IDE в бекграунде, в которой агент работает незаметно для юзера. Плагином или экстеншеном ничего такого сделать нельзя.

цена на 4.5 сейчас в целом совершенно неадекватная. думаю, в ближайшие недели можно будет ждать снижения, может быть после выхода GPT-5. учитывая, что в GPT-5 обещают как reasoning, так и быстрые ответы, то GPT-4.5 в целом не очень понятно где окажется в модельном ряду от OpenAI.

по правде говоря, моё "что" скорее было не "что именно вы имеете в виду?", а "что за несусветная дичь?")

все точки в числах написаны мною собственноручно. каюсь, я даже и забыл, что в русском десятичный разделитель это запятая.

но идея, что кто-то осознанно будет использовать точку вместо запятой чтобы манипулировать людьми с плохим зрением, кажется мне даже менее реалистичной, чем теория плоской Земли)

я поторопился опубликовать эту новость, и вчера, после вашего комментария, спрятал её в черновики, чтобы не распространять дичь, и сегодня более вдумчиво пройтись по тексту.

в процессе написания я действительно использовал нейронки для перевода небольших кусочков, в которых используются неизвестные мне термины, и, по всей видимости, в каких-то моментах получилось криво.

я поправил указанные вами куски и перепроверил источник, чтобы поправить ещё пару мест.

в целом, по остальным комментариям есть некоторая сложность - вы критикуете в том числе оригинальные статьи Guardian и Microsoft, на основе которых я собирал этот текст, и я не могу сказать кто прав.

скажем, ваш аргумент про фермионы мне кажется логичным, но в той же новости от Microsoft явно используется термин "Majorana particles", я его дословно и использую.

так как тип этой публикации - это именно новость, а не статья, мне хотелось бы чтобы она была как можно ближе к оригиналу, и если сами Microsoft написали дичь - пусть тогда все видят, что написана дичь. встраивать мои собственные (или ваши) комментарии в новость мне кажется не очень удачной мыслью, тогда уж лучше оформить отдельный пост с критикой.

в любом случае, спасибо за комментарий, и простите за косяки в первой версии.

Да, именно показанный текст запроса. Таблица users объявлена выше по тексту - в ней 2 колонки, id и firstName. Разные ORM поступают по разному - какие-то действительно делают `select *`, а какие-то перечисляют колонки. Drizzle - перечисляет.

Каким образом "логика на клиенте" связана с тем, что источник информации о структуре БД - бекенд? Это не просто нормальная практика, это фактически доминирующий подход в современных ORM - когда структуру требуется поменять в реальной БД - делают миграцию, но главный источник этой структуры - всегда бекенд.

Причем здесь клиент я не понимаю.

Мало того, что в оригинальной статье написана какая-то дичь, где процесс работы LLM спутан с эмбеддинговыми моделями (LLM не пытается предсказать самый "близкий" токен, она предсказывает самый вероятный).
Так ещё и при переводе просто выкинули пару предложений, из-за чего текст стал бессвязным: сразу после абзаца про размерность моделей вдруг из ниоткуда выплывает "Этот процесс напоминает попытку параллельно соединить две спутанные веревки". Какой процесс? Какие веревки?

уф.

конечно. я 90% тестов последний год пишу только через ИИ (Claude 3.5 в Cursor). качество тестов отличное, ни капли не хуже, чем я бы сам написал.

Information

Rating
760-th
Location
Белград, Белград, Сербия
Date of birth
Registered
Activity