Pull to refresh

Comments 11

там есть нюанс, код, который получается придётся рефакторить, потомучто ИИ диалог мог зависнуть на первом промпте, соответственно если либо модель не свежая, или промпт был +- чтоб поинтересоваться, а потом стало интересно и привлёк, то этот код лучше рефакторить - приводить в нормальное состояние, как по мне, плюс иногда отлаживать придётся, поэтому не получается абстрагироваться от промпта

Рефакторить может потребоваться любой код, не важно был он написан вручную или сгенерирован ИИ. Более того, абстрактный начальный промпт практичеси всегда раскрывается в список конкретных этапов. Вот его можно рассматривать как ТЗ на разработку, но никак не начальный промпт.

В cursor есть возможность “отменить изменения и повторить промпт». Здесь по идее должно быть что-то подобное

Конечно есть. Но ведь может потребоваться отменять не весь пропт, а только какую то часть, когда рассуждения LLM "завернули не туда". И тут основная проблема не отменить изменения, а определить момент поворота рассуждений в неправильном направлении.

Самый правильный способ использовать ИИ при разработке программного обеспечения - это НЕ использовать ИИ при разработке программного обеспечения. Очевидно же.

Не вижу ничего плохого в написанном коде. Может быть вы покажете конкретное место, где же плох код, написанный ИИ?

Это как при формировании фин отчётов не пользоваться калькулятором.

Голова вам зачем? Если вы не поняли код ИИ, то не выкатывайте это в прод, вот и всё.

Неправильная аналогия. Это как при формировании фин отчета пользоваться калькулятором, который на запрос 3×3 выдает ответ 159.

Я-то как раз понимаю, поэтому не пользуюсь и никому не советую.

Все ещё хуже. Если бы этот калькулятор всегда выдавал 159, к этому ещё можно было бы приспособиться. Но он иногда выдаёт 159, иногда 9, а иногда 0. В общем, чтобы им пользоваться, ты должен все равно заранее посчитать, сколько должно получиться, и проверять за ним. Такое себе удовольствие.

Установить параметр Reasoning effort (reasoning_effort) на самый минимальный уровень, чтобы уменьшить глубину и сложность рассуждений, которые модель использует при генерации ответов.

Ок, а в чем будет проигрыш, если минимизировать этот параметр? У вас так все описано, словно он чем выше, тем однозначно хуже получамый результат.

Не хуже, а становится выше вероятность галюцинаций и увеличивается время выявления ошибки в рассуждениях.

Например в контексте программирования, LLM может начать использовать не существующий API и на его основе реализовать заданный алгоритм. А после выдачи результата попытаться скомпилировать код, выяснить что он не работает и только после этого, уже при следующей итерации во время анализы причины проблемы, LLM вам сообщит "извините, я использовал не существующий API, сейчас сделаю как нужно".

Sign up to leave a comment.

Articles