Блин, могут быть десятки причин. В данном случае я сам написал енам, продолжил писать, понял по ходу дела, что силд лучше подойдет. Но суть же в другом: бывает ясный рефакторинг, который нужно делать. LLM тут помогает сэкономить время и избавить от рутины.
Потому что после первого пенделя он благодарит за науку, увольняется и уходят туда, где используют не только пендели? Потому что запомнить с первого раза средний человек не способен, это исключение, а не норма.
Стажёра поправляешь один-два раза — и он больше этой ошибки не повторяет.
Что мешает добавить в темплейт промпта "никогда не делай вот так"? Gemini 2.5 умеет кушать миллион токенов, это больше правил, чем вместится в голову любого стажёра.
Стажера часто просто нет. А если есть, он не идеален (не учится мгновенно, ошибается), как и LLM. Только LLM доступен 24/7 и исправляется (через промпт) быстрее.
А сколько времени занимает полный цикл со стажером: объяснить задачу + подождать выполнения + проверить результат + (часто) объяснить ошибки + подождать исправлений + проверить снова?
Ну это от насмотренности на ответы LLM зависит, я как-то приспособился спрашивать так, что почти всегда с первого раза получаю, что нужно. Но я чаще все же “гуглю“ через нее, чем использую ее код.
Ну вот у некоторых людей возникает вопрос - зачем нужна техническая система, которая выдаёт ответ "с вероятностью", пусть даже и "очень большой"? Лучше уж, мол, действительно стажёру задачу дать, его хотя бы обучать со временем можно.
(Сам такую позицию не вполне разделяю, но понять в целом могу)
Оно так, как вы пишите, но это зависит и от опыта использования. Со временем понимаешь, где она будет галлюцинировать, а где нет. Можно примерно таким эмпирическим правилом пользоваться: доверил бы я эту задачу стажеру? Если да, то LMM с очень большой вероятностью ее решит тоже.
Или вот простое использование ChatGPT для “гугления“ уже дает большой буст. Можно заранее создать специальный промпт для гугления и предоставление ссылок (или перплексити использовать).
Там даже круче. Они по сути убирают товар из корзины на время подорожания. Т.е. вы можете перейти с говядины на курицу, а потом курица тоже подорожает так, что говядина будет дешевле и говядина вернётся в корзину. Т.е. в начале и в конце корзина одна и таже, но подорожание прошло мимо расчетов инфляции.
Так же потенциально возможно подорожание с одновременным переименовыванием товара. Но на сколько оно популярно - не знаю.
Спастбо онлифанщице, теперь я знаю как работает этот лохотрон.
Проблема в том, что при расчёте инфляции содержимое корзины меняется и поэтому эффект "я вместо мяса начал покупать макарохи" инфляция не отражает. Впрочем и не должна конечно.
Но в сознании многих людей "инфляция" автоматически соотносится с "изменением цен на привычные товары". И когда им приходится изменять свою корзину, возникает диссонанс ("как так, моя зарплата выросла на 10%, инфляция 10%, а покупать то же самое я не могу").
То, что надо тем, в Кремле. Чтобы народ ел спред вместо масла, покупал дешевые китаефоны вместо брендов, но убеждал себя, что ух, инфляция низкая, и вообще в это время деньги на вкладе под 20% лежат.
Сперва это было вконтакте, потом в телеграмме, сейчас, вижу, уже и до хабра охранители добрались.
Спасибо, не знал.
Enum конвертируется в sealed class двумя кнопками в IntelliJ IDEA. Нейронка тут избыточна.
Блин, могут быть десятки причин. В данном случае я сам написал енам, продолжил писать, понял по ходу дела, что силд лучше подойдет. Но суть же в другом: бывает ясный рефакторинг, который нужно делать. LLM тут помогает сэкономить время и избавить от рутины.
А зачем вы переписываете enums на sealed classes? Если перечисления уже работают в проекте, зачем?
Потому что после первого пенделя он благодарит за науку, увольняется и уходят туда, где используют не только пендели? Потому что запомнить с первого раза средний человек не способен, это исключение, а не норма.
Только что вы сформулировали отличие живого интеллекта от искусственного.
...а потом "...ему еще пендаль за вот это, и за это, и за это, и за это, и за это, и за это, и за это,..." — а потом пендали/нервы/время кончаются.
Что мешает добавить в темплейт промпта "никогда не делай вот так"? Gemini 2.5 умеет кушать миллион токенов, это больше правил, чем вместится в голову любого стажёра.
«Даже обезьяна усваивает, как не нужно делать, после третьего пендаля» ©
Если, конечно, Вы там облизываете ваших стажёров в лучших традициях поколения Z, то примите мои соболезнования.
Стажера часто просто нет. А если есть, он не идеален (не учится мгновенно, ошибается), как и LLM. Только LLM доступен 24/7 и исправляется (через промпт) быстрее.
Но есть нюанс. Мой стажёр делает какую‑то фигню, я ему показываю, объясняю и говорю «Больше так не делай!» — и он, прикиньте, больше так не делает. «А вам слабО?» ©
А сколько времени занимает полный цикл со стажером: объяснить задачу + подождать выполнения + проверить результат + (часто) объяснить ошибки + подождать исправлений + проверить снова?
С LLM это часто на порядки быстрее и дешевле.
Ну это от насмотренности на ответы LLM зависит, я как-то приспособился спрашивать так, что почти всегда с первого раза получаю, что нужно. Но я чаще все же “гуглю“ через нее, чем использую ее код.
Причем из этих 5 секунд 1 час вы подбираете заклинание, и ещё час - проверяете, правильно ли задача решена.
Ну вот у некоторых людей возникает вопрос - зачем нужна техническая система, которая выдаёт ответ "с вероятностью", пусть даже и "очень большой"? Лучше уж, мол, действительно стажёру задачу дать, его хотя бы обучать со временем можно.
(Сам такую позицию не вполне разделяю, но понять в целом могу)
Тут дьявол в деталях.
Оно так, как вы пишите, но это зависит и от опыта использования. Со временем понимаешь, где она будет галлюцинировать, а где нет. Можно примерно таким эмпирическим правилом пользоваться: доверил бы я эту задачу стажеру? Если да, то LMM с очень большой вероятностью ее решит тоже.
Или вот простое использование ChatGPT для “гугления“ уже дает большой буст. Можно заранее создать специальный промпт для гугления и предоставление ссылок (или перплексити использовать).
...и приобретаешь новую рутину: проверять, что оно набредило.
Там даже круче. Они по сути убирают товар из корзины на время подорожания. Т.е. вы можете перейти с говядины на курицу, а потом курица тоже подорожает так, что говядина будет дешевле и говядина вернётся в корзину. Т.е. в начале и в конце корзина одна и таже, но подорожание прошло мимо расчетов инфляции.
Так же потенциально возможно подорожание с одновременным переименовыванием товара. Но на сколько оно популярно - не знаю.
Спастбо онлифанщице, теперь я знаю как работает этот лохотрон.
Дык разобрались же в комментах выше.
Проблема в том, что при расчёте инфляции содержимое корзины меняется и поэтому эффект "я вместо мяса начал покупать макарохи" инфляция не отражает. Впрочем и не должна конечно.
Но в сознании многих людей "инфляция" автоматически соотносится с "изменением цен на привычные товары". И когда им приходится изменять свою корзину, возникает диссонанс ("как так, моя зарплата выросла на 10%, инфляция 10%, а покупать то же самое я не могу").
> Она не обманчива. Она отображает то что надо.
То, что надо тем, в Кремле.
Чтобы народ ел спред вместо масла, покупал дешевые китаефоны вместо брендов, но убеждал себя, что ух, инфляция низкая, и вообще в это время деньги на вкладе под 20% лежат.
Сперва это было вконтакте, потом в телеграмме, сейчас, вижу, уже и до хабра охранители добрались.