у меня есть домашний пет-проект, где код пишет полностью ИИ и поддерживает тоже полностью ИИ
К этому проекту кроме Вас еще кто-то доступ имеет? У него какая нагрузка? User Experience? Сколько инцидентов в день / неделю / месяц? Какие требования к availability / evolvability / производительности?
я не испытываю никакого страха за то что ИИ меня заменит
и за свою карьеру мне приходилось работать с разным говнокодом и говнологикой и что из себя представляют "профессионалы" я представляю как никто другой ))
Утверждение я видел в жизни сколько-то плохих разработчиков - значит все разработчики плохие неверное. Объяснить почему?
администрирование/devops =)
Уважаю ))
Хорошие мушкетеры короляадминистраторы против плохих гвардейцев кардиналаразработчиков - такой шаблон в реальной жизни не работает, все сложнее гораздо )) Хотя происхождение идеи все разработчики г-вно, вот ИИ мне отгрузит правильный код да еще и документацию к нему сочинит объясняет ))
Голословность утверждения не зависит от того кто его читает.
Я утверждаю что написать свой код быстрее чем разобраться с чужим. Вы утверждаете что это утверждение голословное. Так же голосовно утверждаете, замечу ))
То есть что такое monkey code вы похоже тоже не знаете...
Поделитесь Вашими знаниями. К числу общепринятых этот термин не относится
Ну правильно. А в 1 из 10 можно использовать ИИ.
Мне не нужно в 1 из 10 случаев использовать ИИ. Достаточно у гугля спросить. Пока хватает. И не так уж много времени занимает. Зато спросив один раз,и получив ответ, можно это информацию в дальнейшем повторно использовать. А не полагаться на то что какой-то черный ящик за тебя все придумает и решит.
И опять ложная аналогия.
С чего бы это ложная? Поясните
От количества решённых задач и проблем. А при чем тут это?
Какую модель вы проверяли? Для каких задач? Как конкретно?
Из недавнего - Claude 3.5/3.7, Gemini 2.5, Qwen 3.5, DeepSeek R1. С GPT экспериментировал до 3.5 включительно, 4o смотрел на задачах с программированием не связанных, не впечатлило.
Сочинял текстовые задания, если надо дорабатывать/дополнять существующий код - добавлял к промпту исходники, выхлоп приходится в диалоге постоянно вычитывать, просить заменять несуществующие импорты, функции, неправильные сигнатуры в функциях. Если повезет - с 5-6 раза можно получить работающий (вроде) код. Можно упороться - сочинять технические задания с приложением code style guide размером догоняющим гугловые, и пояснениями какие функции из каких модулей надо использовать для решения задач, и в каком порядке. Но мне просто код с нуля в IDE ручками написать быстрее и проще. Может это особенность программирования на Go? Не знаю, но несколько раз пришлось сочинять и скармиливал задание на Python/FastAPI/Airflow - на выходе такая-же сырая и неработающая хрень. Юнит-тесты отдать ей сочинять - то что на выходе в свое время здесь на Хабре хорошо описал Тагир Валеев.
Пробовал Copilot в VS Code, клавиши страшно нажимать, code completion явно обучали на продукции ребят из страны И, находившихся в этот момент где-то между нирваной и сансарой (или наоборот). Автодополнение в VS Code и так прилично работает, без копилотов разных. Включил Agent Mode, послушал бред солевого наркомана. Выключил.
В репозиториях Github настраивал Copilot Pull Request Overview, получил в ответ поток сознания, который пытался мне рассказать то что я и так знаю, но с ошибками. Отключил.
Отдавал stack trace на анализ - получил в ответ предложение убрать из исходного кода panic() и заменить log.Fatalf() на log.Printf(), мем с пингвином
у вас пока что аргументация строится по принципу "я это не видел/я не понимаю как это работает - значит это не существует/не работает"
Я не говорю "не существует - не работает". Я спрашиваю как по Вашему это можно реализовать? Вы с устройством LLM знакомы? Что там под капотом, при чем тут "нейросеть", что такое reinforcement learning, что такое промпт, токен, окно контекста. Как обучение LLM происходит, чем обучение от инференса отличается, ну и так далее.
Потому что на аргумент
ну например так же как вы выискиваете галлюцинации в своих рассуждениях
я уже отвечал, мне не нужно их выискивать, потому что в моих рассуждениях их нет. Если бы были - мне бы люди, с которыми я регулярно и много общаюсь, на это указали бы. Но нет. В отличие от LLM, галлюцинации которых хорошо известны всем, в том числе и их создателям.
Если Вы в технической стороне LLM не разбираетесь - обсуждать с Вами вопрос "как специальный модуль будет искать и отсеивать галлюцинации" действительно бессмысленно. Каюсь и посыпаю виртуальным пеплом голову.
Выучить язык - безусловно дольше чем написать приложение. Написать свой код быстрее, чем разбираться с тем как работает чужой - это тем, кто уже выучил. Вроде должно быть понятно из контекста. Но если кому не понятно - поясняю
или же какой-то условный chatgpt который сразу же попрошу все документировать и объяснять свою логику, так что бы можно было передавать этот же проект другой ллм или человеку, что бы была возможна поддержка
А Вы разработчик? Или вайб-кодер? Или кто? Я не придираюсь, я просто понять хочу, откуда у человека, профессионально разбирающегося в разработке ПО, могут мысли такие образоваться?
Такие заявление принято в приличном обществе подкреплять аргументами. Про "демагог такой же" и так далее. Пока что демагогия на тему "GPT хорошо а кто не согласен плохие" исходит только от Вас. Поправьте, если неправ ... ))
А то что мысли у нас сходятся так это не удивительно - они такие у любого человека, который пока еще сам головой думать может, а не промпты в LLM строчить по любому поводу.
Голословное оно возможно для тех кто путь в програмирование через промпты в LLM начинал. Для людей с реальным опытом программирования головой и руками - нет.
С monkey code особо разбираться не надо
Люди, умеющие програмировать при помощи своей головы и рук, никогда результат своей работы словами monkey code называть не станут. Просто из уважения к себе самому и к своей профессии. Ну ладно, у всех свои представления о жизни. Monkey code в Вашем представлении это что? То что много раз повторяется и требует не размышлений? Так для этого сто лет в обед кодогенерацию придумали. Для OpenAPI с ходу вижу в поиске вот, вот и вот, дальше просто листать лень. И, повторюсь, прекрасно работает, ограничиваясь ресурсами на компьютере у разработчика. А не в ЦОД за афуллиарды баксов
anecdotal evidence не доказывает принципиальную невозможность чего-то
Безусловно. Точно так же как утверждение "нельзя разворачиваться через две сплошных" ничего не доказывает тому, что регулярно так разворачивается, и пока без последствий. Ровно до того момента, пока ему КАМАЗ с кузовом щебенки в бок не влетит.
смешно смотреть как вы пытаетесь убедить
Когда смешно - это хорошо. Смех и положительные эмоции продлевают жизнь и повышают ее качество )) У заблуждающихся людей просто часто (почти всегда) образуется аберрация восприятия действительности, и то, что им кажется хорошим и полезным, но таковым не является, все равно заходит ка приятное и полезное. А я не то что убедить пытаюсь, я просто обращаю внимание на то, в чем такая аберрация может проявляться.
ИИ уже сейчас позволяют мне экономить кучу времени. В сумме я экономлю заметно больше денег чем стоит подписка.
Вы зарплату в зависимости от количества строчек кода написанного получаете? Или Вас по службе повысили после перехода на LLM, с повышением оклада? Вы на чем деньги экономите при помощи LLM?
То ли у вас задачи очень сильно отличаются, то ли вы просто не понимаете как ИИ можно нормально использовать. И чем дольше я с вами дискустирую, тем больше я склоняюсь ко второму варианту.
Если про работу - задачи ровно те же что и у большинства разработчиков. Анализ задачи, планирование, реализация, отладка, тестирование, поддержка, доработка. Польза от LLM в решении этих задач - чуть меньше чем ноль. Если смотреть на окружающий мир как он есть, а не сквозь рекламные буклеты продаванов LLM. А Вы точно разработкой занимаетесь? А не креативным дизайном каким-нибудь?
Момент с "получаешь рабочий результат, который надо только протестить. Но свой код тоже тестить надо" вы специально проигнорировали?
Написать свой код быстрее, чем разбираться с тем как работает чужой. Так ведь вроде? Поэтому чтобы убедиться что результат рабочий, надо в этот результат вникнуть. А не просто запустить тесты, которые LLM и наклепала рядом с кодом.
На мелких задачах вроде "напиши класс PaymentOrder с конструктором и деструктором" выигрыш от использования LLM копеечный. А на задачах "напиши обработку входящих платежей, с валидацией данных через сервис A, получением остатков по счетам через сервис B, проверкой контрагентов через сервис C, и так далее" с тем что получилось на выходе придется подробно разбираться, тратя время, как минимум сопоставимое с тем, которое нужно чтобы ту же логику запилить самому. Ну или скопипастить не глядя, полагаясь на то, что тут же наклепаные LLM "тесты" проходят без ошибок.
Всех существующих библиотек в мире? И где можно взять такую волшебную IDE?
Всех нет. Но у меня к примеру VS Code без всяких Copilot (и даже без подключения к интернету) к автозаполнению предлагает варианты использования функций из модулей, сохраненных локально в /home/<username>/go/mod/pkg. В 9 случаях из 10 этого достаточно.
Он генерирует не пустые стабы, а уже с готовыми тестами, которые надо только проверить и подправить. Экономишь кучу времени, которое обычно нужно просто на то чтобы набивать текст.
Вы ссылку открывали про gotests? Там и видео даже есть. Про "экономишь кучу времени" см. выше про сервис который в ночь с пятницы на субботу падает. Вот там вся эта "экономия" и вылезает.
давайте я вам это объясню: ваши аналогии просто не корректны и не подходят под обсуждаемыц контекст
ваши доказательства - не доказательства (c)
не на конкретную тему, которая триггерит ваш фанатизм
Вообще-то "триггерит" Вас, а я просто делюсь своими мыслями по поводу GPT/LLM с заранее неопределенным кругом пользователей ресурса habr.com. Наша с Вами полемика началась с того, что я спросил у пользователя @krote откуда он возьмет справочники и базы данных чтобы проверять ответы GPT-5 на предмет галлюцинаций. А Вы зачем-то вместо него вписались в обсуждение. Зачем? Триггерит?
А от вас я не требую, а просто интересуюсь - как ваш специальный модуль будет галлюцинации искать? Сэм с гребцами будут в коробке сидеть и все выхлопы вычитывать?
И каким образом это должно доказывать что от ИИ программистам вообще нет никакой пользы в их работе?
Для начала есть смысл прочитать статью по ссылке.
Если не надо перед этим лезть и где-то искать как там правильно синтаксис у каких-нибудь регексов или там как правильно называются библиотеки или функции, которые ты последний раз использовал 100 лет назад.
Копипастить выхлоп LLM не глядя можно до известного предела. Пока масса косяков и мин замедленного действия, заложенных в вайб-код, не выстрелит где-нибудь в ночь с пятницы на субботу, и не поднимет всех причастных в пол-второго утра упавший сервис чинить. Примеры - хотя бы в статье по ссылке выше.
В синтаксисе регулярок ничего магического нет, надо один раз разобраться и использовать.
А имена библиотек и функций из них уже давно обычные IDE умеют подсказывать, без всяких LLM
Но с ИИ это проще и быстрее.
LLM по спецификации OpenAPI сгегерирует стабы для тестов быстрее, чем генератор тестов (такой, к примеру)? Неправда, мягко говоря. А даже если он с этой задачей справится на пару секунд медленнее - ему для этого будут нужны только ресурсы компьютера разработчика. А не ЦОД размером с десяток футбольных полей.
Котёнок с дверцей.
Аргументы завершились, GPT не помог.
Зачем мне спорить с очередным фанатичным неолуддитом?
Очень интересное утверждение, которое как минимум требует доказательства
Ну вот третьего дня прямо здесь на ресурсе статью обсуждали. Если не пытаться смотреть на мир только сквозь окно промпта LLM, таких примеров набирается вагон и тележка.
Маленькие и ограниченные классы, функции, сниппеты отлично пише
Маленький и ограниченный класс можно за минуту руками накидать. Хорошо, за две минуты можно. Это точно медленнее чем промпт сочинять?
Стабы для юнит-тестов генерирует
Генерировать тесты (а не только стабы) для API научились задолго до появления LLM (вот, к примеру, вот, и еще много кто много где).
Ошибки иногда быстро находит.
Сломанные часы иногда (а если быть точным два раза в сутки) правильное время показывают. Это основание для того чтобы ими пользоваться как рабочими?
Неправда. Даже в такой ситуации люди иногда ошибаются.
Человек может ошибиться один раз в год. При выполнении повторяющихся операций. Один раз в месяц может быть. А любая LLM начинает галлюцинировать по мере "уплывания" контекста. И он будет уплывать. Всегда. Потому что context window size - это размерность вектора, который на вход нейросетке поступает. И железо, которое могло бы обучать модели с контекстом хотя бы в два раза больше чем сейчас не придумали еще. И с учетом того, что технологии на основе кремния сейчас по сути уперлись в ограничение равное расстоянию между атомами в кристаллической решетке, в обозримом будущем не придумают. Разве что кукурузу перестать сажать-убирать, и все поля ЦОДами засеять.
Но опять же, это не отвечает на мой вопрос. Вы на него можете прямо ответить? Или нет?
Если имеется в виду
Так что, если вас обучить на правильных источниках, вы перестанете ошибаться?
то ответ простой - если я научусь правильно выполнять повторяющиеся операции, ошибаться не буду. Вот представьте себе. И лично знаю очень много людей, которые не ошибаются. Если человек не страдает СДВГ и/или прочими расстройствами - выполнять повторяющиеся операции без ошибок для него вполне естественно, и каких-то особых талантов не требует.
А вы как-то по другому выбираете инструменты для работы?
Ну например если я знаю что какие-то люди когда-то мне обои в квартире приклеили так, что они через год от стенок отслаиваться стали, я у них по новой ремонт заказывать не буду. Как бы они себя не рекламировали. Со специальными модулями и чем угодно еще.
И в чём оно заключается то?
В том что LLM хайп, фуфел, и финансовая пирамида. Хотите поспорить?
И что этот анекдот должен доказывать или опровергать?
Доказывает ровно то о чем здесь и на других ресурсах неоднократно писали: применительно к программированию LLM кажутся полезными на стадии вау-эффекта при первом знакомстве. Даже на горизонте нескольких недель, а тем более месяцев, разработчики, которые заинтересованы в результате своей работы, а не только в том, чтобы выходцев из страны на букву И обогнать в скорости производства г-внокода, либо кратно сокращают ииспользование LLM, либо вообще от них отказываются.
И даже такие "замедленные" варианты скорее всего будут заметно быстрее человека
В производстве галлюцинаций? Охотно верю. Остальное пока на стадии исследований и рекламных обещаний.
если вас обучить на правильных источниках, вы перестанете ошибаться?
Человек, обучившийся повторяющимся операциям, выполняет их далее без ошибок. В отличие от LLM, начинающим галлюцинировать при выполнении в неожиданных местах по поводу и без, причем в попытках ответить на повторяющиеся вопросы.
Мне в данном конкретном случае не особо интересно что там точно под капотом
Ну то есть рекламных обещаний вам достаточно?
Но вас же никто не заставляет пользоваться ИИ. Живите без него. В чём проблема?
Мне кто-то запретил свое мнение по поводу LLM высказывать?
у вас определенно нет модуля проверяющего на галлюцинации. и ничего, живёте ведь
Нет галлюцинаций - не нужен модуль. Так и живу )) Чего и другим по возможности желаю
А у LLM галлюцинации есть - стало быть модуль им нужен. Осталось понять, как Сэмовы гребцы такой модуль сооружать собрались? Как галлюцинирующий агрегат будет сам у себя галлюцинации искать?
Анекдот про машинистку, которая 1000 знаков в минуту может печатать, и что при этом получается на выходе, тут уже неоднократно приводили. Кстати сами создатели LLM всерьез размышляют как свои поделия заставить думать медленнее
Если вас на правильныз справочниках обучить, то вы никогда ошибаться не будете? Ну если не давать вам возможности проверить свои ответы прежде чем отвечать?
Пример: когда я программу пишу на знакомом мне языке программирования, мне не нужно себя проверять, что я в if-then-elsethen и else местами не перепутал, и в программу на Go import pytest не вкорячил. Проверять свои ответы перед тем как отвечать - это как раз привычка, которая у активных пользователей LLM вырабатывается, нормальным людям она ни к чему. Обучение человека в том и заключается, что он пробует, ошибается, запоминает ошибки и больше их не делает. В отличие от LLM. Хоть с модулями, хоть без.
Кстати, а как вы себе этот специальный модуль представляете? Вот сгенерила LLM ответ, и сама себя спрашивает - а ну пойди ка проверь этот ответ еще раз. Так что ли? А если она при проверке вместо того, чтобы убрать предыдущую галлюцинацию, новую поверх нее сгенерит?
Сначала нейросеть обучается на том, что ей подали на вход, то есть в том числе на справочниках и базах данных. В результате она на выходе генерирует галлюцинации, и идет проверять ответ в те же справочники и базы данных.
Очень убедительно. Одно непонятно - галлюцинации при таком раскладе откуда берутся? Или она на одних справочниках и базах данных обучается и галлюцинирует, и в другие справочники и базы данных лезет чтобы ответ проверить? Почему тогда ее сразу на правильных справочниках и базах данных не обучить?
К этому проекту кроме Вас еще кто-то доступ имеет? У него какая нагрузка? User Experience? Сколько инцидентов в день / неделю / месяц? Какие требования к availability / evolvability / производительности?
Про неуловимого Джо слышали? ))
Утверждение я видел в жизни сколько-то плохих разработчиков - значит все разработчики плохие неверное. Объяснить почему?
Уважаю ))
Хорошие
мушкетеры короляадминистраторы против плохихгвардейцев кардиналаразработчиков - такой шаблон в реальной жизни не работает, все сложнее гораздо )) Хотя происхождение идеи все разработчики г-вно, вот ИИ мне отгрузит правильный код да еще и документацию к нему сочинит объясняет ))Я утверждаю что написать свой код быстрее чем разобраться с чужим. Вы утверждаете что это утверждение голословное. Так же голосовно утверждаете, замечу ))
Поделитесь Вашими знаниями. К числу общепринятых этот термин не относится
Мне не нужно в 1 из 10 случаев использовать ИИ. Достаточно у гугля спросить. Пока хватает. И не так уж много времени занимает. Зато спросив один раз,и получив ответ, можно это информацию в дальнейшем повторно использовать. А не полагаться на то что какой-то черный ящик за тебя все придумает и решит.
С чего бы это ложная? Поясните
Хочу понять Ваше утверждение В сумме я экономлю заметно больше денег чем стоит подписка. На чем конкретно можно сэкономить используя LLM.
Из недавнего - Claude 3.5/3.7, Gemini 2.5, Qwen 3.5, DeepSeek R1. С GPT экспериментировал до 3.5 включительно, 4o смотрел на задачах с программированием не связанных, не впечатлило.
Сочинял текстовые задания, если надо дорабатывать/дополнять существующий код - добавлял к промпту исходники, выхлоп приходится в диалоге постоянно вычитывать, просить заменять несуществующие импорты, функции, неправильные сигнатуры в функциях. Если повезет - с 5-6 раза можно получить работающий (вроде) код. Можно упороться - сочинять технические задания с приложением code style guide размером догоняющим гугловые, и пояснениями какие функции из каких модулей надо использовать для решения задач, и в каком порядке. Но мне просто код с нуля в IDE ручками написать быстрее и проще. Может это особенность программирования на Go? Не знаю, но несколько раз пришлось сочинять и скармиливал задание на Python/FastAPI/Airflow - на выходе такая-же сырая и неработающая хрень. Юнит-тесты отдать ей сочинять - то что на выходе в свое время здесь на Хабре хорошо описал Тагир Валеев.
Пробовал Copilot в VS Code, клавиши страшно нажимать, code completion явно обучали на продукции ребят из страны И, находившихся в этот момент где-то между нирваной и сансарой (или наоборот). Автодополнение в VS Code и так прилично работает, без копилотов разных. Включил Agent Mode, послушал бред солевого наркомана. Выключил.
В репозиториях Github настраивал Copilot Pull Request Overview, получил в ответ поток сознания, который пытался мне рассказать то что я и так знаю, но с ошибками. Отключил.
Отдавал stack trace на анализ - получил в ответ предложение убрать из исходного кода
panic()
и заменитьlog.Fatalf()
наlog.Printf()
, мем с пингвиномНу и так далее
Я не говорю "не существует - не работает". Я спрашиваю как по Вашему это можно реализовать? Вы с устройством LLM знакомы? Что там под капотом, при чем тут "нейросеть", что такое reinforcement learning, что такое промпт, токен, окно контекста. Как обучение LLM происходит, чем обучение от инференса отличается, ну и так далее.
Потому что на аргумент
я уже отвечал, мне не нужно их выискивать, потому что в моих рассуждениях их нет. Если бы были - мне бы люди, с которыми я регулярно и много общаюсь, на это указали бы. Но нет. В отличие от LLM, галлюцинации которых хорошо известны всем, в том числе и их создателям.
Если Вы в технической стороне LLM не разбираетесь - обсуждать с Вами вопрос "как специальный модуль будет искать и отсеивать галлюцинации" действительно бессмысленно. Каюсь и посыпаю виртуальным пеплом голову.
Выучить язык - безусловно дольше чем написать приложение. Написать свой код быстрее, чем разбираться с тем как работает чужой - это тем, кто уже выучил. Вроде должно быть понятно из контекста. Но если кому не понятно - поясняю
А Вы разработчик? Или вайб-кодер? Или кто? Я не придираюсь, я просто понять хочу, откуда у человека, профессионально разбирающегося в разработке ПО, могут мысли такие образоваться?
Такие заявление принято в приличном обществе подкреплять аргументами. Про "демагог такой же" и так далее. Пока что демагогия на тему "GPT хорошо а кто не согласен плохие" исходит только от Вас. Поправьте, если неправ ... ))
А то что мысли у нас сходятся так это не удивительно - они такие у любого человека, который пока еще сам головой думать может, а не промпты в LLM строчить по любому поводу.
Голословное оно возможно для тех кто путь в програмирование через промпты в LLM начинал. Для людей с реальным опытом программирования головой и руками - нет.
Люди, умеющие програмировать при помощи своей головы и рук, никогда результат своей работы словами monkey code называть не станут. Просто из уважения к себе самому и к своей профессии. Ну ладно, у всех свои представления о жизни. Monkey code в Вашем представлении это что? То что много раз повторяется и требует не размышлений? Так для этого сто лет в обед кодогенерацию придумали. Для OpenAPI с ходу вижу в поиске вот, вот и вот, дальше просто листать лень. И, повторюсь, прекрасно работает, ограничиваясь ресурсами на компьютере у разработчика. А не в ЦОД за афуллиарды баксов
Все - нет. если бы читали внимательнее, то обратили бы внимание на фразу в 9 случаях из 10 этого достаточно
Безусловно. Точно так же как утверждение "нельзя разворачиваться через две сплошных" ничего не доказывает тому, что регулярно так разворачивается, и пока без последствий. Ровно до того момента, пока ему КАМАЗ с кузовом щебенки в бок не влетит.
Когда смешно - это хорошо. Смех и положительные эмоции продлевают жизнь и повышают ее качество )) У заблуждающихся людей просто часто (почти всегда) образуется аберрация восприятия действительности, и то, что им кажется хорошим и полезным, но таковым не является, все равно заходит ка приятное и полезное. А я не то что убедить пытаюсь, я просто обращаю внимание на то, в чем такая аберрация может проявляться.
Вы зарплату в зависимости от количества строчек кода написанного получаете? Или Вас по службе повысили после перехода на LLM, с повышением оклада? Вы на чем деньги экономите при помощи LLM?
Если про работу - задачи ровно те же что и у большинства разработчиков. Анализ задачи, планирование, реализация, отладка, тестирование, поддержка, доработка. Польза от LLM в решении этих задач - чуть меньше чем ноль. Если смотреть на окружающий мир как он есть, а не сквозь рекламные буклеты продаванов LLM. А Вы точно разработкой занимаетесь? А не креативным дизайном каким-нибудь?
Зато я тебе плюсанул, дня два назад еще ))
Написать свой код быстрее, чем разбираться с тем как работает чужой. Так ведь вроде? Поэтому чтобы убедиться что результат рабочий, надо в этот результат вникнуть. А не просто запустить тесты, которые LLM и наклепала рядом с кодом.
На мелких задачах вроде "напиши класс PaymentOrder с конструктором и деструктором" выигрыш от использования LLM копеечный. А на задачах "напиши обработку входящих платежей, с валидацией данных через сервис A, получением остатков по счетам через сервис B, проверкой контрагентов через сервис C, и так далее" с тем что получилось на выходе придется подробно разбираться, тратя время, как минимум сопоставимое с тем, которое нужно чтобы ту же логику запилить самому. Ну или скопипастить не глядя, полагаясь на то, что тут же наклепаные LLM "тесты" проходят без ошибок.
Всех нет. Но у меня к примеру VS Code без всяких Copilot (и даже без подключения к интернету) к автозаполнению предлагает варианты использования функций из модулей, сохраненных локально в
/home/<username>/go/mod/pkg
. В 9 случаях из 10 этого достаточно.Вы ссылку открывали про gotests? Там и видео даже есть. Про "экономишь кучу времени" см. выше про сервис который в ночь с пятницы на субботу падает. Вот там вся эта "экономия" и вылезает.
ваши доказательства - не доказательства (c)
Вообще-то "триггерит" Вас, а я просто делюсь своими мыслями по поводу GPT/LLM с заранее неопределенным кругом пользователей ресурса habr.com. Наша с Вами полемика началась с того, что я спросил у пользователя @krote откуда он возьмет справочники и базы данных чтобы проверять ответы GPT-5 на предмет галлюцинаций. А Вы зачем-то вместо него вписались в обсуждение. Зачем? Триггерит?
В возможность обучения - верю. В возможность проходимцев и обманщиков перестать быть проходимцами и обманщиками - нет. Уж извините.
Почему нельзя, можно конечно.
А от вас я не требую, а просто интересуюсь - как ваш специальный модуль будет галлюцинации искать? Сэм с гребцами будут в коробке сидеть и все выхлопы вычитывать?
Для начала есть смысл прочитать статью по ссылке.
Копипастить выхлоп LLM не глядя можно до известного предела. Пока масса косяков и мин замедленного действия, заложенных в вайб-код, не выстрелит где-нибудь в ночь с пятницы на субботу, и не поднимет всех причастных в пол-второго утра упавший сервис чинить. Примеры - хотя бы в статье по ссылке выше.
В синтаксисе регулярок ничего магического нет, надо один раз разобраться и использовать.
А имена библиотек и функций из них уже давно обычные IDE умеют подсказывать, без всяких LLM
LLM по спецификации OpenAPI сгегерирует стабы для тестов быстрее, чем генератор тестов (такой, к примеру)? Неправда, мягко говоря. А даже если он с этой задачей справится на пару секунд медленнее - ему для этого будут нужны только ресурсы компьютера разработчика. А не ЦОД размером с десяток футбольных полей.
Аргументы завершились, GPT не помог.
Действительно, зачем? Однако зачем-то спорите.
По существу есть что спросить?
Лучше скажите как ваше галлюцинирующее LLM-божество будет само у себя галлюцинации искать?
Сравнивать LLM и человека - это все равно что сравнивать попугая и человека на том основании что и того и другого можно научить ругаться матом
Ну вот третьего дня прямо здесь на ресурсе статью обсуждали. Если не пытаться смотреть на мир только сквозь окно промпта LLM, таких примеров набирается вагон и тележка.
Маленький и ограниченный класс можно за минуту руками накидать. Хорошо, за две минуты можно. Это точно медленнее чем промпт сочинять?
Генерировать тесты (а не только стабы) для API научились задолго до появления LLM (вот, к примеру, вот, и еще много кто много где).
Сломанные часы иногда (а если быть точным два раза в сутки) правильное время показывают. Это основание для того чтобы ими пользоваться как рабочими?
Человек может ошибиться один раз в год. При выполнении повторяющихся операций. Один раз в месяц может быть. А любая LLM начинает галлюцинировать по мере "уплывания" контекста. И он будет уплывать. Всегда. Потому что context window size - это размерность вектора, который на вход нейросетке поступает. И железо, которое могло бы обучать модели с контекстом хотя бы в два раза больше чем сейчас не придумали еще. И с учетом того, что технологии на основе кремния сейчас по сути уперлись в ограничение равное расстоянию между атомами в кристаллической решетке, в обозримом будущем не придумают. Разве что кукурузу перестать сажать-убирать, и все поля ЦОДами засеять.
Если имеется в виду
то ответ простой - если я научусь правильно выполнять повторяющиеся операции, ошибаться не буду. Вот представьте себе. И лично знаю очень много людей, которые не ошибаются. Если человек не страдает СДВГ и/или прочими расстройствами - выполнять повторяющиеся операции без ошибок для него вполне естественно, и каких-то особых талантов не требует.
Ну например если я знаю что какие-то люди когда-то мне обои в квартире приклеили так, что они через год от стенок отслаиваться стали, я у них по новой ремонт заказывать не буду. Как бы они себя не рекламировали. Со специальными модулями и чем угодно еще.
В том что LLM хайп, фуфел, и финансовая пирамида. Хотите поспорить?
Доказывает ровно то о чем здесь и на других ресурсах неоднократно писали: применительно к программированию LLM кажутся полезными на стадии вау-эффекта при первом знакомстве. Даже на горизонте нескольких недель, а тем более месяцев, разработчики, которые заинтересованы в результате своей работы, а не только в том, чтобы выходцев из страны на букву И обогнать в скорости производства г-внокода, либо кратно сокращают ииспользование LLM, либо вообще от них отказываются.
В производстве галлюцинаций? Охотно верю. Остальное пока на стадии исследований и рекламных обещаний.
Человек, обучившийся повторяющимся операциям, выполняет их далее без ошибок. В отличие от LLM, начинающим галлюцинировать при выполнении в неожиданных местах по поводу и без, причем в попытках ответить на повторяющиеся вопросы.
Ну то есть рекламных обещаний вам достаточно?
Мне кто-то запретил свое мнение по поводу LLM высказывать?
Нет галлюцинаций - не нужен модуль. Так и живу )) Чего и другим по возможности желаю
А у LLM галлюцинации есть - стало быть модуль им нужен. Осталось понять, как Сэмовы гребцы такой модуль сооружать собрались? Как галлюцинирующий агрегат будет сам у себя галлюцинации искать?
Анекдот про машинистку, которая 1000 знаков в минуту может печатать, и что при этом получается на выходе, тут уже неоднократно приводили. Кстати сами создатели LLM всерьез размышляют как свои поделия заставить думать медленнее
Пример: когда я программу пишу на знакомом мне языке программирования, мне не нужно себя проверять, что я в
if-then-else
then
иelse
местами не перепутал, и в программу на Goimport pytest
не вкорячил.Проверять свои ответы перед тем как отвечать - это как раз привычка, которая у активных пользователей LLM вырабатывается, нормальным людям она ни к чему. Обучение человека в том и заключается, что он пробует, ошибается, запоминает ошибки и больше их не делает. В отличие от LLM. Хоть с модулями, хоть без.
Кстати, а как вы себе этот специальный модуль представляете? Вот сгенерила LLM ответ, и сама себя спрашивает - а ну пойди ка проверь этот ответ еще раз. Так что ли? А если она при проверке вместо того, чтобы убрать предыдущую галлюцинацию, новую поверх нее сгенерит?
Сначала нейросеть обучается на том, что ей подали на вход, то есть в том числе на справочниках и базах данных. В результате она на выходе генерирует галлюцинации, и идет проверять ответ в те же справочники и базы данных.
Очень убедительно. Одно непонятно - галлюцинации при таком раскладе откуда берутся? Или она на одних справочниках и базах данных обучается и галлюцинирует, и в другие справочники и базы данных лезет чтобы ответ проверить? Почему тогда ее сразу на правильных справочниках и базах данных не обучить?
На входе еще специальный модуль прикрутить, и дело в шляпе.
Но это оставим для GPT-7