Обновить

Комментарии 22

ИМХО, но все эти АИ ведут к утрате компетенций... и люди попадают в ловушку: не будет развиваться АИ - на короткой дистанции компания может отстать, а про длинную, на которой компетенции будут утрачены и уже ответственные за это давно уйдут на повышение и в другие компании - никто не задумывается.

Если речь идет о кодинге, то результат важен здесь и сейчас не взирая на качество и эффективность этого самого кода... лет 30+ назад на МСХ2 на тамошнем АСМе мы боролись за каждый байт, а теперь просто докинут еще планку с 8 гигами и так сойдет...

в других областях потеря компетенций идет так же быстро... когда окончательно компании покинут те, кто реально знал как все работает, менеджеры останутся один на один с АИ и вайб-кодерами... но это будет потом, а пока - хайп ловят

Согласен, что потеря компетенции возможна и даже вероятна, но к сожалению или счастью источником знаний о проекте, о том как он устроен и работает - выступает кодовая база. Поэтому уход сотрудников может быть в настоящее время не так важен, поскольку узнать как что-то работает сейчас в коде можно буквально за несколько секунд.

Я целенаправленно в течении нескольких месяцев сравнивал точность и качество ответов по-кодовой базе полученными самостоятельно и от клода. И если раньше, скажем год назад, ответы от AI нельзя было надежно использовать, то сейчас ситуация обратная - правильность ответов в районе 95% процентов по моей статистике.

Но остается риск деградации самой кодовой базы - это правда. Падение производительности, бесполезный или не эффективный код и т.п. Можно взглянуть на картинки в моей статье, вначале и в конце - они сгенерированы в рамках одной сессии и видно, как качество начинает постепенно деградировать.

Но чтобы убедиться, что это не те 5%, вам же нужно лично разобрать код. И разбирать надо всё случаи, вы же не знаете, когда ИИ ошибся. То есть, разобрать, как работает код, по кодовой базе за пару секунд невозможно.

А по моей статистике правильных ответов 55%

Все может быть еще интересней. Зачем нужны вайб-кодеры, если требования формирует AI, код пишет AI, тестирует AI, деплоит AI. Вот менеджер страничку пожеланий накатал, а в результате ит-содержащий продукт. Можно еще пару страничек накатать, чтобы шлифануть и передавать заказчикам. Да и менеджер нужен лишь как гарант качества, на которого можно будет списать убытки пользователей

Технология молодая. Это как автомобили на паровых двигателях. Да пусть даже не на паровых - всё равно до уровня конца 20-го века ещё нужно было пройти долгий путь. Но он рано или поздно будет пройден.

Если у вас есть конкретные примеры использования агентов, то было бы интересно почитать.

Конкретные примеры - есть. В будущем планирую более детально писать на эту и другие темы, вижу что, возможно, что-то практическое с примерами кода и т.п. было бы более полезно

А так ли на самом деле плохо доверять AI при решении задач, не разбираясь в деталях реализации? В конце концов, используем же мы современные авто с огромным количеством электроники, полностью доверяя ей. При условии гарантии качества, конечно.

Если ты покупаешь новое авто в салоне, а на следующий день у него отказывают тормоза, ты попадаешь в больницу, сбиваешь несколько людей, разбиваешь свой и несколько соседних авто - кто будет этот банкет оплачивать? Что-то мне подсказывает, что производитель авто.

Как думаете, когда наступят те времена, когда можно будет подать иск на OpenAI, за то что GPT сгенерил проект, в результате использования которого компания понесла убытков на дохулиард денег? Или будем вводить новую должность - зицпрограммист «Я всю жизнь сидел за других, такая моя профессия — страдать за других»

А ещё можно подать суд на производителя калькулятора, который неверно сложил 2+2, и вы не выплатили ипотеку вовремя.

Если этот калькулятор находится на сайте этого же банка, то в большинстве стран мира, если закрепить и заверить скрины, суд встанет на сторону потребителя

То же самое и с нейросетевым чат-ботом на сайте (был даже прецедент с какой-то канадской авиакомпанией).

В том случае чат-бот был собственной разработки, компания заплатила (относительно недорого) за свой же инструмент. Если речь идет о проектах написанных с помощью сторонних AI возникает вопрос, кто будет оплачивать галлюцинации, и автор четко показывает хотелки менеджеров:

А так ли на самом деле плохо доверять AI при решении задач, не разбираясь в деталях реализации? В конце концов, используем же мы современные авто с огромным количеством электроники, полностью доверяя ей. При условии гарантии качества, конечно.

О какой гарантии идет речь? Может как у калькуляторов, где четко написано, что производитель не отвечает за верность расчетов? Или гарантии пользователей AI, которые с его помощью реализовали свой функционал (не разбираясь в деталях реализации), и теперь гарантируют что функционал работает верно? Как по мне очевидно, что речь идет о гарантиях разработчиков AI, о том что решения их продукта будут работать без ошибок. А в противном случае будут возмещать ущерб. Вот только этого не будет, а гарантии будут как на калькуляторах.

Но тогда придется нести ответственность уже самим менеджерам, которые одной LLM будут скармливать свои пожелания и получать бизнес-требования, которые будут переходить к другой, пишущей код, и затем к третьей - пишущей тесты, и к четвертой, которая все это дело задеплоит. Так а кого пороть-то будут в случае фейла?! Не того фейла, когда продукт не взлетает, а того, когда деньги клиентов утекают, когда сотни человек погибших, когда моря залитые нефтью. Вот я и говорю - что будет новая профессия зицпрограммист, который будет нести всю ответственность за продукт реализованный с помощью AI, но который "не разбирался в деталях реализации". Причем крупные корпорации смогут нанимать таких персонажей на аутсорсе, как отдельных лиц. Взлетел продукт - молодец возьми денюжку и иди на пенсию. Зафейлил - мы не виноваты - вот компания "Рога и Копыта", она нам гарантировала качество, все вопросы к мосье Фунту.

Так а кого пороть-то будут в случае фейла?! Не того фейла, когда продукт не взлетает, а того, когда деньги клиентов утекают, когда сотни человек погибших, когда моря залитые нефтью.

А кого порят сейчас? В вашем примере - того же менеджера. Вот если мы дорастём до ИИ такого уровня, чтобы он сам себе задачи ставил и решал их, то тут уже дилемма посложнее будет. А при текущем уровне - это примерно как с владельцами беспилотных Тесл. Не держал руки на руле - сам дурак.

Сейчас есть конкретные персонажи виновные в этом - разработчики и тестировщики, которые создавали проект, и которых страх потерять работу и получить волчий билет на всю жизнь заставлял делать это хорошо. Есть менеджеры, которых могут посадить за халатность или мошенничество, если они в погоне за прибылью начнут злоупотреблять. У AI нет страха и ответственности за сгенерированный код. Об этом и речь.

Давай лучше, не про автопилот Теслы, а про Waymo поговорим. Есть команда, которая написала код автопилота для такси. Это беспилотное такси работает, компания несет ответственность за поведение своего продукта, все пассажиры застрахованы. Если верить гуглу - 400000 поездок в неделю, сервис работает с 2020 года. Как думаешь код для этого автопилота тоже писали с помощью AI не разбираясь в деталях реализации?

Ну так я и говорю, что в текущих реалиях конечная ответственность лежит на том, кто нажимает на кнопку. А в случае с любым автопилотом - на разработчике этого автопилота при условии правильной его эксплуатации. В случае с Waymo - если высовываться по пояс из окна во время поездки, то за столкновение со встречным автобусом высунувшегося пассажира будет отвечать сам пассажир. Если же пассажир всё делал правильно, а такси врезалось в стену на полной скорости, то те самые разработчики будут нести ответственность. И не важно, какими инструментами они пользовались при разработке.

А при текущем уровне - это примерно как с владельцами беспилотных Тесл. Не держал руки на руле - сам дурак.

!=

Ну так я и говорю, что в текущих реалиях конечная ответственность лежит на том, кто нажимает на кнопку. А в случае с любым автопилотом - на разработчике этого автопилота при условии правильной его эксплуатации

Я правильно понял твою путанную мысль, что если я открыл приложение банка, нажал кнопку оплатить счет за свет, а приложение, написанное с помощью AI, перевело все мои деньги Мыколе Бондарю в Украину, то это я виноват?

!=

Всё там равно. Держать руки на руле - это одно из условий правильной эксплуатации.

Я правильно понял твою путанную мысль, что если я открыл приложение банка, нажал кнопку оплатить счет за свет, а приложение, написанное с помощью AI, перевело все мои деньги Мыколе Бондарю в Украину, то это я виноват?

Виноват разработчик приложения. Вне зависимости от того, писал он код сам или только ревьюил написанное AI / индусом на аутсорсе.

Тимлид тоже будет нести ответственность, даже если написание этого кода не входило в его обязанности. И руководитель этого тимлида - тоже. Это коллективная ответственность. Кто-то плохо код пишет, кто-то - плохо ревьюит, а кто-то плохо организовывает разработку в целом.

Вот если у самой OpenAI, например, появится своя платёжная система, управляемая AI, то ответственность будет нести компания-разработчик этого AI.

Виноват разработчик приложения. Вне зависимости от того, писал он код сам или только ревьюил написанное AI / индусом на аутсорсе.

Это буквально моя мысль из самого первого комментария, в которым я оценивал желание автора статьи "доверять AI при решении задач, не разбираясь в деталях реализации... При условии гарантии качества, конечно."

Но ты на это отвечал

А ещё можно подать суд на производителя калькулятора, который неверно сложил 2+2, и вы не выплатили ипотеку вовремя.

из чего и вышел весь срач. Определись гарантирует ли разработчик AI качество своего продукта, используемого для создания функционала потребителем этого AI, или нет, и будет ли когда-нибудь гарантировать.

А насчет автопилота просто признай очевидную вещь - Waymo  несет ответственность за свой автопилот полностью, а Тесла за него никак не отвечает, о чем честно пишет в руководстве пользователя. И выходит, что никакого автопилота в Тесле нет, а их продукт - обычный авто с "функцией помощи водителю". Хотя американским судам уже это надоело и в прошлом году был случай когда их обули на 243 млн. за "Присяжные сочли, что Tesla вводила потребителей в заблуждение относительно реальных возможностей «автопилота», создавая «иллюзию» полной автономности."

Я отвечал про пример с банком, где разработчиком продукта выступает сам банк. В случае с калькулятором или ChatGPT разработчик не имеет отношения к тому, как этот продукт используют. И если его используют для торговли на финансовых рынках, например, то разработчик ответственности нести не будет.

Определись гарантирует ли разработчик AI качество своего продукта, используемого для создания функционала потребителем этого AI, или нет, и будет ли когда-нибудь гарантировать.

Вне зависимости от того, гарантирует он это качество или нет, ответственность он будет нести только за стоимость подписки, которую пользователь заплатил. А не за убытки, понесённые из-за использования написанного кода.

А насчет автопилота просто признай очевидную вещь - Waymo  несет ответственность за свой автопилот полностью, а Тесла за него никак не отвечает, о чем честно пишет в руководстве пользователя.

У Теслы тоже есть беспилотные такси, просто она запоздала с этим по сравнению с Waymo. В обоих случаях, когда производитель беспилотника является его эксплуатантом, то он и несёт целиком ответственность за действия беспилотника. А вот если эксплуатантом является другое лицо, то ответственность уже начинает перераспределяться на это лицо.

Калькуляторами тоже пользуются уже не одно поколение, но никому в голову не приходит подавать в суды на производителей калькуляторов из-за возникших убытков.

Но какой буст получают сеньоры?

Сеньор теперь может в одиночку сделать целый проект (ну, хотя бы пет-проект). Обычно специализация сеньора на чем-то одном (например, бек), и делать фронт или рисовать картинки для дизайна получается либо криво, либо надо находить специалиста (другие компетенции). Сети позволяют закрывать этот пробел.

Согласен, круг задачь сильно вырастает, возможно как раз все движется к тому что даже для крупных проектов будет достаточно одного человека - который за всем следит и делает от начала до конца.

Предлагаю AI ваш на атомной станции поставить рядом с вами местом жительства и одного оператора который будет следить за всем.

Зарегистрируйтесь на Хабре, чтобы оставить комментарий

Публикации