Ну, оно так и получается. Имеем выборку типа: из 100 реальных задач есть 1, которую можно ускорить на 80%, ещё 2 - на 50%, 80 задач - на 5%, и ещё 17 с использованием нейросетей займут дольше, чем без них. И "гениальный" вывод из этой статистики, что нейросети позволяют получить ускорение до 80% при решении задач (а то что среднее ускорение меньше 5% получилось просто умолчим)
Для крупных компаний - разумеется только это и является таргетом. Зачем вообще оптимизировать статику, если она в расходах на разработку и так занимает 0.001%
И статистически большинство сайтов в интернете именно такие по сложности реализации и ещё меньше по нагрузке
Это вообще не важно. Да, большинство сайтов в интернете это либо статика, либо Wordpress. Но 99.99% денег на разработку уходит совсем на другое.
Возможно вы не представляете насколько много лендингов и промо страниц нужно реальному большому бизнесу и по сколько им обходятся итерации АБ тестов всего этого
Я представляю. Я даже разрабатывал сервис, который все эти A/B тесты сам проводил, не только на лендингах, а даже виджетами на любой странице. И вот секрет: чтобы это делать, программировать вообще не надо)
Так это и есть пример манипуляции статистикой. Вместо того, чтобы оценивать эффект на задачах разработки под нагруженный production, его оценивают на каких-то учебных или хобби-задачах. И вуалируют это под "some tasks", чтобы продать иллюзию ускорения разработки крупному бизнесу, у которого задач, которые настолько можно было бы ускорить, и не было никогда.
При этом ссылаются на эти 80% в своём же исследовании, которое показало ускорение джунов на учебной задаче в среднем на 2 минуты из 35. Т.е. около 5% ускорения даже на учебной задаче. Вам не кажется, что тут попахивает противоречием?
В той же статье Anthropic говорится, что ускорение в отдельных задачах может доходить до 80%.
Звучит как цифра с потолка, они даже поленились выдумать примеры подобных задач, просто "can speed up some tasks by 80%". Прям напоминает классическую книгу по этой теме: Как лгать при помощи статистики
Я показываю что есть множество проектов которые находятся в промежутке, часто - к нижней границе. Но не один пользователь и поддерживаемые больше года.
Разве кто-то этого не знает?
есть огромный пласт фриланса, агентских заказов, где бюджеты до 2М, делается иногда и правда для одного, но часто это небольшие сервисы. Но таких проектов тьма и вот их есть смысл делать именно на LLM
Попробуйте на VC статью закинуть, что теперь фрилансеры не нужны, можете сами сделать бота или лендинг под свой малый бизнес при помощи LLM. Вероятно, там аудитория более подходящая для такого контента.
Вопрос не в этом. Дело в том, что вы пытаетесь выступать в роли эксперта. При этом ваши проекты выглядят игрушечными для людей, которые пишут сервисы, обрабатывающие в секунду больше запросов, чем у вас за сутки.
У меня такое ощущение, что мы уже десяток комментариев упорно топчемся вокруг разного понимания слова шаблонный код.
Ну, что ж поделать, если вы выдумали сугубо своё определение для устоявшегося в индустрии термина.
Ну то есть уже писать вручную?
А как вы SQL напишите нейронкой? Будете ей объяснять смысл запроса только на английском, а не на SQL. И тут большой вопрос что из этих 2 вариантов быстрее.
Так по моему опыту проще с самого начала написать вручную, вся эта типовая обвязка совсем немного кода занимает обычно и часть времени на нее уходит совсем небольшая.
Я бы это даже обобщил. Обычно у разработчика сеньорного уровня на набор кода уходит 10-20% рабочего времени. Т.е., в принципе, на набор кода часть времени уходит совсем небольшая.
Как я ее сформулирую, если это раскроет детали работы, которые запрещено раскрывать по требованиям корпоративных политик и ИБ?
Право слово, у вас просто фееричное определение шаблонного кода xD
Очень прошу, не применяйте это словосочетание в таком контексте больше никогда, не вводите людей в заблуждение.
Определения шаблонного кода как минимум. Потому что то, что вы описываете "джойны, куча условий в выборке, агрегатные поля, выборка не одна ... некоторое количество бизнес логики" - это вообще ни разу не про шаблонный код.
судя по всему генерит только пустые заглушки контроллера и прочей обвязки
Не пустые, а базово рабочие. При этом никто не мешает вам просто заменить SQL-запрос (добавить условий, прелоады и т.д.) в сгенерированном шаблоне и о чудо, оно тоже заработает.
Начать можно с того что hml-шаблоны сейчас вообще не нужны, нужны компоненты Vue/Angular/React
Там есть генератор для JSON-ответов. У фронтов тоже есть свои генераторы. Просто раз уж по условию вашей задачи этим занимается другой отдел, то эта часть уже out-of-scope.
опять же я не говорю про сложные проекты или сложные части проектов, просто про рядовую рутину бизнес-приложений
Так вы не пойми про что говорите.. Если вы не можете даже сформулировать пример типовой задачи на вашем проекте (пусть и не шаблонной, но хотя бы типовой - чтобы в проекте был хотя бы десяток случаев где это повторяется), то как вы собрались объяснять LLM что от неё требуется?
ну вот типичнейшая шаблонная задача "перекладывателя JSON" как любят говорить на Хабре - есть некая форма, надо сверстать ее, взять с нее данные, передать на бэк, положить в табличку или несколько табличек и вычитать обратно с бэка и передать на форму.
В индустрии тоже не дураки работают. Практически весь шаблонный код давным-давно автоматизирован. Где-то генераторами, где-то через метапрограммирование. Пользы от LLM тут практически нет. Только совершенно ненужная вероятность галлюционирования добавляется в полностью детерминированную задачу.
Мидлов и джунов код, написанный LLM, гораздо чаще впечатляет во многом потому что они не могут адекватно оценить его готовность к нагрузкам и edge-кейсам, а также стоимость его поддержки.
Сеньоры, как правило, маленькие фрагменты только LLM доверяют, чтобы можно было их проверить. Но вот нюанс, написание кода - это и без LLM от силы 10-20% времени от работы сеньора. Это не та часть работы, ускорение которой даст существенный прирост к производительности. Да и описать кодом то, что надо сделать, для многих проще и быстрее, чем описать это английским языком (он как минимум более многословен)
Так то да, время покажет. Просто комментарии тоже надо проверять. Не факт, что они от Senior-разработчиков, которые на постоянной основе занимаются написанием кода.
По вашему технический рост как-то отдельно от финансов существует? Схлопывание пузыря, разумеется, не убьёт технологию, но приведёт к периоду охлаждения. Об этом и речь. Потом (напр. лет через 10) ещё какой-нибудь технологический прорыв станет возможен.
в том плане что люди за месяц перешли от 20% кода нейросеткой + 80% вручную уже к 80% кода нейросеткой и 20% вручную.
Какие люди? Вы ссылаетесь на пост одного человека. Он не пишет от лица целой компании. При этом он - заинтересованное лицо, т.к. сейчас продаёт услуги по обучению работы с "AI". И что интересно, никогда не работал программистом. Напоминает стихотворение "Как старик корову продавал".
Потому что накопилось уже достаточно много неоправданных ожиданий. У инвесторов - что они заработают. У компаний - что они смогут сократить штат и сэкономить. По факту экономика не сходится почти ни у кого. Поэтому в ближайшие 2-3 года скорее всего будет отрезвление и даже в некоторой степени разочарование. А значит и резкое снижение инвестиций в эту сферу.
Реальных юзкейсов, где нейросети вам хотя бы на 5-10% сократят трудозатраты не так уж и много. В большинстве случаев это либо поиграться по приколу, либо автоматизировать рутинную часть работы.
Это не так сложно, как вам кажется. Достаточно наблюдать за технологией, чтобы заметить когда развитие начинает выдыхаться. Мы уже прошли пик завышенных ожиданий от LLM в прошлом году и сейчас начинаем скатываться в пропасть разочарования. Всё чётко по циклу хайпа отрабатывает.
Вложения в нейросети основываются на том предположении, что они будут улучшаться и дальше и примерно такими же темпами, как последние пять лет.
Это даже теоретически невозможно. Всегда после взрывного роста на базе какого-то прорыва идёт стабилизация и минорные улучшения.
Чтобы повторить темп прогресса предыдущих 5 лет понадобится какое-то принципиально новое технологическое решение. Оно, конечно, появится рано или поздно, но маловероятно что в ближайшие 10 лет.
Нейронка не сгенерит 2-часовое видео как надо с первой попытки. Там как раз год дорабатывать придётся и монтировать из 10-секундных кусочков, чтобы уровня захудалого фильма достичь.
Ну, оно так и получается. Имеем выборку типа: из 100 реальных задач есть 1, которую можно ускорить на 80%, ещё 2 - на 50%, 80 задач - на 5%, и ещё 17 с использованием нейросетей займут дольше, чем без них.
И "гениальный" вывод из этой статистики, что нейросети позволяют получить ускорение до 80% при решении задач (а то что среднее ускорение меньше 5% получилось просто умолчим)
Для крупных компаний - разумеется только это и является таргетом. Зачем вообще оптимизировать статику, если она в расходах на разработку и так занимает 0.001%
Это вообще не важно. Да, большинство сайтов в интернете это либо статика, либо Wordpress. Но 99.99% денег на разработку уходит совсем на другое.
Я представляю. Я даже разрабатывал сервис, который все эти A/B тесты сам проводил, не только на лендингах, а даже виджетами на любой странице. И вот секрет: чтобы это делать, программировать вообще не надо)
Так это и есть пример манипуляции статистикой. Вместо того, чтобы оценивать эффект на задачах разработки под нагруженный production, его оценивают на каких-то учебных или хобби-задачах. И вуалируют это под "some tasks", чтобы продать иллюзию ускорения разработки крупному бизнесу, у которого задач, которые настолько можно было бы ускорить, и не было никогда.
При этом ссылаются на эти 80% в своём же исследовании, которое показало ускорение джунов на учебной задаче в среднем на 2 минуты из 35. Т.е. около 5% ускорения даже на учебной задаче. Вам не кажется, что тут попахивает противоречием?
Звучит как цифра с потолка, они даже поленились выдумать примеры подобных задач, просто "can speed up some tasks by 80%". Прям напоминает классическую книгу по этой теме: Как лгать при помощи статистики
Разве кто-то этого не знает?
Попробуйте на VC статью закинуть, что теперь фрилансеры не нужны, можете сами сделать бота или лендинг под свой малый бизнес при помощи LLM. Вероятно, там аудитория более подходящая для такого контента.
Вопрос не в этом. Дело в том, что вы пытаетесь выступать в роли эксперта. При этом ваши проекты выглядят игрушечными для людей, которые пишут сервисы, обрабатывающие в секунду больше запросов, чем у вас за сутки.
Это вы на чём программируете, что такое кол-во бойлерплейта приходится писать? Не пробовали более выразительный ЯП взять?
Ну, что ж поделать, если вы выдумали сугубо своё определение для устоявшегося в индустрии термина.
А как вы SQL напишите нейронкой? Будете ей объяснять смысл запроса только на английском, а не на SQL. И тут большой вопрос что из этих 2 вариантов быстрее.
Я бы это даже обобщил. Обычно у разработчика сеньорного уровня на набор кода уходит 10-20% рабочего времени. Т.е., в принципе, на набор кода часть времени уходит совсем небольшая.
Право слово, у вас просто фееричное определение шаблонного кода xD
Очень прошу, не применяйте это словосочетание в таком контексте больше никогда, не вводите людей в заблуждение.
в месяц xD
Определения шаблонного кода как минимум. Потому что то, что вы описываете "джойны, куча условий в выборке, агрегатные поля, выборка не одна ... некоторое количество бизнес логики" - это вообще ни разу не про шаблонный код.
Не пустые, а базово рабочие. При этом никто не мешает вам просто заменить SQL-запрос (добавить условий, прелоады и т.д.) в сгенерированном шаблоне и о чудо, оно тоже заработает.
Там есть генератор для JSON-ответов. У фронтов тоже есть свои генераторы. Просто раз уж по условию вашей задачи этим занимается другой отдел, то эта часть уже out-of-scope.
Так вы не пойми про что говорите.. Если вы не можете даже сформулировать пример типовой задачи на вашем проекте (пусть и не шаблонной, но хотя бы типовой - чтобы в проекте был хотя бы десяток случаев где это повторяется), то как вы собрались объяснять LLM что от неё требуется?
Обычный scaffold. Вот пример такого генератора для Elixir: https://hexdocs.pm/phoenix/Mix.Tasks.Phx.Gen.Html.html
Неужели для PHP ничего подобного не сделали за 20 лет после того как это появилось в Ruby on Rails?
Если речь идёт про админку, то там ещё проще через кастомизируемые админ-панели решается, типа https://activeadmin.info/ или https://backpex.live/
В индустрии тоже не дураки работают. Практически весь шаблонный код давным-давно автоматизирован. Где-то генераторами, где-то через метапрограммирование. Пользы от LLM тут практически нет. Только совершенно ненужная вероятность галлюционирования добавляется в полностью детерминированную задачу.
Мидлов и джунов код, написанный LLM, гораздо чаще впечатляет во многом потому что они не могут адекватно оценить его готовность к нагрузкам и edge-кейсам, а также стоимость его поддержки.
Сеньоры, как правило, маленькие фрагменты только LLM доверяют, чтобы можно было их проверить. Но вот нюанс, написание кода - это и без LLM от силы 10-20% времени от работы сеньора. Это не та часть работы, ускорение которой даст существенный прирост к производительности. Да и описать кодом то, что надо сделать, для многих проще и быстрее, чем описать это английским языком (он как минимум более многословен)
Так то да, время покажет. Просто комментарии тоже надо проверять. Не факт, что они от Senior-разработчиков, которые на постоянной основе занимаются написанием кода.
По вашему технический рост как-то отдельно от финансов существует? Схлопывание пузыря, разумеется, не убьёт технологию, но приведёт к периоду охлаждения. Об этом и речь. Потом (напр. лет через 10) ещё какой-нибудь технологический прорыв станет возможен.
Какие люди? Вы ссылаетесь на пост одного человека. Он не пишет от лица целой компании. При этом он - заинтересованное лицо, т.к. сейчас продаёт услуги по обучению работы с "AI". И что интересно, никогда не работал программистом. Напоминает стихотворение "Как старик корову продавал".
Потому что накопилось уже достаточно много неоправданных ожиданий. У инвесторов - что они заработают. У компаний - что они смогут сократить штат и сэкономить. По факту экономика не сходится почти ни у кого. Поэтому в ближайшие 2-3 года скорее всего будет отрезвление и даже в некоторой степени разочарование. А значит и резкое снижение инвестиций в эту сферу.
Реальных юзкейсов, где нейросети вам хотя бы на 5-10% сократят трудозатраты не так уж и много. В большинстве случаев это либо поиграться по приколу, либо автоматизировать рутинную часть работы.
Нет, 7 лет назад как раз прорыв случился. А предыдущие 5 лет шёл взрывной рост. Теперь настало время фазы охлаждения.
Это не так сложно, как вам кажется. Достаточно наблюдать за технологией, чтобы заметить когда развитие начинает выдыхаться.
Мы уже прошли пик завышенных ожиданий от LLM в прошлом году и сейчас начинаем скатываться в пропасть разочарования. Всё чётко по циклу хайпа отрабатывает.
Это даже теоретически невозможно. Всегда после взрывного роста на базе какого-то прорыва идёт стабилизация и минорные улучшения.
Чтобы повторить темп прогресса предыдущих 5 лет понадобится какое-то принципиально новое технологическое решение. Оно, конечно, появится рано или поздно, но маловероятно что в ближайшие 10 лет.
Нейронка не сгенерит 2-часовое видео как надо с первой попытки. Там как раз год дорабатывать придётся и монтировать из 10-секундных кусочков, чтобы уровня захудалого фильма достичь.
Вот что бывает, когда попросил ChatGPT бизнес-план составить))