Если кто-то думает что по запросу пользователя какая-то барабашка под капотом ломанется ABAP CDS настраивать и ее как источник данных в SAP протягивать - тот заблуждается
Однако статическая типизация не применяется принудительно в среде выполнения
Type hints - это не статическая типизация. Поэтому и не применяется. Это информация для линтеров разнообразных, интерпретатор и runtime про нее знать не знают.
В "последние годы", а именно в 2023-24, это следствие "перенайма" вследствие всплеска спроса на цифровые услуги в "коронавирусные" 2020-21. Реально спрос на разработчиков вернулся на уровень 2019. Конкуренция да, выросла, потому что те, кого сократили в последние два года, никуда не делись (в большинстве своем).
Ну то есть спрос-то на разработчиков в долгорочном тренде не сократился - предложение выросло
Вообще-то на этапе обучения. Том самом, который "с подкреплением". Потому что после того как модель "обучилась" и десятки (сотни уже) миллиардов ее параметров рассчитаны уже, изменить то что на выходе для определенных входных данных уже не получится. Ну разве что на fine tuning и/или RAG полагаться. Но тут пока никаких прорывов не наблюдается.
Ну так не надо копипастить не глядя в продуктивный код. Кто здесь предлагает это делать?
Неважно кто здесь предлагает копипастить не глядя. Важно что на планете Земля в данный момент немалое количество людей копипастят не глядя выхлоп из LLM
А во вторых 2000$? За год?
Да нет, в месяц. Читайте Эдика. Есть три варианта:
Поставщики LLM все до единого вылетят в трубу
Поставщики LLM вынуждены будут поднять цену до уровня, обеспечивающего самооокупаемость (те самые $2000 в месяц). Что маловероятно из-за конкуренции между ними
Какие-то добрые люди продолжат до бесконечности вваливать афуллиарды денег в заведомо убыточное дело
Какой из эти трех вариантов более вероятный - думайте сами
Там полно примеров, которые можно скопипастить
Пример приведите. Hello World не считается. Вот мне к примеру нужен код который будет данные гонять между микросервисами, у каждого свой API и своя реализация под капотом. Хотите сказать мне Stackoverflow с гуглом с ходу ответ дадут? Не зная ничегго про сервисы и их API?
Продаваны ИИ на то и налегают, что вы в промт введите требования к ПО, а LLM все сгенерирует. Где здесь Stackoverflow с поисковиками рядом? Они что-то такое обещают пользователям?
Отнюдь. Это логика нормального здорового человека, входящего в круг общения таких же нормальных и здоровых людей. Чего и всем желаю ))
вы просто сыпете терминами "токен" "reinforcement learning" "обучение"
Я задал вопрос про составляющие технологии LLM, чтобы оценить Ваш уровень владения предметом. По вашим ответам я его оценил. Он сводится к формуле Верую ибо абсурд. Ну тоже подход, имеющий право на существование. Более вопросов по технической части не имею
Сам по себе - конечно нет. В сочетании с людьми, которые его выхлоп готовы не глядя (или быстро-быстро проглядев, типа ознакомился) копипастить в продуктивный код - еще как несет
Нет, я этого не понимаю
Чтобы понять, для начала можно почитать Эдика. Он свои новейшие труды прячет за paywall, но можно для начала глянуть здесь и здесь. Это прошлогодние статьи (сентябрь и октябрь 2024). Но за прошедший год лучше не стало, стало хуже
аже если и так, то я уже сейчас экономлю сотни евро в месяц
Подписка на Claude 3.7 при условии оплаты на год вперед стоит, если я не ошибаюсь, 200 баксов в месяц. Вы готовы платить 2000, и не уйти в минус? Для Штатов и их зарплат я бы поверил. А для Европы нет. Разве что применительно к какому нибудь Distinguished Principal Software Engineer Emeritus ))
Какая разница написал вам пример ИИ, вы нашли его на Stackoverflow или вам подсказал коллега?
На Stackoverflow (за очень редкими исключениями) нет примеров кода, который можно было прямо взять и скопипастить. Там могут объяснить основы, привести учебно-тренировочный код, подсказать куда копать дальше. Неудачный пример.
Если у моего, Вашего или любого другого коллеги есть код, который можно просто скопировать и без поправок, отладки и тестирования отправить в продуктив, значит этот код должен находиться не у него в закромах, а в общем репозитарии компании для всеобщего обозрения и применения. Тоже пример неудачный.
Выхлоп от ИИ (если это только не Hello World) есть смысл сравнивать только с кодом, который разработчик сам придумал, спланировал, написал, отладил и протестировал. А вот тут уже большая разница
Но не обязательно дольше чем писать самому. А ИИ как раз таки код очень хорошо стпуктурирует и документирует.
У каждого свой опыт работы с ИИ. И очень разный, судя по всему.
У того, который хуже умеет водить. Ну если начать играть в ваши игры с аналогиями.
Я собственно аналогию начинал с того что ручками кодить это в своей полосе ехать, а копипастить выхлоп LLM - это разворачиваться через две сплошных. Особенно еслит это код из незнакомого стека технологий
Больше решил - > больше заплатили.
Если перекрывает стоимость подписки - тогда да. Но мы же оба понимаем, что при текущем уровне доходов и расходов всех без исключения вендоров LLM или стоимость подписки должна вырасти кратно, или они вылетят в трубу?
Ну может быть вы набираете те самые 1200 знаков в минуту
1200 скорее в час )) И то постараться надо будет. Зато я потом экономлю время на вычитывании того, что получилось
Ну и риски, связанные с отправкой в продуктив чужого кода (а выхлоп LLM это по сути чужой для разработчика код )никто не отменял. Если Вы с последствиями в виде сбоев в коде, сгенерированном LLM, не столкнулись - это не значит что таких рисков не существует. Они, возможно, сопоставимы по уровню с рисками, когда code base отдается на аутсорс ребятам из одной быстро развивающейся страны. Но это говорит только о том что на сегодняшний день аутсорс в страну И и LLM - инструменты одного порядка надежности.
я и не пытаюсь с вами обсуждать "как специальный модуль будет искать и отсеивать галлюцинации"
и правильно )) для этого надо в предмете спора разбираться ))
да и давайте будем честными, вы не это пришли сюда обсуждать ) вы пришли рассказать что это невозможно )
обоснуйте ))
вы плоскоземельшик? логика "если бы я ошибался мне бы об этом сказали те, с кем я много общаюсь" как раз в этом стиле. (спойлер: они не общаются с теми кто им сообщает о их галлюцинации)
Я - нет. Я с нормальными людьми общаюсь. Насчет Вас не уверен ))
вот, выше вы демонстрируете поведение которое, если бы вы были ИИ назвали бы галлюцинацией. вполне возможно что в вашей реальной жизни, вы, как и каждый человек, имеете свои собственные заблуждения, с которыми те кто с вами много общаются, предпочитают не спорить, хотя не всегда с ними согласны. потому что это нормальное поведение людей - наши "круги общения" это по сути сообщества людей, разделяющие наши галлюцинации и предубеждения
А Вы выше демонстрируете поведение, которое если бы Вы не демонстрировали то ИИ мог бы подумать что Вы и правда его не демонстрируете, но поскольку у ИИ есть галлюцинации то когда он не галлюцинирует он понимает что то поведение которое Вы выше демонстрируете оно может быть галлюцинацией, а когда галлюцинирует, то то поведение которое Вы демонстрировали бы если бы Вы его демонстрировали то ИИ мог бы подумать что вы его не демонстрировали.
Конечно зависит. Если мы обсуждаем код уровня "выведи hello world если системное время в интервале 12:00:00-23:59:59 UTCу, и world hello если нет" (условно), то без разницы. А если речь идет о реальной бизнес-задаче (пример приводил выше) - то разбираться дольше.
Разворачиваться через две сплошные технически можно вообще без проблем. Это даже часто удобнее и проще
У какого водителя больше шанс словить в борт КАМАЗ с щебенкой? У того который разворачивается через две сплошных? Или у того который так не делает?
На времени, которое тратишь на собственно печатание текста кода. На времени, которое экономишь при поиске информации.
У Вас появилась экономия времени. Как это связано с экономией денег? Напомню:
В сумме я экономлю заметно больше денег чем стоит подписка
могу предположить что даёте ИИ слишком сложные задачи вместо того чтобы самому разбивать их на более простые
Если декомпозировать LLM задачи до уровня "напиши функцию XXX(Y1, Y2, Y3), которая с использованием библиотеки BBB будет обращаться к сервису SSS по API GET /want/this/feature/, валидировать полученный результат при помощи метода MustBind() из gin-gonic, если ответ признан невалидным создать задачу, закодировать ее в protobuf и пульнуть в очередь, при этом не забыть создать callback ...", ну так мне быстрее решение на языке программирования написать. Возможно что другим проще действительно с natural language работать. Ну так для этого отдельная профессия существует, аналитик называется.
По теме запилим нейросетку и обучим ее на выходе из числодробилок проскакали уже и изобретатели новых оптических материалов, и инженеры/конструкторы по аэродинамике, и разработчики лазерных технологий, и много кто еще.
Хайпа много, практической пользы пока ровно ноль.
Ждем-с
Это пузырь - какой надо пузырь
A temperature of 0 will lead to more determinism, but does not necessarily full determinism
Это только при условии, что такой отчет кто-то уже настроил, присвоил ему соответствующие метки, и вопрос пользователя с этими метками совпал.
Если кто-то думает что по запросу пользователя какая-то барабашка под капотом ломанется ABAP CDS настраивать и ее как источник данных в SAP протягивать - тот заблуждается
куда пошел?
Type hints - это не статическая типизация. Поэтому и не применяется. Это информация для линтеров разнообразных, интерпретатор и runtime про нее знать не знают.
Вижу два варианта:
LLM переводила
LLM сочиняла
Пример приведите пожалуйста
таки да!
Не помогло
Так кто кого согласовал в итоге?
Как одно с другим связано? Снижение спроса на курсы - следствие перепроизводства выпускников этих самых курсов
В "последние годы", а именно в 2023-24, это следствие "перенайма" вследствие всплеска спроса на цифровые услуги в "коронавирусные" 2020-21. Реально спрос на разработчиков вернулся на уровень 2019. Конкуренция да, выросла, потому что те, кого сократили в последние два года, никуда не делись (в большинстве своем).
Ну то есть спрос-то на разработчиков в долгорочном тренде не сократился - предложение выросло
Вообще-то на этапе обучения. Том самом, который "с подкреплением". Потому что после того как модель "обучилась" и десятки (сотни уже) миллиардов ее параметров рассчитаны уже, изменить то что на выходе для определенных входных данных уже не получится. Ну разве что на fine tuning и/или RAG полагаться. Но тут пока никаких прорывов не наблюдается.
Персонажу явно грозит "уход из профессии" за невыполнение планов по продаже копилота. Вот он и ерзает.
Неважно кто здесь предлагает копипастить не глядя. Важно что на планете Земля в данный момент немалое количество людей копипастят не глядя выхлоп из LLM
Да нет, в месяц. Читайте Эдика. Есть три варианта:
Поставщики LLM все до единого вылетят в трубу
Поставщики LLM вынуждены будут поднять цену до уровня, обеспечивающего самооокупаемость (те самые $2000 в месяц). Что маловероятно из-за конкуренции между ними
Какие-то добрые люди продолжат до бесконечности вваливать афуллиарды денег в заведомо убыточное дело
Какой из эти трех вариантов более вероятный - думайте сами
Пример приведите. Hello World не считается. Вот мне к примеру нужен код который будет данные гонять между микросервисами, у каждого свой API и своя реализация под капотом. Хотите сказать мне Stackoverflow с гуглом с ходу ответ дадут? Не зная ничегго про сервисы и их API?
Продаваны ИИ на то и налегают, что вы в промт введите требования к ПО, а LLM все сгенерирует. Где здесь Stackoverflow с поисковиками рядом? Они что-то такое обещают пользователям?
Отнюдь. Это логика нормального здорового человека, входящего в круг общения таких же нормальных и здоровых людей. Чего и всем желаю ))
Я задал вопрос про составляющие технологии LLM, чтобы оценить Ваш уровень владения предметом. По вашим ответам я его оценил. Он сводится к формуле Верую ибо абсурд. Ну тоже подход, имеющий право на существование. Более вопросов по технической части не имею
Сам по себе - конечно нет. В сочетании с людьми, которые его выхлоп готовы не глядя (или быстро-быстро проглядев, типа ознакомился) копипастить в продуктивный код - еще как несет
Чтобы понять, для начала можно почитать Эдика. Он свои новейшие труды прячет за paywall, но можно для начала глянуть здесь и здесь. Это прошлогодние статьи (сентябрь и октябрь 2024). Но за прошедший год лучше не стало, стало хуже
Подписка на Claude 3.7 при условии оплаты на год вперед стоит, если я не ошибаюсь, 200 баксов в месяц. Вы готовы платить 2000, и не уйти в минус? Для Штатов и их зарплат я бы поверил. А для Европы нет. Разве что применительно к какому нибудь Distinguished Principal Software Engineer Emeritus ))
На Stackoverflow (за очень редкими исключениями) нет примеров кода, который можно было прямо взять и скопипастить. Там могут объяснить основы, привести учебно-тренировочный код, подсказать куда копать дальше. Неудачный пример.
Если у моего, Вашего или любого другого коллеги есть код, который можно просто скопировать и без поправок, отладки и тестирования отправить в продуктив, значит этот код должен находиться не у него в закромах, а в общем репозитарии компании для всеобщего обозрения и применения. Тоже пример неудачный.
Выхлоп от ИИ (если это только не Hello World) есть смысл сравнивать только с кодом, который разработчик сам придумал, спланировал, написал, отладил и протестировал. А вот тут уже большая разница
У каждого свой опыт работы с ИИ. И очень разный, судя по всему.
Я собственно аналогию начинал с того что ручками кодить это в своей полосе ехать, а копипастить выхлоп LLM - это разворачиваться через две сплошных. Особенно еслит это код из незнакомого стека технологий
Если перекрывает стоимость подписки - тогда да. Но мы же оба понимаем, что при текущем уровне доходов и расходов всех без исключения вендоров LLM или стоимость подписки должна вырасти кратно, или они вылетят в трубу?
1200 скорее в час )) И то постараться надо будет. Зато я потом экономлю время на вычитывании того, что получилось
Ну и риски, связанные с отправкой в продуктив чужого кода (а выхлоп LLM это по сути чужой для разработчика код )никто не отменял. Если Вы с последствиями в виде сбоев в коде, сгенерированном LLM, не столкнулись - это не значит что таких рисков не существует. Они, возможно, сопоставимы по уровню с рисками, когда code base отдается на аутсорс ребятам из одной быстро развивающейся страны. Но это говорит только о том что на сегодняшний день аутсорс в страну И и LLM - инструменты одного порядка надежности.
и правильно )) для этого надо в предмете спора разбираться ))
обоснуйте ))
Я - нет. Я с нормальными людьми общаюсь. Насчет Вас не уверен ))
А Вы выше демонстрируете поведение, которое если бы Вы не демонстрировали то ИИ мог бы подумать что Вы и правда его не демонстрируете, но поскольку у ИИ есть галлюцинации то когда он не галлюцинирует он понимает что то поведение которое Вы выше демонстрируете оно может быть галлюцинацией, а когда галлюцинирует, то то поведение которое Вы демонстрировали бы если бы Вы его демонстрировали то ИИ мог бы подумать что вы его не демонстрировали.
Что, съел? )))
Конечно зависит. Если мы обсуждаем код уровня "выведи hello world если системное время в интервале 12:00:00-23:59:59 UTCу, и world hello если нет" (условно), то без разницы. А если речь идет о реальной бизнес-задаче (пример приводил выше) - то разбираться дольше.
Напомню, что начинали мы с утверждения С monkey code особо разбираться не надо. Чем семантически code monkey от monkey code надо объяснять?
У какого водителя больше шанс словить в борт КАМАЗ с щебенкой? У того который разворачивается через две сплошных? Или у того который так не делает?
У Вас появилась экономия времени. Как это связано с экономией денег? Напомню:
Если декомпозировать LLM задачи до уровня "напиши функцию
XXX(Y1, Y2, Y3)
, которая с использованием библиотеки BBB будет обращаться к сервису SSS по APIGET /want/this/feature/
, валидировать полученный результат при помощи методаMustBind()
изgin-gonic
, если ответ признан невалидным создать задачу, закодировать ее в protobuf и пульнуть в очередь, при этом не забыть создать callback ...", ну так мне быстрее решение на языке программирования написать. Возможно что другим проще действительно с natural language работать. Ну так для этого отдельная профессия существует, аналитик называется.