Четыре года назад была история с какой-то "Моникой", которую сначала выставили из модераторов, потом другие модераторы начали в знак протеста массово покидать ресурс, или просто игнорировать свои обязанности как модераторов, и в итоге это закончилось тем, что с "Моникой" заключили некое соглашение (https://meta.stackexchange.com/questions/340906/update-an-agreement-with-monica-cellio).
Возможно что наблюдаемый спад как-то связан и с этими событиями. Хотя лаг в три года как бы и не подтверждает.
Ну и да, согласен, реакция модераторов и пользователей на дурацкие вопросы часто бывает быстрой и при этом жесткой. Особенно касается множества вопросов от уроженцев страны, омываемой одноименным океаном. Ну так вопросы надо нормальные задавать, а еще гуглить перед этом, потому что понятно почему.
мимо ресторана, которому за его оригинальную форму местные жители дали меткое название «Поганка»
Было дело в 1990 году, участвовал в некой конференции по лазерной физике, в Доме Ученых проходили устные и стендовые сессии, а в Поганке обеды. Тем не менее, обошлось без безобразий ) Хотя как, завтраки и ужины проходили в ресторане гостиницы Золотая Долина, на третий день вечером в ресторане вышла из строя плита, оставив товарищей ученых и даже иностранных гостей без ужина.
В расположенном в том же здании магазине мы купили несколько бутылок бутылок пива
К 1990 возможность придти в магазин и "купить пива" отсутствовала в принципе, возможно отсутствие безобразий было связано именно с этим
Все ровно то же самое можно получить, задав точно такие же вопросы в поисковой строке Google (или Bing, или Yandex, или любого другого более или менее нормального поисковика).
Единственное отличие - не надо тыкать в первую ссылку в выдаче. Хотя и этот процесс можно автоматизировать.
Пока никакого added value от Chat GPT в данном контексте не усматривается.
Первые два шага (из трех) в обучении GPT включают работу "разметчиков", на первом шаге они вручную завершают предложенные им фразы (ну или фрагменты кода), на втором - выбирают наиболее предпочтительные варианты продолжения из предложенных моделью ИИ, обученной на данных шага 1. Чтобы эта работа могла быть выполнена и успешно завершена ограниченной группой людей в разумные сроки, код должен быть написан на ЯП высокого уровня. Ну не машинный же код они будут сочинять и ранжировать.
Теоретически (наверное) можно результаты обучения на ЯП высокого уровня транслировать в язык ассемблера / машинный код / байткод, и шаг 3 "обучение с подкреплением" (reinforcement learning) выполнять уже для этого кода. В этом случае да, код в формате, понятном человеку, тут особо уже и не нужен. Проблема заключается в том, что даже если 99% такого кода будет работать как надо, ошибки, вызываемые оставшимся 1% надо будут как-то кому-то анализировать и исправлять. А человечество уже лет 70 как ушло от программирования в машинных кодах, и вряд ли станет к этому возвращаться.
Автор публикации (https://levelup.gitconnected.com/chatgpt-will-replace-programmers-within-10-years-91e5b3bd3676), с которой, собственно, весь это разговор и начался, на вопрос про исправление ошибок отвечает "ну живые разработчики ведь тоже ошибки допускают, и что?" А то, что в 9999 случаях из 10000 (условно) для исправления найденной ошибки не нужно лезть в машинный код или байткод, все делается средствами разработки и отладки ЯП высокого уровня.
Поэтому возможно что
в конечном итоге языки программирования в привычном нам виде развиваться больше не будут
Хотя бы затем что на ChatGPT 4 история не завершилась. Как не завершилась до этого на GPT-3, к примеру. Будут новые модели, их надо будет обучать, а как обучить бота писать код без этапа supervised learning - пока не придумали.
Более вероятно, что он будет создавать работающее ПО не путем подражания мыслительным процессам человека, а иными способами
Да, возможно. Но таких моделей ИИ (дающих результаты, хотя бы сопоставимые с ChatGPT) еще не существует. И неизвестно - появятся ли, и если появятся, то когда? Давать прогнозы "через 5 лет потеряют работу 75% разработчиков, через 10 лет 99%" на основании того, что в марте 2023 появился ChatGPT 4 - довольно странная идея.
Человек из процесса исключен не может быть в принципе, для обучения ChatGPT (и предшествующих ему GPT-3.5, GPT-3 и т.д.) привлекались "разметчики" (labelers), то есть вполне живые разработчики (если говорить об обучении в части языков программирования).
Ну только если ИИ научится сам себя обучать программированию без размеченных данных, но это точно не про GPT.
Например, по запросу "stackoverflow.com golang CRUD" гугл возвращает 219.000 результатов.
Дальше нетрудно оценить, сколько понадобится человеко-часов "лучших разработчиков" для того, чтобы переписать хотя бы каждый десятый фрагмент кода с использованием дженериков. Хорошо, пусть нам не требуется для обучения переписать 20.000 примеров, пусть будет только две тысячи.
А ведь на CRUD история не заканчивается. Например, запрос "stackoverflow.com golang k8s API" возвращает два миллиона результатов с копейками. Ну и так далее.
За скобками остается вопрос о том, сколько времени понадобится "лучшим разработчикам" на то, чтобы вкурить новые фичи, и не подъедут ли к этому времени фичи новые.
Что в таком случае мешает нанять лучших разработчиков по каждому языку
Очевидно, мешать будет их отсутствие. Если мы 99% сократили, остались только 1% "кодеров-любителей" - откуда возьмутся "лучшие разработчики"? Из "кодеров-любителей"?
сгенерировать корпус текстов с новой фичей самостоятельно
Совершенно верно. И для этого нам понадобятся разработчики (много) применяющие фичу в реальных задачах. А мы 99% этих разработчиков сократили уже за ненадобностью.
В язык программирования X добавлена фича Y (например, в Go 1.18 добавлены generics). Откуда ИИ (Copilot, ChatGPT, ...) узнает что это такое и как с ним работать? Сейчас все, что предлагает ИИ, основано на уже имеющемся коде и примерах его использования. А если фича новая, и примеров кода еще нет? По крайней мере в количестве, достаточном для обучения модели ИИ.
если у нас есть в выборке данные с трансформаторов с разным периодом эксплуатации на момент записи данных, то модель как раз и может выучить "закон" деградации, то есть, например, разная степень загрязнения изоляторов по-разному отражается в данных, и модель учится определять. Конечно, скорость деградации может меняться (наверно, Вы это и имеете в виду), тогда нам помогут нелинейные модели типа градиентного бустинга.
Именно, если концентрация газов позволяет определить вероятность и срок наступления отказа вне зависимости от периода эксплуатации оборудования - тогда этот срок нам в модели и не нужен. Но понять нужен он или нет мы можем только двумя способами:
Добавить в модель (и в данные для обучения) этот самый период и проверить гипотезу о зависимости / не зависимости предсказаний от периода эксплуатации
Обратиться к специалисту в предметной области с вопросом "зависит от периода эксплуатации или не зависит?", потому что без данных о периоде нам статистика не поможет ничем
Не очень понял чем нам в отсутствие данные о периоде эксплуатации поможет градиентный бустинг. Это ведь просто один из способов минимизации функции потерь. Где итерационным методом подбирается формула "модели". В отличие, например, от градиентного спуска, где так же итерационно подбираются параметры модели (без изменения собственно формулы). Использование градиентного бустинга (или любой другой нелинейной модели) может ускорить сходимость итерационного процесса, позволить увереннее "проскакивать" локальные минимумы функции потерь в поисках глобального. Разве он может как-то заместить дефицит данных для обучения (в данном случае о периоде эксплуатации)?
420 записей это, как я понимаю, история измерения концентраций четырех газов за некий фиксированный промежуток времени. 2100 (поправьте меня, если я ошибаюсь) - это либо результаты измерений по такому же количеству трансформаторов, либо результаты многократных измерений по меньшему количеству трансформаторов.
Если назначенный срок службы 25 лет, а 420 записей это 210 календарных дней (12 часов между снятием показаний) - у трансформатора, пущенного в эксплуатацию это будет одна история, а у трансформатора, работающего уже (допустим) 24 года, другая. Другой износ металла, другая степень загрязнения изоляторов, и так далее. Насколько корректно по сути ставить рядом 210 дней нового трансформатора и те же 210 дней трансформатора перед списанием, и по такой выборке строить регрессионную модель?
Вот если была бы в наличии история 2100, или хотя бы 1000 трансформаторов за 25 лет (или за 10, или даже за 5), причем у всех за один и тот же промежуток времени от начала эксплуатации, получилась бы куда более значимая выборка. Есть ощущение что имеющихся данных для имеющей предсказательную силу модели сильно недостаточно.
Видимый свет начинается с 200 нанометров. Если мы используем ультрафиолет, то это — 100 нанометров.
Вообще то начинается с 380, а заканчивается примерно 700 нм.
А 200-300 нм - это диапазон, в котором до недавнего времени (точнее, до появления литографов фирмы ASML) работали большинство литографических установок.
Что именно в Go вы считаете "нелепыми костылями из старых языков"?
Про ООП согласен. Про дженерики тоже.
Четыре года назад была история с какой-то "Моникой", которую сначала выставили из модераторов, потом другие модераторы начали в знак протеста массово покидать ресурс, или просто игнорировать свои обязанности как модераторов, и в итоге это закончилось тем, что с "Моникой" заключили некое соглашение (https://meta.stackexchange.com/questions/340906/update-an-agreement-with-monica-cellio).
Возможно что наблюдаемый спад как-то связан и с этими событиями. Хотя лаг в три года как бы и не подтверждает.
Ну и да, согласен, реакция модераторов и пользователей на дурацкие вопросы часто бывает быстрой и при этом жесткой. Особенно касается множества вопросов от уроженцев страны, омываемой одноименным океаном. Ну так вопросы надо нормальные задавать, а еще гуглить перед этом, потому что понятно почему.
ну как бы [вот](https://ru.wikipedia.org/wiki/Учение_о_припоминании#:~:text=Учение о припоминании (теория припоминания,которое осуществляется разумной частью души.), к примеру
Было дело в 1990 году, участвовал в некой конференции по лазерной физике, в Доме Ученых проходили устные и стендовые сессии, а в Поганке обеды.
Тем не менее, обошлось без безобразий )
Хотя как, завтраки и ужины проходили в ресторане гостиницы Золотая Долина, на третий день вечером в ресторане вышла из строя плита, оставив товарищей ученых и даже иностранных гостей без ужина.
К 1990 возможность придти в магазин и "купить пива" отсутствовала в принципе, возможно отсутствие безобразий было связано именно с этим
Как и COBOL до того. И как UML с кодогенерацией после того. Почему-то упорно не заходит.
Все ровно то же самое можно получить, задав точно такие же вопросы в поисковой строке Google (или Bing, или Yandex, или любого другого более или менее нормального поисковика).
Единственное отличие - не надо тыкать в первую ссылку в выдаче. Хотя и этот процесс можно автоматизировать.
Пока никакого added value от Chat GPT в данном контексте не усматривается.
... а потом в какой-то момент и люди станут неуместными.
Да, было такое кино
Первые два шага (из трех) в обучении GPT включают работу "разметчиков", на первом шаге они вручную завершают предложенные им фразы (ну или фрагменты кода), на втором - выбирают наиболее предпочтительные варианты продолжения из предложенных моделью ИИ, обученной на данных шага 1. Чтобы эта работа могла быть выполнена и успешно завершена ограниченной группой людей в разумные сроки, код должен быть написан на ЯП высокого уровня. Ну не машинный же код они будут сочинять и ранжировать.
Теоретически (наверное) можно результаты обучения на ЯП высокого уровня транслировать в язык ассемблера / машинный код / байткод, и шаг 3 "обучение с подкреплением" (reinforcement learning) выполнять уже для этого кода. В этом случае да, код в формате, понятном человеку, тут особо уже и не нужен. Проблема заключается в том, что даже если 99% такого кода будет работать как надо, ошибки, вызываемые оставшимся 1% надо будут как-то кому-то анализировать и исправлять. А человечество уже лет 70 как ушло от программирования в машинных кодах, и вряд ли станет к этому возвращаться.
Автор публикации (https://levelup.gitconnected.com/chatgpt-will-replace-programmers-within-10-years-91e5b3bd3676), с которой, собственно, весь это разговор и начался, на вопрос про исправление ошибок отвечает "ну живые разработчики ведь тоже ошибки допускают, и что?" А то, что в 9999 случаях из 10000 (условно) для исправления найденной ошибки не нужно лезть в машинный код или байткод, все делается средствами разработки и отладки ЯП высокого уровня.
Поэтому возможно что
но
Хотя бы затем что на ChatGPT 4 история не завершилась. Как не завершилась до этого на GPT-3, к примеру. Будут новые модели, их надо будет обучать, а как обучить бота писать код без этапа supervised learning - пока не придумали.
Да, возможно. Но таких моделей ИИ (дающих результаты, хотя бы сопоставимые с ChatGPT) еще не существует. И неизвестно - появятся ли, и если появятся, то когда? Давать прогнозы "через 5 лет потеряют работу 75% разработчиков, через 10 лет 99%" на основании того, что в марте 2023 появился ChatGPT 4 - довольно странная идея.
Человек из процесса исключен не может быть в принципе, для обучения ChatGPT (и предшествующих ему GPT-3.5, GPT-3 и т.д.) привлекались "разметчики" (labelers), то есть вполне живые разработчики (если говорить об обучении в части языков программирования).
Ну только если ИИ научится сам себя обучать программированию без размеченных данных, но это точно не про GPT.
Например, по запросу "stackoverflow.com golang CRUD" гугл возвращает 219.000 результатов.
Дальше нетрудно оценить, сколько понадобится человеко-часов "лучших разработчиков" для того, чтобы переписать хотя бы каждый десятый фрагмент кода с использованием дженериков. Хорошо, пусть нам не требуется для обучения переписать 20.000 примеров, пусть будет только две тысячи.
А ведь на CRUD история не заканчивается. Например, запрос "stackoverflow.com golang k8s API" возвращает два миллиона результатов с копейками. Ну и так далее.
За скобками остается вопрос о том, сколько времени понадобится "лучшим разработчикам" на то, чтобы вкурить новые фичи, и не подъедут ли к этому времени фичи новые.
Очевидно, мешать будет их отсутствие. Если мы 99% сократили, остались только 1% "кодеров-любителей" - откуда возьмутся "лучшие разработчики"? Из "кодеров-любителей"?
Совершенно верно. И для этого нам понадобятся разработчики (много) применяющие фичу в реальных задачах. А мы 99% этих разработчиков сократили уже за ненадобностью.
Простой вопрос.
В язык программирования X добавлена фича Y (например, в Go 1.18 добавлены generics). Откуда ИИ (Copilot, ChatGPT, ...) узнает что это такое и как с ним работать? Сейчас все, что предлагает ИИ, основано на уже имеющемся коде и примерах его использования. А если фича новая, и примеров кода еще нет? По крайней мере в количестве, достаточном для обучения модели ИИ.
Именно, если концентрация газов позволяет определить вероятность и срок наступления отказа вне зависимости от периода эксплуатации оборудования - тогда этот срок нам в модели и не нужен. Но понять нужен он или нет мы можем только двумя способами:
Добавить в модель (и в данные для обучения) этот самый период и проверить гипотезу о зависимости / не зависимости предсказаний от периода эксплуатации
Обратиться к специалисту в предметной области с вопросом "зависит от периода эксплуатации или не зависит?", потому что без данных о периоде нам статистика не поможет ничем
Не очень понял чем нам в отсутствие данные о периоде эксплуатации поможет градиентный бустинг. Это ведь просто один из способов минимизации функции потерь. Где итерационным методом подбирается формула "модели". В отличие, например, от градиентного спуска, где так же итерационно подбираются параметры модели (без изменения собственно формулы). Использование градиентного бустинга (или любой другой нелинейной модели) может ускорить сходимость итерационного процесса, позволить увереннее "проскакивать" локальные минимумы функции потерь в поисках глобального. Разве он может как-то заместить дефицит данных для обучения (в данном случае о периоде эксплуатации)?
420 записей это, как я понимаю, история измерения концентраций четырех газов за некий фиксированный промежуток времени. 2100 (поправьте меня, если я ошибаюсь) - это либо результаты измерений по такому же количеству трансформаторов, либо результаты многократных измерений по меньшему количеству трансформаторов.
Если назначенный срок службы 25 лет, а 420 записей это 210 календарных дней (12 часов между снятием показаний) - у трансформатора, пущенного в эксплуатацию это будет одна история, а у трансформатора, работающего уже (допустим) 24 года, другая. Другой износ металла, другая степень загрязнения изоляторов, и так далее. Насколько корректно по сути ставить рядом 210 дней нового трансформатора и те же 210 дней трансформатора перед списанием, и по такой выборке строить регрессионную модель?
Вот если была бы в наличии история 2100, или хотя бы 1000 трансформаторов за 25 лет (или за 10, или даже за 5), причем у всех за один и тот же промежуток времени от начала эксплуатации, получилась бы куда более значимая выборка. Есть ощущение что имеющихся данных для имеющей предсказательную силу модели сильно недостаточно.
Столько записей будет и в продуктивной среде? Или там будете обучать модель на бОльшем количестве записей?
64 * 3 = 192
Надо бы поправить
Вообще то начинается с 380, а заканчивается примерно 700 нм.
А 200-300 нм - это диапазон, в котором до недавнего времени (точнее, до появления литографов фирмы ASML) работали большинство литографических установок.
не не слышали