Pull to refresh

Comments 26

Тем самым вы создаете проблему при обучении нейронной сети, потому что вы обучаете нейронную сеть на "знаниях" другой нейронной сети. Вы создаете петлю. GPT на данный момент не обладает на 100% правдивыми и корректными ответами, а ваша нейросеть будет ещё хуже работать, чем GPT, потому что обучается на не заведомо корректных данных.

Какая петля? Просто пишется логическая структура кода и всё.
Она не обучается на не заведомо корректных данных - она не обучается на "знаниях" другой нейронной сети - нет, просто генерится код программы и всё.
Данные на которых обучается нейросеть - генерятся самим кодом - это разноцветные квадраты.
И весь код рабочий, за исключением модели нейросети.

Это полностью аналогично копированию кода со stackoverflow, только быстрее.

Это справедливо только для очень простого кода, но очевидно, что пример с цветными квадратами - это только пример и GPT можно "просить" написать алгоритм для более сложных генераций. Вывод такого алгоритма лего может давать не корректные результаты, на которых будет обучена новая сеть

Верно, чем более сложный/большой код, тем больше нужно "внешней" экспертной корректировки от человека.

Это справедливо и для натурального интеллекта, который набирает и воспроизводит плохие практики только в путь. Но ему надо платить и контролировать, а ИИ только контролировать.

Сегодня невероятно глупо не использовать возможности ChatGPT. Это действительно универсальный помощник, который существенно облегчает жизнь программиста и повышает эффективность разработки. 

Это заблуждение основанное на непонимании принципов работы chatGPT.

Википедия:

ChatGPT (англ. Generative Pre-trained Transformer или рус. генеративный предварительно обученный трансформер)

...

ChatGPT — большая языковая модель, для тренировки которой использовались методы обучения с учителем и обучения с подкреплением

Языковая модель - это распределение вероятностей по последовательностям слов.

Грубо говоря chatGPT - это нейросеть которая пытается предсказать следующее слово в тексте на основе предыдущего текста. Тот факт, что она "убедительно" предсказывает слово не делает ее предсказания верными. Это нелинейная функция которая на свой вход получает запрос плюс свое предыдущее предсказание. Как пример можно взять мелодии сгенерированные из псевдослучайных чисел, да они "похожи" на реальную музыку, но это не делает алгоритм композитором, это просто случайный шум который для нас "убедителен".

Уже не раз говорили "она часто выдумывает и делает это убедительно"

Не надо относиться так пренебрежительно. То, что у неё в основе алгоритм предсказывающий следующее слово совершенно не означает, что она бесполезная. Более того у этого кажется простого алгоритма возникло множество нетривиальных свойства, которыми на первый взгляд не должен обладать "статестический попугай".

Верность предсказания это её целевая метрика, и с каждой итерацией она будет становиться все лучше. А генерация кода подразумевает единственное "лучшее" решение, ну или несколько равнозначных, для поставленной задачи. Которое и будет иметь максимальную вероятность в выводе.

По такому принципу (не буду использовать, потому что возможны не точные результаты) можно отринуть все продукты на основе машинного обучения, ведь по сути все они лишь статестическое приближение целевой метрики, перестаньте пользоваться поиском, ведь его модель может неверно отранжировать сайты в выдаче.

Пример про случайную генерацию нот вообще непонятно как относиться к МЛ моделям.

Пример про случайную генерацию нот вообще непонятно как относиться к МЛ моделям.

Я не про ноты

https://youtu.be/tCRPUv8V22o?t=313

В видео последовательность из алгоритма псевдослучайных чисел идет в сыром виде сразу на звуковую карту.

нейронки обучают "не с нуля", а с произвольного набора "весов".

При обучении нейросети случайный набор чисел сходиться к "убедительному варианту". К сожалению "убедительный вариант" находиться в очень узком диапазоне из всех вариантов и применительно к тексту или картинкам будет крайне субъективным.

перестаньте пользоваться поиском, ведь его модель может неверно отранжировать сайты в выдаче.

В последнее время начинает подбешивать выдача и еще чувствую как все больше мой мозг делегирует память гуглу.

Не надо относиться так пренебрежительно. То, что у неё в основе алгоритм предсказывающий следующее слово совершенно не означает, что она бесполезная. 

против алгоритма ничего не имею. Я предвзято отношусь к людям которые "превозносят" нейросети. Нужно знать как это работает и быть реалистом.

зы загуглил:

"Любая достаточно развитая технология неотличима от магии" - третий закон Артура Кларка

>Грубо говоря chatGPT - это нейросеть которая >пытается предсказать следующее слово в тексте >на основе предыдущего текста. Тот факт, что она >"убедительно" предсказывает слово не делает ее >предсказания верными.

Всё так, но и Забавно понимать, что наш мозг (человеческий физический) точно такой же "предсказатель будущего" как и чатgpt?.

Человеческий мозг непрерывно стремится адаптироваться и прогнозировать будущее, чтобы достигать наилучших возможных результатов.

Один из наиболее заметных механизмов, которым пользуется мозг для этой цели, - это обучение с подкреплением. Он функционирует, используя систему наград и наказаний. Когда мы выполняем действие, которое ведет к благоприятному исходу, наш мозг ассоциирует это действие с положительными чувствами, такими как радость или удовольствие. Это стимулирует нас повторить это действие в будущем, ведь мозг "предсказывает" аналогичный благоприятный результат.

С другой стороны, когда мы сталкиваемся с негативными последствиями, такими как боль или страх, наш мозг соответственно ассоциирует эти неприятные чувства с проведенным действием. Это служит своеобразным "наказанием", предотвращая повторение подобного поведения в будущем.

Таким образом, мозг постоянно находится в процессе самосовершенствования, обучаясь на основе своих прошлых опытов (предсказаний и результатов действий по этим предсказаниям) и предварительно "прогнозируя" будущее для получения лучших возможных результатов.

Один из наиболее заметных механизмов, которым пользуется мозг для этой цели, - это обучение с подкреплением.

у нас вечное обучение, а тут программа в одном состоянии.

chatGPT - это китайская комната у которой нет механизмов для самостоятельного обучения, а говорить про волю тут бесполезно.

Давайте подождём ещё пару лет... Ещё небольшой скачок, и модель сможет дообучаться в онлайне реальными данными

Пока вы тут теоретизируете, что это невозможно, уже целые IT-департаменты (в России!) используют ChatGPT на полную катушку, полностью заменив ею, например, джунов-тестировщиков, кратно увеличив скорость разработки и т.д. Потому что исправить написанное гораздо проще и быстрее, чем писать сотни строк кода с нуля.

Потому что исправить написанное гораздо проще и быстрее, чем писать сотни строк кода с нуля.

Найти и исправить ошибки в сотне строк не факт, что легче, чем написать их же с нуля

Особенно учитывая то, что нет автора и не у кого спросить "А почему тут так, а не иначе?"

уже целые IT-департаменты (в России!) используют ChatGPT на полную катушку, полностью заменив ею, например, джунов-тестировщиков, кратно увеличив скорость разработки и т.д. 

Давайте пруфы.

Кстати, если GPT заменяет вам джунов-тестировщиков и "кратно увеличивает скорость разработки", то у меня для вас плохие новости

Давайте пруфы.

Работаю в таком. И знаю две других компании лично, которые так делают. И постоянно вижу аналогичные обсуждения в профильных чатах разработки.

Расскажите про две другие компании. Дайте ссылки на "профильные чаты" где это обсуждается

Согласен на 100%. Для задачи детектирования (положение и размер) таких квадратов вообще достаточно пяти строк на opencv-python и без нейросетей. Вопрос ответственности тоже никто не отменял. Так кто в итоге будет отвечать за ошибки/неоптимальность решения от ChatGPT? Человек хотя бы может обосновать свое решение, а тут как быть? ChatGPT просто скажет: "Я пошутил" и все? Или такая ситуация пришли вы к врачу, болит горло. Врач задает вопрос ChatGPT и ИИ говорит, что нужно удалять гланды хм.. неоптимальным способом. Врач говорит: мое дело маленькое: забить вопрос и выполнить все что ChatGPT посоветует, я сам сдавал выпускные экзамены используя ChatGPT. Вот и диплом на стенке висит. Это нормально было бы?

Офигеть реальная задача - распознавание квадратов.

Вы повторили чей-то учебный пример замысловатым образом.

Автор видимо не понимает, что для распознавания (бинарной классификации) нужно хотя бы два класса: квадраты и неквадраты. В итоге он пытается менять архитектуру сети. Смешно.

Ждал этого комментария) Продолжение будет с дополнительным распознаванием кругов, т.е. в итоге нейросеть сможет распознавать геометрические фигуры: квадраты и круги, дополнительно обучающие наборы будут расширены за счёт вращения и изменений контрастности. Ещё раз спасибо за комментарий ?

Сразу всё в одной статье не уместить... Итак много получилось.

Просто один из минусов написания кода с ChatGTP. При самостоятельном поиске ты бы прочитал много дополнительной инфы.

Этот chatGPT по сути не дотягивает даже до Джуна по уровню кодинга, делая банальные ошибки в арифметике, например (даже не в алгебре!). Иногда он помогает быстро, иногда его нужно ТРИ ЧАСА просить исправить точку на запятую в БД (ровно столько он искал эту ошибку, предлагая кучу неверных решений, только к концу третьего часа "заметил" что надо исправить точки на запятые). И таких примеров куча.

По итогу получается, что к большинству запросов его нужно готовить, причём время подготовки сопоставимо, а, зачастую, больше, чем время на самостоятельное решение задачи.

В итоге он не помогает кодить, а.... мешает)

Хотя, иллюзия выгоды, поначалу, создаётся очень правдоподобная (он, собственно, на это и обучался, если что), кажется, что выигрыш во времени колоссальный, но на деле, порой, отрицательный, если все посчитать.

Так что это ещё ОЧЕНЬ сырой "калькулятор".

Если, чтобы калькулятор заработал правильно, его надо "гладить" полчаса - это ХРЕНОВЫЙ калькулятор.

Как помощник он хорош.

Как программист - даже до джуна не дотягивает.

До банального: можно попросить его написать какой-то простой код, а потом кидать его же ответ ему же без каких-либо пояснений - он извиняется, говорит, что ошибся, и предлагает "исправленный* код, который тут же копируешь ему и твой "цикл", порой, может продолжаться вечно (из личного опыта - было до 20-30 повторений, пока он, наконец, не выдал работающий код)

Это НЕВЕРНОЯТНО сырая вещь.

Зато можно хорошо маркировать уровень "программистов", которые пишут, что он очень хорош в этом: значит ТАКОЕ качество кода их устраивает )

Одобрил хороший коммент +1 за всё)))
Хочу заметить что он даёт структуру - а продвинутые её оптимизируют под себя.

Sign up to leave a comment.

Articles