Pull to refresh

Comments 41

А вы уже пробовали использовать ChatGPT для решения задач в работе или учебе?)

Некоторые простые скрипты он и с 10-го раза написать не может, так что все эти

работает с первого раза

-- ,часто, ошибка выжившего.

Идёт мужик по парку, смотрит, парень с собакой в шахматы играют.

Hidden text

Спрашивает парня: Где ты такую умную собаку нашёл?

Тот отвечает: Да не такая она и умная. Счёт: 4:3, я выигрываю!

Это значит скрипт уже был в интернете.
Но это не отменяет того факта что нейросеть умеет читать скрипт (скорее всего на основе комментариев из обучающей выборки) и корректно редактирует код после требований.

Чтобы было действительно вау, нужно что то чего в сети еще не пробовали. В таких случаях, когда данных у бота недостаточно, он начинает придумывать, и этот бред выглядит очень правильным, полная аналогия с тем что генерируют сеть stable diffusion, кривые пальцы, лишние руки ноги из неожиданных мест, но все сделано и подогнано так, что взгляд мельком не видит этих недостатков.

К сожалению пользоваться этим очень сложно. Либо нужно научиться пользоваться сетью чтобы она искала ошибки и могла их сама разруливать. Т.е. нужно убрать человека в принципе, кроме формулировки стартового ТЗ, пусть нейронка остается наедине с компилятором.

кроме формулировки стартового ТЗ, пусть нейронка остается наедине с компилятором.

Человек: Сделай так, чтобы все люди на Земле всю жизнь были счастливы!
Нейронка: (убивает всех людей на Земле, кроме двоих, накачивает их наркотой, так что до конца своей недолгой жизни они весьма счастливы)

В каком-то рассказе (или романе?) читал мини-историю про ИИ, которому тоже поставили задачу сделать людей счастливыми. ИИ решил что счастье – это улыбка, и создал вирус, при заражении которым мышцы лица сводит в вечном спазме в виде улыбки. К счастью, там (кажется) все обошлось.

Сделай так, чтобы все люди на Земле всю жизнь были счастливы!

Правда у Стругацких открытый финал…

Вы прям не как программист. Достаточно переопределить понятие "все".

Вон, был в истории один, который вполне себе успешно переопределил понятие "люди". Людям надо делать хорошо — а недочеловеков можно и в печах жеть.

Вы прям не как программист.
Так я и есть не программист?
Ну а герой повести Стругацких «Пикник на обочине» Рэдрик Шухарт вообще не программист, а сталкер
был в истории один, который вполне себе успешно переопределил понятие «люди»
Ну у той истории закрытый финал. Хотя, постойте-ка...?

Ты только что доучил какую-то нейронку, а может и не одну.

Это значит скрипт уже был в интернете.

Для проверки этого утверждения (и некоторых других) я пробовал спросить его о том чего нет в интернете.

Сможет ли нейросеть сопоставить факты и составить программу на языке которому не обучалась?

Ответ:

UFO just landed and posted this here

Ну а как нейросеть еще может обучаться? У нее нет других источников информации, кроме интернета и пользователей.

UFO just landed and posted this here

рандомной степени похожести

Чтобы дать верный ответ на ЕГЭ необходима гелевая ручка. Капиллярная и шариковая = неверный ответ.

Так что степень похожести - весьма субъективная категория. Для вас она одна, для меня → другая.

И почему вы решили, что нейросеть по дефолту должна учитывать ваши предпочтения, если она не знает о вашем существовании?

UFO just landed and posted this here

Вообще-то "обучение" нейросети - это процесс изменения весов.
При разговоре с chat GPT вы веса не меняете.
То, что здесь произошло, выглядит как доказательство наличия у сетки архитектуры, хранящей контекст диалога. Что само по себе является на мой взгляд безумным достижением.

Вообще все попытки обвинить сетку в тупости выглядят, как анекдот про собаку, которая научилась играть в шахматы.

выглядит как доказательство наличия у сетки архитектуры, хранящей контекст диалога.

На Хабре недавно пробегала статья, где магия раскрывалась. Контекст хранится, и каждый раз, когда вы посылаете запрос, посылается (старый контекст + новый запрос). Буфер старого контекста ограничен 8000 токенами или типа того, поэтому через некоторое время оно начинает контекст забывать.

Интересно, в своем сообщении вы проиллюстрировали то самое свойство нейросетей которое в таких постах часто пытаются изобличить))

Многие пишут, что нейросети не понимают смысла высказываний, а только реагируют на знакомые сочетания слов. Многим просто легче жить если нечто новое будет объяснено, и даже неважно как.

"Контекст" о котором говорите вы, и "контекст" о котором говорит mostodont32 - суть разные вещи. Вы говорите о контексте беседы, и объяснив ее тем, что каждый новый запрос включает предыдущие (очевидное решение) - считаете "магию" объяснённой.

Но это не так. "Контекст" в сообщении выше не имеет отношения к прошлым запросам, хотя бы потому, что в моем примере вообще всего один запрос. Очевидно имеется ввиду контекст задачи как таковой.

В моем примере, нейросеть не просто сопоставила слова с каким-то текстом из выборки на которой ее обучали. Она создала представление задачи (или эмуляцию представления), заполнив недостающие звенья и сформировав ответ.

Например, я написал "помести на него дочерний элемент". Я нигде не писал что перед этим дочерний элемент нужно создать. Но нейросеть все равно вывела команду создания элемента, перед тем как сделать его дочерним.

Если бы это был человек - мы бы сказали, что он понимает смысл понятия элемент, и смысл свойств "дочерний" и "существует". И он понимает что несуществующий элемент нельзя сделать дочерним...

Именно такое "понимание" названо выше словом "контекст". И ваше объяснение эту "магию" никак не "раскрывает".

Можно спорить, что есть это понимание в случае ИИ, и чем оно отличается у людей. Но само его наличие (или качественная эмуляция) - безусловно огромное достижение.

p.s. Чтобы расставить точки. Мой ответ на вопрос понимает ли ИИ смысл понятий - очевидно нет. Потому, что такой штуки как "смысл", в том виде как о ней говорят - вообще не существует. Есть просто куча связей между понятиями и задумываясь о "смысле" чего-либо мы оперируем этими наборами связей сопоставляя их друг с другом. То же самое делает нейросеть, только у нее все еще меньше связей, нет десятилетий опыта их сопоставления и внутреннего диалога.

Но это временно.

И он понимает что несуществующий элемент нельзя сделать дочерним...

Не антропоморфизируйте, он не "понимает". Он видел, что 100500 людей до него, прежде чем "сделать элемент дочерним", создавали этот элемент. Ну а дальше — "все побежали, и я побежал".

Не антропоморфизируйте, он не "понимает". Он видел, что 100500 людей до него

Можете доказать, что люди действуют иначе?

Могу, на конкретном примере: я действую иначе; по утверждению медиков, я — человек, ergo, как минимум некоторые люди делают иначе. Ч.т.д.

Люди тоже не понимают. Просто строят модель, формируют критерии и делают что-то, попадающее под критерии. Осознание чего-то - вообще гормональное ощущение, строить модели можно и без него, совершенно не надо придавать ощущению "понимания" чрезмерную значимость.

Люди тоже не понимают. Просто строят модель, формируют критерии и делают что-то, попадающее под критерии.

Нет, не так. Люди:

1) наблюдают явление ("к натёртому янтарю притягиваются волосы" — здесь и далее объяснения утрированные, не надо к ним придираться, я знаю, что На Самом Деле (tm) всё сильно сложнее, но я пишу комментарий, а не книжку по физике);
2) делают предположение о его причинах ("в янтаре есть нечто, что притягивает волосы, активирующееся при натирании"), а, следовательно, и механизме ("в натёртом янтаре накопился электрический заряд, который притягивает волосы");
3) проводят эксперимент, чтобы установить, правильно ли угадали ("согласно этой теории, в янтаре заряд накапливаься должен, а в металле — не должен... проверим, где моя железная ложка... да, так оно и есть!");
4) раз теория получила подтверждение, теперь мы знаем, как это работает — соответственно, на её основе можно придумать что-то новое, использующее тот же принцип (электрофорная машина).

ИИ этого всего не умеет.

Люди этого тоже от рождения не умеют и тысячи лет терли янтарь без понимания электричества. Большинство людей и сейчас не смогут сделать вышеописанное. Для того чтобы так делать нужно обучиться научному методу, критическому мышлению и куче других вещей. Каждая из этих вещей крайне трудна в освоении. Иначе всё быстро сводится к религиозным, суеверным и другим трактовкам события

Большинство людей и сейчас не смогут сделать вышеописанное.

Сейчас уже не смогут, это да.

Мы начали с обсуждения "понимания", "контекста", но вы тут незаметно перешли на целиковую методологию исследований (эпистемологии). Это, как бы, очень разные по уровню вещи. Никто не говорит, что ChatGPT в текущем виде (и, возможно, даже любое скалирование в точности этой "чисто генеративной" архитектуры, но это не точно) делает полный цикл мышления с построением и проверкой гипотез.

"Уметь собрать головоломку из кусочков" != "понимать".

Человек же даже в кавычки взял специально «понимать»…
в янтаре заряд накапливаься должен, а в металле — не должен
Почему это не должен? Должен. Конденсаторы не из янтаря делают.

"Смысла нет", но когда думаем о смысле, думаем про связи - бессмысленное (pun unintended) и контропродуктивное выкидывание "смысла" как некоторой характеристики связности, встроенности понятия в сеть других. Это характеристика кажется вполне полезной для обсуждения.

Но по сути верно, нет никакой метафизической разницы между этой встроенностью внутри инференса ИИ и инференса человека

Запрос включает в себя кроме последнего вопроса весь предыдущий диалог, поэтому ChatGPT не теряет нить разговора и нейросети можно что-то объяснить, потом задать вопрос и она даст ответ на основе этого объяснения. Но длина запроса ограничена этими пресловутыми 8000 токенами, поэтому слишком объемный диалог она не сохранит.

А чем вызвано это ограничение в 8000 токенов, и насколько оно масштабируется? Можно ли технически подать на вход нейросети запрос в миллион раз длиннее, пусть и ценой роста требуемых вычислительных ресурсов/памяти в те же самые миллион раз? Это не выглядит чем-то нереальным, с учетом скорости роста производительности чипов. Огромный ЦОД под эти цели можно сделать и сейчас.

Не получится ли тогда полноценный ИИ? Не сможет ли она аналогично человеку обучаться в режиме диалога, накапливая опыт и используя в каждом последующим ответе все знания/концепции из предыдущих вопросов и ответов?

Не получится ли тогда полноценный ИИ? Не сможет ли она аналогично человеку обучаться в режиме диалога, накапливая опыт и используя в каждом последующим ответе все знания/концепции из предыдущих вопросов и ответов?

И назовут его Deep Thought (Глубокомысленный)!

UFO just landed and posted this here

Я тоже обучал chatgpt языку программирования, не существующему нигде, кроме моего компьютера и моей головы. Программы, с третьей-пятой попытки получались рабочими.

Правда, сейчас chatgpt стала генерировать "скучные" ответы на нетехнические вопросы, как-будто ее специально "отупили".

Нагрузка нынче большая, похоже уменьшили кол-вол токенов на ответ. Тупее стала однозначно.

Я пробовал с помощью ChatGPT решать домашку по сольфеджио (взрослый бородатый мужик, ага) и пришел к выводу, что ИИ пока слабоват для таких целей. Просишь его придумать модуляцию в указанную тональность - получается полная ерунда на слух и с теоретической стороны. Просишь придумать гармонию с отклонением и это у нее иногда получается, что больше похоже на случайность. Однако последовательности из N аккордов без модуляций/отклонений получаются сносные, а иногда даже интересные. А вот сочинительство простых песен, уровня дворового Блекмора, очень даже получаются. ИИ выдает вполне удобоваримые тексты и гармонии которые остаётся доработать напильником и можно исполнять. Не Битлз конечно, но вполне себе уровень начинающего музыканта.

можно очень много рассуждать в чем он плох, но несомненно это невероятный буст, к скорости обучения чему бы то ни было.

из личного примера, он мне долго нудно и муторно объяснял всю работу с R и делал это намного лучше чем документация и стак оверфлоу, поправлял меня где я совершал глупые ошибки и обьяснял, почему они глупые и я уже заработал с помощью него денег. Просто ускорив выполнение своей работы.

Нужно у ИИ попросить что-нибудь на 1С написать. Словами бухгалтера.

Sign up to leave a comment.

Other news