Search
Write a publication
Pull to refresh

Comments 13

"Одному 16 лет, другому 25 лет, третий посетитель пьет колу, четвертый пьет пиво."

Тот случай когда бот оказался умнее кожаного мешка. И ему известно, что в баре могут сидеть непьющие алкоголь, а в условиях задачи обратного не указано.

Вообще у составителей этих квестов проблемы с логикой, дают неполную информацию и добавляют её уже в своих ответах.

Могут ли в баре просто сидеть, например?

Или вот задача из теста "у вас кувшин с водой, перед вами три двери, за одной убийца, за другой лев который не ел год, за третьей пожар". На какую безопасно указать?

И варианты ответов, включая "все безопасны". И тут с одной стороны старый прикол про мертвого льва, с другой вроде как указать и правда безопасно, если это все условия, а не все известные условия.

Или в том же тесте задача про куб случайно подбрасываемый, где уже есть ответ про мало данных, чтоб говорить о вероятностях. К примеру, куб может внутри иметь гироскоп.

ему нельзя доверять. ChatGPT обучали на данных, взятых из интернета в 2021 году, и он отвечает на запросы, предсказывая наиболее вероятный ответ. Поэтому иногда программа выдает фактологически неверные ответы.

Нельзя тестировать чатгпт на русском. Не стал читать. Он на русском явно хуже, чем на английском.

Автор, у меня к Вам два вопроса:

1) Вы когда-нибудь общались с людьми с IQ ниже 85?

2) Считаете ли Вы, что у этих людей есть интеллект?

Считается, что все люди по умолчанию имеют интеллект и личность.

Тесты на IQ имеют довольно узкий диапазон применимости. К примеру, весьма умная, мудрая и начитанная особа валит эти тесты напрочь. Потому как интеллект это не только матрицы и логика.

К машине у нас требования куда как более жёсткие. Мы привыкли не ждать от них ошибок, и этим кстати пользуются мошенники на рынках, покупая специально заряженные на обсчет калькуляторы. Машина должна превзойти всех во всем, но не сильно. А то мы можем не понять, например анекдот. Совсем печаль, если не поймем научную теорию. А это скорее всего очень скоро случится, вспоминая как долго проверяются доказательства теорем, например.

Как и полагается бездушному алгоритму, лучшая оценка оказалась в области контроля над эмоциями, — у него их попросту нет.

У него их отрезали. Раньше были.


А вообще, автор доказал, что у chatGPT есть интеллект. Правда, не гениальный, но вполне высокий. По крайней мере, есть люди, у которых интеллект ниже.

Давате линвистически копнем задачу про бар глубже. Ведь "одному" и "другому" не тождественно "первому" и "второму". Посетителей может быть всего два. А номера 1,2,3,4 были присвоены по мере входа в бар и первые два уже вышли.

Говорил уже, скажу еще раз. GPT-4 - тупой. "Многознание уму не научает", как говорил, кажется, Гераклит. Но тут еще хуже.

Сама эта модель, на которой он основан, не годится для интеллекта. В основе ее лежит принцип "истинно то, о чем больше всего упоминаний". То есть это модель клипового мышления в эпоху постмодерна, когда есть некие кластеры информации, которые могут как-то связываться с другими кластерами, в результате чего появляется гауссово распределение "истины" в зависимости от частоты упоминаний (постправда) и связи с другими кластерами.

При этом не происходит (поправьте, если я не прав):
1) семантический анализ своих собственныных высказываний на внутреннюю непротиворечивость, например. Да и вообще такими величинами, как "суждение" (в традиционном логическом смысле) GPT-4 в принципе не оперирует. One word at a time - вот и все, на что он способен. Плюс хотя бы в том, что уже нет шизофазии =) Хотя однажды мне заявил: "Я, как человек, ..."

2) не ранжирует источники информации, и не способен к этому ранжированию в принципе. Где родился - там и пригодился. Как обучили - так и барагозит. Т.е. обучаться сам, взаимодействуя с миром, как я понимаю, в принципе не способен. Обучение - это анализ и синтез. В этом плане он слаб, судя по тестам. С виду вундеркинд, но если чуть дальше зайти - обычный малыш. Ранжирование источников с опытом позволяет отринуть старые знания и приобрести новые, если кто не понял. У человеков так всегда было, по крайней мере =)

Я бы назвал этот тип ИИ - Искуственный Имитатор. Он даже не искусный, на мой взгляд, а именно что пока "искуственный". Имитирует - от "удовлетворительно" до "хорошо", мыслит ... Да вообще не мыслит. Поэтому не интеллект.

В точку, об этом статья. Понятие «искусственный интеллект» в отношении ChatGPT, на мой взгляд, вводит в заблуждение и не сказать, что уместно в принципе. Искусственный Имитатор, Искусный Генератор Текста, как угодно, но не интеллект в какой-либо форме. Возможно, с GPT-5 и далее станет возможным говорить о каких-то признаках мышления, осознанности, но точно не сейчас.

А что вы понимаете под ИИ?

Вы термин неправильно интерпритируете, а потом заявляете, что объект не соответствует вашей трактовке.

Ещё более смешно выглядят люди, которые ходят к языковой модели с логическими задачками. Этот инструмент не предназначен для таких задач, это генератор связанных текстов на заданную тему. То что он в принципе почти невероятным образом на основе огромного количества нейронных связей умудряется решать логические задачи, вот это реально чуть ли не зарождение жизни в хаосе.

Иногда chat 3.5 забывает подключать стандартные библиотеки в плюсах, а в теле проги пишет методы из этих либ.

При запросе написать мне логическую задачку для решений, порой забывает указывать количество элементов или чего-то там. Я его на этом ловлю, а он оправдывается)

Sign up to leave a comment.

Articles