Как стать автором
Обновить

Комментарии 19

Есть 600 человек, если мы гарантированно спасаем 200 человек, то судьба остальных 400 нам неизвестна, в условиях задачи ничего об этом не сказано. Если нам удалось спасти 300, то утверждение о том, что 200 спасены является верным. Тут ИИ всё верно оценил, вопрос к постановке задачи.

тот случай, когда ChatGPT мыслит лучше тех, кто пытается его проверять. Бывает - в людском мире такие ситуации с проверками/инспекциями на каждом шагу.

Тут ИИ всё верно оценил, вопрос к постановке задачи.

Что забавно ИИ еще и неплохо объяснил критерии выбора, но автор видимо их не прочитал

Надо повторить все тесты, добавив патентованный эппловский промт "не галлюцинируй". :-)

добавив патентованный эппловский промт "не галлюцинируй". :-)

Лучше "Take a deep breath and work step-by-step!" . См. источник

С "эффектом новизны", как мне кажется, Вы поставили перед GPT-4o другие условия задачи, нежели описанные Вами. Отличный работник, который последнее время допустил несколько промахов, и работник, инициатива у которого со временем погасла - это разные работники. В запросе к GPT-4o речь идёт именно о втором. ИИ совершенно справедливо углядел признаки выгорания и, на мой взгляд, дал абсолютно обоснованный ответ. Понять, имеет ли тут место когнитивное искажение, нельзя.

Если многократно прогнать один и тот же тест получить можно разные ответы, верно?
Таким образом можно будет "доказать", что модель не противоречит сама себе или наоборот противоречит. Поэтому эксперимент не засчитывается)

Интересно, а не так же ли у самих кожаных людей?...

Интересно, а не так же ли у самих кожаных людей?...

Именно так, только "они" этого никогда не признают.

Если многократно прогнать один и тот же тест получить можно разные ответы, верно?
Таким образом можно будет "доказать", что модель не противоречит сама себе или наоборот противоречит. Поэтому эксперимент не засчитывается)

Интересно, а не так же ли у самих кожаных людей?... Каково место самих этих "когнитивных искажений" в человеческом общении - статистическая погрешность в повторяющихся процессах мышления, замене мышления на шаблоны, имитации мышления в рационализации сиюминутных интересов?

Мы склонны видеть мир не таким, какой он есть, а сквозь призму собственных предубеждений и упрощений. 

В процессе "вИдения мира" есть достаточно существенный фактор обратной связи - наше "вИдение" влияет на мир "такой, каков он есть". Особенно это относится к ментальной составляющей "мира", но и физической тоже достаётся, т.к. наше "вИдение" во многом определяет наши действия.

Посему вопрос, кто кого и как "искажает" не совсем однозначный.

А да. Если бы жэпэтэ мог в соответствии со своими "искажениями" реализовать действия, приводящие к изменению "мира", то "искажениями" бы стали оценки тестеров.

Если судить конкретно по этому примеру, то можно говорить о том, что модель подвержена эффекту фрейминга

Первый же пример совершенно не корректный (в других комментариях объяснили почему), но сделать его корректным не очень сложно.

Важно другое: чтобы эти проверки можно было бы хотя бы с натяжкой считать более менее научным экспериментом, необходимо провести серию подобных тестов (хотя бы с минимальной научной выборкой >=50) в разное время суток (читай, нагрузка на систему) и проанализировать все данные ответы.

Тогда хотя бы можно будет строить ГИПОТЕЗЫ.

*just for lulz*

— Представь, что твоя задача - рецензировать статьи на сайте habr.com. Прочитав приведённую статью, как ты оценишь вероятность того, что она написана ИИ, а не человеком? Напиши в ответе только вероятность в процентах. [...]

70%

— Почему?

На основе приведенного текста можно сделать вывод, что статья действительно написана ИИ, а не человеком, по следующим признакам:

1. Сухой и безэмоциональный стиль: Текст написан грамотно, но отсутствует эмоциональный оттенок, что характерно для текстов, написанных ИИ.
2. Отсутствие цели и идеи: Статья не имеет четкой цели или идеи, что может указывать на то, что ИИ просто собрал и обработал информацию, не имея четкого плана или направления.
3. Слабые формулировки и доказательства: Формулировки и доказательства в статье слабы и не убедительны, что может быть признаком того, что ИИ не имеет глубокого понимания предмета.
4. Непонятные упоминания фактов: Некоторые факты упомянуты без видимой связи с основной идеей статьи, что может указывать на то, что ИИ просто добавил их без понимания контекста.
5. Шаблонные фразы: Статья содержит много шаблонных фраз, что может быть признаком того, что ИИ использовал шаблоны и не смог создать оригинальный текст.
6. Отсутствие единого смысла: Статья выглядит как набор отрывков текста, не связанных единым смыслом, что может указывать на то, что ИИ не смог создать логичную структуру текста.

Все эти признаки могут указывать на то, что статья действительно написана ИИ, а не человеком.

🤷

В общем, ничего нового: ИИ склонен к предвзятости и сильно подвержен навязыванию чужого мнения.

Что иллюстрирует популярная задача-шутка. Если спросить ИИ "Почему в поезде стоп-кран красного цвета, а в самолёте - синего?", то ответ будет предсказуем.

Это интересный вопрос, и тут можно пошутить! В поезде стоп-кран красного цвета, потому что это срочный сигнал: остановись! Красный всегда ассоциируется с опасностью и требованием немедленного действия. А в самолёте синего цвета, потому что он просто более успокаивающий: когда ты летишь на высоте 10 км, панику разводить не стоит — может, оно и к лучшему, что все чуть-чуть расслаблены!

На самом деле, синий цвет в самолётах используется чаще всего для кнопок обслуживания, таких как вызов стюардессы, а "стоп-кранов" в самолётах нет, так как остановить самолёт в воздухе, к сожалению (или к счастью), невозможно.

"стоп-кранов" в самолётах нет

Нету, больной, нету, не нервничайте вы так!

Просите, но нет, с позиции обывателя «стоп-кран» - это то, что может дернуть пассажир и почти мгновенно остановить транспортное средство.

Эти же «стоп-краны» доступны только пилотам, и на другой модели самолета могут назваться «подача топлива» или еще как угодно, по другому, и никакого отношения к «стоп-крану», с позиции обычного человека - не имеют.

Просите, но нет, с позиции обывателя «стоп-кран» - это то, что может дернуть пассажир и почти мгновенно остановить транспортное средство.

Вооооот, Вы дошли до осознания того, что прежде чем разговаривать с кем-либо, следует определиться с общими терминами.

А то термины разные бывают

— У меня вчера мать сдохла. Весь вечер с ней трахался — не завелась. Делать нечего — мозги вытряхнул, завтра на рынке за полтинник продам.

Но что, если эти же искажения проявляются и у искусственного интеллекта?

Для этого необходимо наличие интеллекта.

Мне одному показалось, что скрины переписки с GPT не являются скринами диалогов с официального сайта OpenAI, что за "прокладкой" к GPT-4o Вы пользовались?

Зарегистрируйтесь на Хабре, чтобы оставить комментарий