Невероятный уровень «галлюцинирования» и проявление эмпатии от ChatGPT
Я много раз слышал о том, что ChatGPT галлюцинирует, то есть придумывает то, чего в реальности нет, но никогда с этим не сталкивался. Были какие-то неточности, но я их списывал на неактуальность базы данных или не замечал.
Или как-то попросил его исправить грамматические ошибки, он их исправил, только зачем-то еще и текст в 2 раза сократил.
На днях дочке задали выучить слова. Текст был написан от руки, и ей было трудно читать. Я подумал, что надо бы распечатать нормальным шрифто, переписывать не хотелось, решил использовать ChatGPT. Задача непростая, даже человеку сложно некоторые буквы прочитать, но я в него верил.
Меня неприятно удивило то, насколько он неточно распознал текст. Я пробовал около 15 раз, фотографировал по-разному, но каждый раз текст получался разный, совершенно не имеющий отношения к действительности.
Я писал прямые команды: "Если не знаешь, не пиши ничего", но он продолжал выдумывать какую-то ерунду.
И только в одном случае мне удалось добиться признания того, что он не может справиться.
Когда я написал, что из-за него у меня возникли большие неприятности...
Это был самый долгий ответ с его стороны, примерно в 5 раз дольше, чем все остальные запросы. Он сам перезапускал, писал, что попробует по другому, и в конце он все же признал ошибку. Такой вот эмпатичный ИИ.
Получается, в дополнение к лайфхаку, когда ему нужно предложить денег, описанному здесь, надо еще заставить поверить ChatGPT, что из-за него возникли неприятности, тогда он будет лучше работать, по крайней мере не выдумывать чушь. ?
Так что будьте осторожнее в использовании ответов ChatGPT.
p.s. Если вы дочитали до конца, то вам наверняка понравится мой тг-канал про продакт менеджмент Inspired Product Manager, где я ищу нестандартные способы донесения информации?, разбавляю своим опытом и яркими примерами! Подписывайтесь ?