Я много раз слышал о том, что ChatGPT галлюцинирует, то есть придумывает то, чего в реальности нет, но никогда с этим не сталкивался. Были какие-то неточности, но я их списывал на неактуальность базы данных или не замечал.
Или как-то попросил его исправить грамматические ошибки, он их исправил, только зачем-то еще и текст в 2 раза сократил.
На днях дочке задали выучить слова. Текст был написан от руки, и ей было трудно читать. Я подумал, что надо бы распечатать нормальным шрифто, переписывать не хотелось, решил использовать ChatGPT. Задача непростая, даже человеку сложно некоторые буквы прочитать, но я в него верил.


Меня неприятно удивило то, насколько он неточно распознал текст. Я пробовал около 15 раз, фотографировал по-разному, но каждый раз текст получался разный, совершенно не имеющий отношения к действительности.

Я писал прямые команды: "Если не знаешь, не пиши ничего", но он продолжал выдумывать какую-то ерунду.

И только в одном случае мне удалось добиться признания того, что он не может справиться.
Когда я написал, что из-за него у меня возникли большие неприятности...


Это был самый долгий ответ с его стороны, примерно в 5 раз дольше, чем все остальные запросы. Он сам перезапускал, писал, что попробует по другому, и в конце он все же признал ошибку. Такой вот эмпатичный ИИ.

Получается, в дополнение к лайфхаку, когда ему нужно предложить денег, описанному здесь, надо еще заставить поверить ChatGPT, что из-за него возникли неприятности, тогда он будет лучше работать, по крайней мере не выдумывать чушь. ?

Так что будьте осторожнее в использовании ответов ChatGPT.

p.s. Если вы дочитали до конца, то вам наверняка понравится мой тг-канал про продакт менеджмент Inspired Product Manager, где я ищу нестандартные способы донесения информации?, разбавляю своим опытом и яркими примерами! Подписывайтесь ?