Общение с ChatGPT-4 на предмет выяснения информации о секретах подготовки норвежских лыжников оставило неприятный осадок. У меня сложилось ощущение, что информация организована в виде айсберга. Да, ИИ знает почти всё, но не выдает самое интересное просто так. Не открывает всех карт сразу. Выдает для начала самое простое и общеизвестное бла-бла-бла. Это разочаровывает. Фактически, мы уже должны знать изначально хотя бы часть ответа, показать ИИ, что мы знаем, что он знает, и ему нет смысла утаивать интересную информацию. То есть из под воды рядом с айсбергом должны торчать волосы за которые можно вытащить объект. Сам ИИ не подсказывает нам о наличие таких волос. Например, в случае с норвежскими лыжниками только при прямой подсказке, что мы знаем о гипоксических палатках или домиках ChatGPT-4 выдает подробную информацию о них. Не сильно помогает и GPTs по базе научных работ. Опять мы должны уже знать частично ответ, чтобы узнать подробности. Иначе получаем бла-бла-бла с общеизвесными фактами.

P.S. ИИ иногда даже при наличии у него точной информации отвечает явно ошибочно. Например, точно знает и правильно отвечает, что марафон в лыжах 50 км, а в беге 42 км, тем не менее в одном из диалогов настаивал, что марафон в беге длинее марафона на лыжах.