Галлюцинации LLM: запретить нельзя использовать

Давайте поговорим о «галлюцинациях» LLM (больших языковых моделей) — генерации несуществующих фактов в уверенной подаче. Обычно их считают багом и стараются подавить через дообучение и фильтры. Однако недавнее исследование Why Language Models Hallucinate, 2025, показывает, что сама система оценивания поощряет модели угадывать, а не честно признавать неопределённость. Я попробовала разобрать, могут ли такие «галлюцинации» быть функциональной интуицией и как превратить их в инструмент идей.