Чем вызван феномен галлюцинирования нейросетей?

Добрый день, сразу оговорюсь - я сам не знаю до конца ответа на этот вопрос, поэтому и хочу прибегнуть к помощи сообщества для поиска ответа на него. Вообще мне как программисту приходится сталкиваться с ИИ каждый день, использую браузерную версию Qwen Chat для личных и частично рабочих вопросов, чисто для рабочих - Cursor как правило с Composer. Но в целом пробовал почти все известные модели конечно же.
Так вот, все знают, что нейросетям присущ феномен галлюцинирования, когда они выдумывают несуществующие факты и сущности. Непосредственно во время взаимодействия с ИИ во вопросам программировании у меня этого почти не проявляется, видимо, существуют некие ограничения по умолчанию и вообще в данной области ИИ трудно галлюцинировать. По крайней мере я никогда не сталкивался, что ИИ в программировании предлагает некие несуществующие языки программирования или несуществующие конструкции. Максимум - необъявленные переменные или (очень редко) конструкции из других языков, которых нет в данном, да и то по большей части это касалось различий в диалектах SQL.
Однако в таком казалось бы простом вопросе как объяснение или пересказ фильма ИИ могут проявлять удивительно высокий уровень галлюцинирования. Я часто спрашиваю у Qwen объяснение серии какого‑либо сериала, когда не до конца понимаю ее смысл. В целом, что касается смысла ИИ интерпретирует вроде как верно, и как мне всегда казалось ее оценки и понимание сюжета базируется не на чистой фантазии, а на мастер‑данных, которые в нее были заложены — то есть общее описание сюжета, отзывы реальных критиков и зрителей. Но что касается пересказа сюжета — тут ИИ может выдавать очень забористые галлюцинации. Например, недавно начал смотреть «Черное зеркало» (поздновато, но все же).













