Comments 7
У людей создаётся ложное представление о том, что ллм думает. Они начинают заниматься поиском скрытого смысла там, где его нет.
Спасибо за полезный материал и отличное качество перевода, а также за информацию об исходной статье
Однако ж, фантазии детей мы галлюцинациями не называем. Хотя ребенок не сразу умеет отличать фантазию от действительности. У человека существует разница между "автономной" - фантазии, сны, мечты и "предсказуемой" - планирование типа "кашу есть не стану, мама наругается", познанные на собственном опыте реалии - областями внутреннего мира. Между этими моделями мира (в норме) контролируемо перемещается фокус внимания; и человек с возрастом учится отличать эти миры, и понимает, где он "играет", а где - нечто "настоящее". Наше сознание многослойное, и, в каком-то смысле "отбрасывает тень", причем мы можем отчасти осознавать не единственность внутренней модели как себя, так и реальности, и сознательно переключаться между критериями восприятия, "на ходу" меняя наборы фильтров и веса значимости. Искины пока этого не умеют, если они "глючат", то глючат "честно". Когда ИИ научится делать что-то "понарошку", это будет уже не "философский зомби"
Было бы любопытно взглянуть на то, каким образом "reasoning" смог улучшить качество ответов в сравнении с обычными моделями.
В части про социальную предвзятость немного не учли особенности перевода. Но это не в укор, я просто обратила внимание 👉🏻👈🏻
У нас ведь медсестра — это действительно работник женского пола, а для мужского есть отдельное наименование «медбрат». Поэтому такие ассоциации у LLM при работе на русском весьма оправданы.
«LLM могут ассоциировать профессию медсестры с женщинами, даже если пол не упоминается в явном виде в пользовательском контексте».
Причины возникновения галлюцинаций LLM