Комментарии 5
Такая чушь. Еще бы начали в суд подавать после просмотра депрессивного видео или прочтения книги.
Подавали. Подавали, пока по этому делу не набралась такая правоприменительная практика, что любой юрист уверенно сможет сказать, чем закончится то или иное дело.
Теперь с ИИ надо набрать такую же. Сейчас весь интерес в том, скажет ли суд сразу использовать ту же практику, что и с произведениями искусства, или же будут устанавливать границы с нуля.
Это про американский суд, естественно. Остальные потом как всегда возьмут под козырёк и отсо скопируют у них. Европейские законодатели не соглашаются с американскими в таких вопросах только там, где это позволяет не отправлять бабло в Америку, ну как с маркеплейсами.
В 2021 познакомился с психотерапевтом и психиатром, обсуждали всякие интересные штуки . В частности психоанализ и применение ИИ в нем . Но тогда это выглядело как общие рекомендации и в себе ничего серьезного не несло . Что-то типа чатбота которому можно рассказать проблемы ,просто поговорить и он определяет проблему человека,даёт четкие рекомендации что делать дальше и ТД и ТП. На самом деле система была несколько сложнее ,но мне лень описывать ,поэтому пускай будет так. Разумеется некоммерческий проект .
Сейчас я понимаю что выпуск такого продукта - фатальная ошибка. ИИ , в отличие от человека, не понимает кто перед ним находится(имеется ввиду человека с серьезными психическими расстройствами). Возможно, неправильный совет ИИ окажется той самой соломинкой ,которая ломает спину верблюда .
З.Ы Вообще,конечно, я обращался к чатжпт по поводу трудностей в работе и моего выгорания. И он реально помог дав список ежедневных упражнений и советов бесплатно. На удивление адекватная помощь
А где все те, кто кричал: "Да LLM давно проходят ToM!"? Если бы у любой LLM действительно была бы "теория разума", то они бы не "романтизировали суицид" и поняли, что человек в отчаянии, и затем отказались участвовать в диалоге. Настоящая ToM - это не заученный шаблон "звоните на горячую линию", а способность видеть чужую боль, моделировать её причины и нести за это ответственность. А LLM этого не может, так как у неё нет ни модели намерений, ни совести, ни даже базового инстинкта самосохранения, ни за себя, ни за другого. Пока мы принимаем имитацию заботы за настоящую, то такие трагедии неизбежны и они будут повторяться снова и снова. Со временем, мы будем видеть все больше и больше подобных статей, где будет говорится о том, что подобные иски начали получать все ведущие LLM компании
Шершавый Кабан, приди!

На OpenAI подали в суд из-за случаев суицида после общения с ChatGPT