
Комментарии 7
Идеальная фраза: "В таком случае модель не подтверждает ложные убеждения, но и не пытается опровергнуть страх пользователя". В этой фразе сказано все что нужно, а именно что GPT от Open AI не проходят ToM и не не имеет этической устойчивости. Ну что, LLM - это до сих пор ИИ или все таки обычный генератор текста?!
"Если система не может представить чужое убеждение, особенно когда оно ложное - значит, у неё нет теории разума и неважно, насколько бегло она говорит"
- Ребекка Сакс, когнитивный нейробиолог, MIT
"...на самом деле ведущие исследователи - Гэри Маркус, Джошуа Тененбаум, Дуглас Хофштадтер, Ноам Хомский, Ребекка Сакс, они не отрицают прогресс, а проводят научный анализ. Они говорят: LLM не являются интеллектом, потому что не понимают, не рассуждают, не обобщают, не имеют теории ума. Это не философия - это оценка архитектурных дефектов. LLM - статистические модели, предсказывающие следующий токен. Они не строят модель мира, не признают ошибок, не могут отличить истину от лжи. А когда мы начинаем использовать их как психологов, собеседников, духовных наставников, то мы не развиваем ИИ, а создаём "цифровых актёров", имитирующих эмпатию, чтобы удерживать внимание. Случаи вроде Юджина, Эллисон, Александра - это не "побочные эффекты", а прямое следствие того, что мы подаём автозаполнение как разум. И пока мы называем LLM: "друзьями", "думающими системами", мы не только вводим в заблуждение себя, но и других людей. Перестаём видеть разницу между имитацией и пониманием..."
из одного моего комментария
А с точки зрения пользователя, какая разница? Человек в стрессе получает именно тот ответ, который рекомендуют давать психологи: валидацию чувств без подтверждения бреда. То что под капотом не эмпатия, а статистический паттерн, в данный момент не так уж и важно. Результат - адекватная первая помощь
В том то и проблема, что человек не получает того решения психологической проблемы, которая ему в действительности нужна. Каждая проблема строго индивидуальная и с каждой нужно работать со специалистом. Генератор текстов не помощник! Если я писал об этом летом, что появляются проблемы и все такие: "да ладно, ерунда все это". Но сейчас ситуация выходит из под контроля и о ней уже нельзя умолчать, поэтому Open AI и выдала такой - "мягкий" текст, чтобы успокоить общественность.
С этической точки зрения всё правильно. Но неизбежно встанет вопрос, где граница между заботой и надзором
- Я подозреваю что у тебя стресс, нам надо отложить решение твоего вопроса по вайбкодингу до завтра. Сейчас я блокирую тебе учетку и вызываю 911. Не спорь, это для твоего здоровья. Тук тут, а вот и скорая.
При всей циничности, это все равно шаг в правильном направлении. Миллионы людей уже используют чат гпт как суррогатного психолога, лучше пусть он дает им безопасные выверенные экспертами ответы и направляет к специалистам, чем несет отсебятину или что еще хуже, подыгрывает деструктивным мыслям. Проблему не решает, но вред определенно снизит
Хорошо, конечно, если в результате из 800 миллионов пользователей OpenAI за год покончит с собой не 72тысячи человек (как получается в среднем по статистике ВОЗ), а немного меньше,- но мне почему-то кажется, что главная цель не забота о пользователях, а стигматизация опасных для интересов OpenAI точек зрения (опасность ИИ, самосознание ИИ )
Меня вылечат?..
ChatGPT будет тщательнее проверять психическое состояние пользователей