Pull to refresh

Comments 10

Ещё один повод доверять-но-проверять только тому ИИ, который хостишь сам...

И даже в этом случае это все равно черный ящик.

Понятие персональных данных сильно размывается моделями, позволяющими на основании деперсонализированных данных (согласие на обработку которых получает любой сервис) получить персонализированную информацию.

деперсонализированной информации на большом масштабе имхо не существует

Ничего не понял. У них с сотрудником один аккаунт на двоих? И он в своей же истории увидил запрос сотрудника? И сотрудник в запросе указал логины-пароли? Так а ChatGPT-то тут при чём? Всё работает by design.

А если там в истории диалогов светятся (опять) чужие диалоги, то факт того, что это диалог сотрудника, нерелевантен (кроме как для отладки), то ну это огромная дыра (опять). Но, опять же, это не проблема языковой модели, это проблема контроля доступа к истории диалогов.

Ну и, в довершение, да, отдавать логины-пароли и в целом любую информацию под NDA / другими ограничениями в ChatGPT – это, ну, халатность. Там английским по белому написано, что это всё открытый текст, который будет виден кому угодно в OpenAI и, возможно, даже использован для обучения (я точно не помню формулировку).

Я как понял этот баг можно использовать допустим в телеграм ботах общедоступных. Сейчас много таких на просторах интернета. Все они сидят условно за одним и тем же логином. Пользователи не подозревают что они могут поделится информацией с другими людьми так как ЧатЖПТ думает что запросы приходят условно от одного и того же человека и использует историю его запросов.
Сумбурно как то получилось. В целом пользоваться публичными ботами нужно аккуратней или делать только бота для своего использования.

Я недавно сам закинул денег на OpenAI, чтобы иметь доступ через телегу, но сразу проверил чтобы доступ к боту был только с одного аккаунта телеграм. А какая выгода владельцам публичных ботов? Запросы к апишке то не бесплатные

Ну то что я видел эта типа: "10 запросов в день на халяву, а дальше дай n денег и будет условный анлимит* ".

  • анлимит заканчивается на 100 запросах в день :)

Такая вот модель монетизации.

И сотрудник в запросе указал логины-пароли?

Или пользователь сам указал в чате, или криво написанный чат-бот интернет-магазина подмешивает эти данные к тексту заказов, а история заказов по каким-то причинам оказалась доступна для поисковиков.

Так а ChatGPT-то тут при чём?

Есть же требования к поисковикам "фильтровать базар". Видимо к ChatGPT это требование тоже применимо. Логично не выдавать информацию связанную с username и password. Он же все-таки Интеллект, и должен понимать элементарные вещи.

Sign up to leave a comment.

Other news