Как стать автором
Обновить

Пять вещей, которые не стоит рассказывать ChatGPT

Уровень сложностиПростой
Время на прочтение3 мин
Количество просмотров68K
Автор оригинала: Nicole Nguyen

Не позволяйте вашем мыслям стать учебным материалом для ИИ — или всплыть в случае утечки данных.

Неважно, какого чат-бота вы выберете: чем больше вы делитесь, тем полезнее он становится. Пациенты загружают результаты анализов для расшифровки, разработчики отправляют фрагменты кода для отладки. Однако некоторые исследователи ИИ советуют с осторожностью относиться к тому, что мы рассказываем этим человечно звучащим инструментам. Особенно рискованно делиться такой информацией, как паспортные данные или корпоративные секреты.

Дисклеймер: это вольный перевод колонки Николь Нгуен из журнала The Wall Street Journal. Перевод подготовила редакция «Технократии». Чтобы не пропустить анонс новых материалов подпишитесь на «Голос Технократии» — мы регулярно рассказываем о новостях про AI, LLM и RAG, а также делимся полезными мастридами и актуальными событиями.

Компании, создающие ИИ, жаждут данных для улучшения своих моделей, но даже они не хотят знать наши секреты. «Пожалуйста, не делитесь конфиденциальной информацией в переписке», — предупреждает OpenAI. А Google обращается к пользователям Gemini с просьбой: «Не вводите конфиденциальные данные или информацию, которую не хотели бы раскрыть рецензенту».

Разговоры о странных сыпях или финансовых промахах могут быть использованы для обучения будущих ИИ — или утечь при взломе, говорят эксперты. Вот что не стоит включать в свои запросы — и как вести более приватный диалог с ИИ.

Храните свои секреты

Чат-боты могут звучать пугающе по-человечески, из-за чего люди становятся чрезмерно откровенными. Но, как говорит Дженнифер Кинг из Стэнфордского института ИИ, ориентированного на человека: «Как только вы что-то написали боту, вы этим больше не владеете».

В марте 2023 года в ChatGPT случился сбой, позволивший некоторым пользователям увидеть сообщения других. Проблему устранили, но OpenAI также по ошибке отправила письма с подтверждением подписки не тем людям, раскрыв их имена, адреса и платёжную информацию.

История переписки может оказаться в украденной базе данных или быть передана по запросу суда. Используйте надёжные пароли и двухфакторную аутентификацию. И избегайте упоминания при общении с чат-ботами следующих данных:

  • Персональные данные. Это паспортные данные, водительские права, а также дата рождения, адрес и номер телефона. Некоторые чат-боты пытаются их скрыть. «Мы хотим, чтобы наши модели изучали мир, а не частных лиц, и активно минимизируем сбор персональной информации», — заявила представитель OpenAI.

  • Медицинские данные. Если вы хотите, чтобы ИИ расшифровал анализ, обрежьте изображение или отредактируйте документ: «Оставьте только результаты и удалите личные данные».

  • Финансовая информация. Берегите номера банковских и инвестиционных счетов — ими могут воспользоваться для доступа к средствам.

  • Корпоративные секреты. Используя обычную версию чат-бота в работе, вы рискуете раскрыть клиентские данные или информацию под NDA — даже при написании обычного письма. В Samsung ChatGPT запретили после того, как инженер загрузил исходный код. Если ИИ полезен вам в работе, компания должна использовать корпоративную версию с защитой данных.

  • Логины. С ростом ИИ-агентов, способных выполнять реальные задачи, увеличилось искушение делиться паролями. Но такие сервисы не предназначены для хранения паролей — используйте для этого менеджеры паролей.

Скрывайте следы

Оценивая ответы ИИ — ставя палец вверх или вниз — вы можете дать согласие на использование вашей переписки для обучения. Если беседа будет помечена как потенциально опасная (например, при упоминании насилия), её могут просмотреть сотрудники.

Anthropic (Claude) по умолчанию не использует ваши чаты для обучения и удаляет данные через два года. ChatGPT от OpenAI, Copilot от Microsoft и Gemini от Google — используют, но предлагают отключение в настройках. Если для вас важна конфиденциальность, воспользуйтесь этими советами:

Удаляйте переписку. Особенно осторожным пользователям стоит удалять каждый чат сразу после завершения, советует Джейсон Клинтон, директор по информационной безопасности Anthropic. Компании обычно окончательно удаляют «удалённые» данные через 30 дней.

Исключение — DeepSeek: его серверы находятся в Китае, и по политике конфиденциальности он может хранить ваши данные неограниченно. Возможности отказаться нет.

Включайте временный чат. В ChatGPT есть режим Temporary Chat — как «Инкогнито» в браузере. Активируйте его, чтобы беседа не сохранялась в вашей истории и не использовалась для обучения моделей.

Задавайте вопросы анонимно. Сервис Duck.ai от DuckDuckGo анонимизирует запросы к Claude, GPT и другим, обещая, что они не будут использоваться в обучении. Правда, функции у него ограничены — например, нельзя загружать файлы.

Только помните: Чат‑боты запрограммированы на продолжение разговора. Только от вас зависит, сдержитесь ли вы — или нажмете «удалить».

Теги:
Хабы:
+17
Комментарии60

Публикации

Истории

Работа

Ближайшие события

4 – 5 апреля
Геймтон «DatsCity»
Онлайн
8 апреля
Конференция TEAMLY WORK MANAGEMENT 2025
МоскваОнлайн
25 – 26 апреля
IT-конференция Merge Tatarstan 2025
Казань
20 – 22 июня
Летняя айти-тусовка Summer Merge
Ульяновская область