Pull to refresh

Comments 11

Что за бред?

Сначала "ставим свой сервис для конфиденциальности, чтобы никому не отправлять данные". А потом подключаем GPT по API. По API данные что, по вашему, прямо в святой дух пересылаются, минуя корпорации?

Во-первых, данные, передаваемые через API, шифруются, что защищает их от перехвата. Во-вторых, многие компании, включая OpenAI, имеют строгие политики конфиденциальности, согласно которым они не используют данные пользователей для обучения своих моделей. В-третьих, использование собственного сервиса для конфиденциальности дает вам полный контроль над тем, какие данные отправляются и как они обрабатываются. Вы можете минимизировать передаваемую информацию и дополнительно защитить её. Таким образом, правильное использование API не противоречит идее защиты конфиденциальности данных.

Тогда зачем вообще было приплетать сюда конфиденциальность? Чем использование API безопаснее, чем использование страницы OpenAI?

У вас из текста следует, что если ответы от AI хранить у себя, то ChatGPT не станет их хранить, а иначе, значит, станет. Что, конечно, полная чушь. Если они захотят собирать данные, то будут это делать и из API.

Нет вообще никакого смысла в использовании всего описанного в таком виде. Или свою модель запускать для приватности, или расширенный по возможностям интерфейс к ChatGPT для удобства. Или оба сразу.

А здесь цель явно стояла "Придумать хоть какую-то хайповую тему чтобы применить wing". Два раза по тексту перепутали по смыслу движок LLM и интерфейс к нему.

Использование API может быть безопаснее, поскольку вы можете управлять передачей и хранением данных, включая их анонимизацию и защиту через зашифрованные каналы. Это не означает, что OpenAI не может собирать данные через API, но вы имеете больше контроля над процессом.

Использование API ChatGPT безопаснее чем что?

Анонимизация? Все запросы всё равно привязаны к зарегистрированному аккаунту, который кстати нужно оплачивать. А если уж кто-то сподобился анонимно оплатить аккаунт, то и зайти на страницу анонимно придумает как.

Защиту через зашифрованные каналы? А какой способ общения с LLM не предусматривает защиту через зашифрованные каналы, а именно HTTPS? Ну, чтобы имело смысл вообще про это вспоминать, надо чтобы было с чем сравнить.

Больше контроля над процессом обработки данных внутри OpenAI? Вот тут можно подробностей, пожалуйста? Вообще во всём диалоге как-то остро, звеняще не хватает подробностей.

Использование API может быть безопаснее в том смысле, что у разработчиков есть больше контроля над данными, которые они отправляют. В веб-интерфейсе OpenAI пользователи вводят данные напрямую, и все, что они отправляют, идет на серверы OpenAI. При использовании API разработчики могут предварительно обрабатывать, фильтровать и анонимизировать данные перед отправкой, что может снизить риск утечки чувствительной информации.

Все запросы привязаны к аккаунту. API позволяет разработчикам внедрять дополнительные уровни защиты, такие как шифрование на стороне клиента или использование прокси-серверов для скрытия исходного IP-адреса. HTTPS, конечно, является стандартом, но дополнительные меры могут повысить общую безопасность.

При использовании API разработчики могут выбирать, какие данные отправлять, а какие обрабатывать локально. Например, они могут обрабатывать на своей стороне все, что не требует анализа AI, и отправлять только минимально необходимую информацию для обработки. Это не отменяет потенциальную возможность сбора данных OpenAI, но уменьшает объем передаваемых данных.

А, то есть у вас устанавливающий эту штуку это не пользователь и он не доверяет пользователю, что тот не вставит в чат какую-то секретную информацию? Ну вот теперь понятно, теперь есть хоть какая-то цель у всех этих телодвижений.

Правда, это всего лишь означает, что тот охраняемый пользователь вставит информацию не в чат с LLM а в какой-то другой, но это уже вопрос, плохо решаемый технически.

А то поначалу было вообще не понятно, кого и от чего защищаем.

We do not train on your business data (data from ChatGPT Team, ChatGPT Enterprise, or our API Platform)

OpenAI may securely retain API inputs and outputs for up to 30 days to provide the services and to identify abuse. After 30 days, API inputs and outputs are removed from our systems, unless we are legally required to retain them.

Может быть они и сохраняют твои данные способом ОП'а на определенный период, но они хотя бы открыты в том, что они не используются для тренировки их моделей, а также сколько дней они эти данные хранят. По крайней мере, ОП не даёт этой компании заработать на нем ни копейки больше, чем те центы, которые он отправляет за сами API запросы.

Я написал клиент который работает в браузере клиента и там же хранит все данные, типа историю чатов и кэш аудио, изображения грузит в imagebb, от туда я передаю ссылку, сервер используется только для того чтобы можно было поделиться чатом с кем то

Топовая статья, автору респект!

Ещё одна оболочка для чатагпт

Sign up to leave a comment.

Articles