Обновить

Нам говорят, что AI безопасен. Confer — первый случай, когда это почти правда

Уровень сложностиПростой
Время на прочтение5 мин
Охват и читатели7.1K
Всего голосов 6: ↑3 и ↓30
Комментарии4

Комментарии 4

Если нужен действительно приватный llm, запусти его локально через Ollama. Всё остальное потенциально не безопасно.

Да, для чувствительных тем сам так и делаю. Благо, даже за последний год достаточно легких моделей стало сильно больше и они порядком прокачались.

Я рассматриваю сервисы, подобные Confer, как альтернативу для людей без технического бекграунда. Потому что, согласитесь, процесс локального подъема ллм пока далек от масс адопшена.

Ладно, надо признать что решение интересное и замороженное. Намного более замороченное чем типичное "просто сказать что у нас безопасно". Надо вектором атаки тут надо хорошенько призадуматься.

Я поэтому и решил написать о нем, пару дней потыкался в код, как-то ничего для меня явного на ум не пришло. Думал, будут полные комменты людей, кто предложат векторы атаки, но пока пусто)

Зарегистрируйтесь на Хабре, чтобы оставить комментарий

Публикации