Как стать автором
Обновить

Обзор уязвимостей для LLM. Часть 1. Атака

Время на прочтение7 мин
Количество просмотров2.9K
Всего голосов 9: ↑9 и ↓0+12
Комментарии2
2

Комментарии 2

чтобы ИИ работал безопасно и предсказуемо в интересах людей

Но ведь это недостижимо. Хотя бы потому, что существуют люди, которые действуют не "в интересах людей"

В 100% случаев это невозможно, хотя бы потому, что открытые модели могут злоумышленники использовать без контроля. Но будут разработаны методы и guardrails, чтобы снизить этот риск

Зарегистрируйтесь на Хабре, чтобы оставить комментарий