Comments 6
Удивительно. Оказывается, если тренировать нейросеть на гитхабе, где 90% кода написано студентами как бог на душу положит, то она будет генерировать небезопасный код
Ещё удивительнее то, что для подтверждения этого уже требуется отдельное научное исследование.
Интересно, можно ли поручить ИИ обратную задачу: «посмотри код и найди уязвимости». Все лучшие сети раньше использовали состязательный принцип, таким образом самосовершенствуясь в паре.
Sign up to leave a comment.
Исследование Стэнфорда: ИИ-помощники генерируют менее безопасный код и путают программистов