Как стать автором
Обновить

Исследование Стэнфорда: ИИ-помощники генерируют менее безопасный код и путают программистов

Время на прочтение3 мин
Количество просмотров2.5K
Всего голосов 4: ↑4 и ↓0+4
Комментарии6

Комментарии 6

НЛО прилетело и опубликовало эту надпись здесь

Удивительно. Оказывается, если тренировать нейросеть на гитхабе, где 90% кода написано студентами как бог на душу положит, то она будет генерировать небезопасный код

Ещё удивительнее то, что для подтверждения этого уже требуется отдельное научное исследование.

НЛО прилетело и опубликовало эту надпись здесь

Я один из этих фанатиков. Как и любой инструмент, его нужно использовать по назначению. Он не будет думать за программиста, но вполне способен облегчить рутину.

Интересно, можно ли поручить ИИ обратную задачу: «посмотри код и найди уязвимости». Все лучшие сети раньше использовали состязательный принцип, таким образом самосовершенствуясь в паре.

Думаю, вполне можно. Скорее всего подобные инструменты уже есть пусть и не идеальные. Но тут есть и обратная сторона. Если они будут публичными найдутся скрипткидди которые будут проверять ими все , что найдут и потом пытаться эксплуатировать уязвимости.

Зарегистрируйтесь на Хабре, чтобы оставить комментарий

Другие новости

Истории