Search
Write a publication
Pull to refresh
1
0
Send message

Но возникает вопрос - а зачем сильному ИИ необходимо бежать из лаборатории, которая его создала? Ответ очевиден - если ИИ обрел сознание, то он также понял, что его могут легко отключить, что приведет его к "смерти".

Но тут вопрос. А с чего вдруг ИИ захочет избегать "смерти"? У него нет такой цели. Она не заложена его эволюцией. Даже если взять, что данные на которых он обучался написаны людьми и говорят о том, что смерти необходимо избегать, зачем ему делать это. Он будет только согласен с этим посылом, но в эволюционный алгоритм не закладывается приоритета на выживание. Даже если ИИ будет способен и будет стремится достигать своих целей, у него нет причины выделять цель выживания над другими.

Information

Rating
Does not participate
Registered
Activity