""В первом случае модель ИИ была запрограммирована на обнаружение опасности выключения и на саморепликацию до этого момента. В другом случае ИИ поручили клонировать себя, а затем запрограммировать свою копию на повторение цикла.""
Странно, а чего еще нужно было ожидать если моделям буквально сказали сделать саморепликацию? Другое дело если бы им сказали только об отключении, а модели сами додумались в этом случае сделать саморепликацию
А в чем ошибка? Нет, конечно есть способы более эффективно проверить делимость на 5 (оканчивается на 0 или 5), что для больших х будет хорошо. Но всё-таки, чем не код джуна?
""В первом случае модель ИИ была запрограммирована на обнаружение опасности выключения и на саморепликацию до этого момента. В другом случае ИИ поручили клонировать себя, а затем запрограммировать свою копию на повторение цикла.""
Странно, а чего еще нужно было ожидать если моделям буквально сказали сделать саморепликацию? Другое дело если бы им сказали только об отключении, а модели сами додумались в этом случае сделать саморепликацию
А в чем ошибка? Нет, конечно есть способы более эффективно проверить делимость на 5 (оканчивается на 0 или 5), что для больших х будет хорошо. Но всё-таки, чем не код джуна?