Не думаю, что в поясе Койпера что-нибудь жахнут (это тот самый пояс, в котором летает Плутон). Рядом было всего несколько КА (Вояджеры и Пионеры). Я не думаю, что в принципе что-нибудь будут взрывать. Это может не решить проблему, т.к. часть обломов (при чём больших обломков) может начать увлекательное путешествие в сторону Земли
Тут дело не в разуме, а в том, что принятое машиной решение зависит от функции оценивания, которую задаёт человек. Поэтому именно человек определяет какие решения машина сможет принимать, а какие нет. Мой комментарий был о том, что машина в ближайшее время не сможет ставить сама себе задачу
А почему именно сигмоид? Почему не relu, например?
Просто насколько мне известно, от сигмоида отказываются из-за того, что при обучении он любит уходить намертво в 1 или 0. Ну а если не уходит, то по сути мы получаем ± градиент как при relu
Не думаю, что в поясе Койпера что-нибудь жахнут (это тот самый пояс, в котором летает Плутон). Рядом было всего несколько КА (Вояджеры и Пионеры). Я не думаю, что в принципе что-нибудь будут взрывать. Это может не решить проблему, т.к. часть обломов (при чём больших обломков) может начать увлекательное путешествие в сторону Земли
Отличие заключается как раз таки в отсутствии базовых потребностей, которые нужно каким-то образом реализовать (порой они реализовываются косвенно)
Тут дело не в разуме, а в том, что принятое машиной решение зависит от функции оценивания, которую задаёт человек. Поэтому именно человек определяет какие решения машина сможет принимать, а какие нет. Мой комментарий был о том, что машина в ближайшее время не сможет ставить сама себе задачу
А почему именно сигмоид? Почему не relu, например?
Просто насколько мне известно, от сигмоида отказываются из-за того, что при обучении он любит уходить намертво в 1 или 0. Ну а если не уходит, то по сути мы получаем ± градиент как при relu
Они серьёзно про ИИ равный человеческому разуму? Боюсь, до этого ещё как до ближайших звёзд...