Comments 4
Спасибо, интересный эксперимент.
А откуда вы взяли формулу «Получение нового родителя»? Честно говоря очень спорный подход с увеличением весов по общему движению всей популяции.
В данном случае логичнее брать некий персентиль лучших потомков, а не всю популяцию. В вашем случае выходит что не отсеиваются худшие потомки, а подавляются веса в среднем если получилась плохая популяция.
А откуда вы взяли формулу «Получение нового родителя»? Честно говоря очень спорный подход с увеличением весов по общему движению всей популяции.
В данном случае логичнее брать некий персентиль лучших потомков, а не всю популяцию. В вашем случае выходит что не отсеиваются худшие потомки, а подавляются веса в среднем если получилась плохая популяция.
+2
Формулу взял из статьи OpenAI Evolution Strategies as a Scalable Alternative to Reinforcement Learning
Думаю действительно стоит проверить на какой-то части лучших потомков
Спасибо за совет
Думаю действительно стоит проверить на какой-то части лучших потомков
Спасибо за совет
+1
Класное исследование, спасибо.
Как я понял, мы мутировали абсолютно все веса сети. Интересно, будет ли профит от мутации только весов полносвязного классификатора (или отдельно выбранных слоёв)? Можно же предполагать что свёрточный экстрактор хорошо может находить фичи на изображении (если он предобучен на imagenet).
Как я понял, мы мутировали абсолютно все веса сети. Интересно, будет ли профит от мутации только весов полносвязного классификатора (или отдельно выбранных слоёв)? Можно же предполагать что свёрточный экстрактор хорошо может находить фичи на изображении (если он предобучен на imagenet).
+1
Sign up to leave a comment.
Спартанское обучение нейронных сетей