Комментарии 9
Код публиковать будете? Было бы очень любопытно
+2
Музыка к ролику подобрана очень удачно
+2
А вам не кажется, что функция активации не очень удачная? Она так сделана, что на ней легко получить +1 или -1, а вот значения посередине получить трудно, и малейшее отклонение x от нуля приводит к резкому скачку y. Или это так и надо?
+1
Во-первых, НС может подогнать веса, чтобы аргумент функции активации не сильно далеко уходил от нуля.
Во-вторых, 0 означает "ничего не делать". Что в данном контексте является бесполезным решением.
+1
Рассмотрим простейшую нейронную сеть, состоящую из одного сенсора и одного выходного нейрона. Значением функции активации будет f(w*x), где x – то, что подается на сенсор, w – вес связи от сенсора до выходного нейрона. На рисунке показан график функции активации при w=0.2.
Т.е. «острота реакции» НС на изменения значений входов регулируется соответствующими весами. В начальной популяции можно инициализировать веса небольшим по модулю случайным числом, а не числом из диапазона [-5,5], как делал Кен в своей работе, если мы предполагаем, что это увеличит скорость поиска решения.
График
Т.е. «острота реакции» НС на изменения значений входов регулируется соответствующими весами. В начальной популяции можно инициализировать веса небольшим по модулю случайным числом, а не числом из диапазона [-5,5], как делал Кен в своей работе, если мы предполагаем, что это увеличит скорость поиска решения.
0
.
0
сколько времени понадобилось на обучение?
интересно было бы сравнить техникой policy gradient.
интересно было бы сравнить техникой policy gradient.
0
Зарегистрируйтесь на Хабре , чтобы оставить комментарий
Neurotic Bikes: генезис