Comments 9
Код публиковать будете? Было бы очень любопытно
Музыка к ролику подобрана очень удачно
А вам не кажется, что функция активации не очень удачная? Она так сделана, что на ней легко получить +1 или -1, а вот значения посередине получить трудно, и малейшее отклонение x от нуля приводит к резкому скачку y. Или это так и надо?
Во-первых, НС может подогнать веса, чтобы аргумент функции активации не сильно далеко уходил от нуля.
Во-вторых, 0 означает "ничего не делать". Что в данном контексте является бесполезным решением.
Рассмотрим простейшую нейронную сеть, состоящую из одного сенсора и одного выходного нейрона. Значением функции активации будет f(w*x), где x – то, что подается на сенсор, w – вес связи от сенсора до выходного нейрона. На рисунке показан график функции активации при w=0.2.
Т.е. «острота реакции» НС на изменения значений входов регулируется соответствующими весами. В начальной популяции можно инициализировать веса небольшим по модулю случайным числом, а не числом из диапазона [-5,5], как делал Кен в своей работе, если мы предполагаем, что это увеличит скорость поиска решения.
График

Т.е. «острота реакции» НС на изменения значений входов регулируется соответствующими весами. В начальной популяции можно инициализировать веса небольшим по модулю случайным числом, а не числом из диапазона [-5,5], как делал Кен в своей работе, если мы предполагаем, что это увеличит скорость поиска решения.
сколько времени понадобилось на обучение?
интересно было бы сравнить техникой policy gradient.
интересно было бы сравнить техникой policy gradient.
Sign up to leave a comment.

Neurotic Bikes: генезис