Хабр Курсы для всех
РЕКЛАМА
Практикум, Хекслет, SkyPro, авторские курсы — собрали всех и попросили скидки. Осталось выбрать!
Сеть будет иметь два скрытых слоя, размером в 5 раз меньше, чем входной. То есть, если у нас 20 входов, то на скрытых слоях будет по 4 нейрона. Почему так мало? Ну вообще-то подбор количества нейронов на слоях — вещь чисто эмпирическая, точных правил никто не знает. Просто так сеть будет быстрее обучаться, при этом увеличение количества нейронов особой пользы не принесет, да и по советам авторов книг
Многослойный перцептрон (с примером на PHP)