Как стать автором
Обновить

Комментарии 7

... для тех, кто также искал понятный код и рабочий пример,... но не нашел.

Второй по счёту пример в разделе "Examples" на keras.io.

В названии поста есть "для максимально маленьких", чем он меня, как прошедшего в своё время мимо (увы) всей темы с нейросетями и заинтересовал. Ну надо же когда-то разобраться хоть на таком элементарном примере! Что в итоге я увидел в статье? Бессмысленный набор кода без каких-либо объяснений. Почему модель Sequential? Почему в нём будет 32 нейрона, а не 16, или 64, или 9000, или 100500 ? Какая ещё форма входных данных? Почему дальше создаём ещё 4 нейрона, а не 144 или миллион? Почему дальше "вытягиваем" данные в вектор и это вектор Flatten? И так далее. Ничего не понятно, ничего для себя не почерпнул, опять. Увы, очередной бесполезный пост в стиле "смотрите! я знаю питон!". Если уж копируешь код с оффсайта, так хоть добавь что-то от себя, смысловое и разъясняющее, "для максимально маленьких". Так сказать, держу в курсе.

Бессмысленный набор кода без каких-либо объяснений. - после каждой строчки мой комментарий.

Бессмысленный набор кода без каких-либо объяснений. Почему модель Sequential? Почему в нём будет 32 нейрона, а не 16, или 64, или 9000, или 100500 ? Какая ещё форма входных данных? Почему дальше создаём ещё 4 нейрона, а не 144 или миллион? Почему дальше "вытягиваем" данные в вектор и это вектор Flatten? И так далее. - хорошие вопросы, но только, не для этой статьи, люди которые зашли в программирование и хотят увидеть сразу реально рабочий пример с комментариями на русском будут рады.

Ничего не понятно, ничего для себя не почерпнул, опять. - с одной стороны мне дело до этого нет, с другой оно и понятно, если ты задаёшься вопросами выше, статья не для тебя.

Увы, очередной бесполезный пост в стиле "смотрите! я знаю питон!". - причем тут это, знать питон и просто на нем что-то писать - это разные вещи. Если ты пишешь такие комментарии, ты должен это знать.

Если уж копируешь код с оффсайта, так хоть добавь что-то от себя, смысловое и разъясняющее, "для максимально маленьких". - если ты действительно открывал код с офф сайта, то ты бы увидел, что там архитектура сети другая "гораздо правильнее", не просто Dense а макспулинги и т.д

Вообще не понятно , зачем ты потратил своё время, что бы написать не маленький коммент, при том, что пост тебя не понравился т.к он не для тебя. Наверное заряжаешь себя негативом...

после каждой строчки мой комментарий.

Спасибо, я не слепой, я заметил. Но хоть код и откомментирован, это не значит что он объяснён и понятен. К примеру, строка про создание первого слоя. То что это добавление слоя в модель, я могу понять открыв документацию на Keras, где в разделе про класс Dense написано что это класс про слои, а "model.add" как бы намекает на добавление в модель, и ты мне для этого не нужен. А дальше, лично я, как не разбирающийся, вижу набор магических констант. Да взять бы то самое упомянутое мной число 32. Разъяснения почему 32, от тебя нет. Что это число значит? Как оно связано хоть с чем-то? Как мне использовать его дальше? От чего оно зависит и что зависит от него? Можно ли вообще менять это число? Как его менять? В каких пределах? Поэтому твой комментарий на половину самоочевиден, а на половину бесполезен.

люди которые зашли в программирование и хотят увидеть сразу реально рабочий пример с комментариями на русском будут рады.

Эти люди безусловно молодцы, но по факту они получили реально рабочий пример, который рабочий непонятно почему. То что он работает это хорошо, но твой пример сильно повторяет код примера с офф сайта по Keras-у, и ты этого не отрицаешь. Там он тоже реально рабочий. Ты мог вообще на заморачиваться придумыванием своего кода, а взять тот пример и разобрать его тут, с нормальными пояснениями. Да и комментарии "на русском" это хорошо, но мне кажется что если у человека хватает навыка взяться за изучение нейросетевой темы в прикладном разрезе, то уж навык английского у него на достаточном уровне. Может мне и зря это кажется, но если ты уж взялся комментировать код "для максимально маленьких", то пассажи вида "Для чего эта строчка? - нагуглите сами. " - это моветон.

с одной стороны мне дело до этого нет, с другой оно и понятно, если ты задаёшься вопросами выше, статья не для тебя

Я тогда не понимаю, а что ты хотел донести своей статьёй? Тебе нет дела дойдёт она до читателя или нет? Типа я написал, а дальше как хотите? Кто для тебя эти "максимально маленькие"? Если не планировал разбирать тут детали происходящего, то так и напиши вводную часть, мол "тут только код, в детали не вникаем, магические константы не раскрываем", и всё, и не было бы к тебе претензий. Тогда и заголовок попроще нужен, без громких заявлений про "для маленьких".

если ты действительно открывал код с офф сайта, то ты бы увидел, что там архитектура сети другая "гораздо правильнее", не просто Dense а макспулинги и т.д

Нет, я бы не увидел. Я как раз из тех, "максимально маленьких", в теме нейросетей. Я вообще не знаю ничего за архитектуры, их правильность, и что такое макспуллинги. Я рассчитывал это узнать тут, от тебя, я ошибался.

Вообще не понятно , зачем ты потратил своё время, что бы написать не маленький коммент, при том, что пост тебя не понравился т.к он не для тебя. Наверное заряжаешь себя негативом...

Я так понимаю, что тебя зацепило, то что ты "старался" и "писал статью", а по итогу не вышло ни обсуждений, ни спасибов, ни плюсов в рейтинг. Ещё и я пришёл, и попытался без оскорблений и ругани донести, что я ожидал увидеть под кричащим заголовком, и в чём ты не прав, с моей точки зрения конечно. Для тебя это почему-то "зарядка негативом" получается, а не фидбек, и мнение читателя потратившего на тебя своё время трижды (сама статья и два коммента). Штош. Удачи тебе, с просвещением масс. Надеюсь в следующий раз получится лучше.

Я согласен с @Ascard, весь этот хайп тоже прошел мимо меня. Что такое вообще adam, что за слои, почему такой коэффициент, а что такое Sequential()? Статья то для маленьких, для начинающих... Как бы...

Весьма сомнительно, конвертировать целочисленное значение 0-255 (8бит), в float (32бит). Возможно не самая оптимальная модель для данной задачи.

Зарегистрируйтесь на Хабре, чтобы оставить комментарий

Публикации

Истории