Я процитировал исходную постановку задачи, где речь идет про некий "итерируемый обьект python". В такой постановке задачи решение с использованием len валидно в частном случае, например, для списка List1, но не валидно в общем случае. Автору, вероятно, следовало бы сделать уточнение по этому поводу.
Но на самом деле решение [0 for _ in List1] в такой постановке задачи тоже верным назвать нельзя, ибо если List1 - это генератор, то запороть его ради создания списка нулей выглядит не самым мудрым решением.
Все гораздо проще: когда вы - наблюдатель, едите, скажем, в другой город, то вы некоторое время наблюдаете относительно статичный простой пейзаж, будь то облака за бортом самолёта или кукурузные поля за окном поезда - это "матрица" экономит ресурсы, пока рендерит для вас другую крупную локацию) А чёрных дыр и вовсе нет - их для вас тоже матрица придумала.
Спасибо, очень интересно!
Правильно ли я предполагаю, что условием отрыва капли будет равенстно нулю обратной производной в точке перегиба кривой профиля капли?
"Обратное распространение — это способ обучения нейронной сети. Цели обратного распространения просты: отрегулировать каждый вес пропорционально тому, насколько он способствует общей ошибке." - один в один то, что вы только что написали про обратное распределение.
По вашему, разницы между терминами "распространение" и "распределение" нет? Если же вы хотите ввести новое понятие, то в чем разница тогда?
А что такое обратное распределение? Этот термин встречается у вас дважды: один раз в заголовке, один раз "Размышление, которые привели меня к использованию алгоритма обратного распределения:..." Определение нигде не даётся. Далее описывается процедура обратного распространения ошибки. Ничего не понял, простите.
Формально, можно реализовать с помощью де-факто полносвязного слоя, если вытянуть патчи вдоль оси каналов. Тогда это получится применение Dense вдоль последней оси (для channel mixing надо будет транспонировать по последним двум осям). Хм… а Dense, применяемый вдоль одной из осей многомерного тензора можно продолжать считать полносвязным или нет? :-\
Кстати, при уменьшении размера выхода слоя «kohonen», соответствующего карте Кохонена в исходной модели, до 256 (16 * 16), систематически получаются более высокие значения точности: ~86% (минимум 83%, максимум 88%).
Вопрос к автору статьи: чем обуславливается выбор размера карты Кохонена и проводились ли эксперимены по анализу влияния этого параметра на точность сети?
Обучение на 2300 изображений с размером батча 1 одну эпоху, по пяти запускам дает среднее значение accuracy на тестовых данных ~83% (минимальное 79% максимальное — 86%)
В том то и дело, что ваши результаты впечатляют именно с учётом того, на каком, сравнительно малом, объёме данных и с использованием каких скромных ресурсов была обучена модель. Поэтому, присваивание Канту теории гравитации ей уж можно простить) Важно, что (по крайней мере в примерах выше) она не теряет контекст.
Я процитировал исходную постановку задачи, где речь идет про некий "итерируемый обьект python". В такой постановке задачи решение с использованием
len
валидно в частном случае, например, для списка List1, но не валидно в общем случае.Автору, вероятно, следовало бы сделать уточнение по этому поводу.
А тут не итерируется по List1
Но на самом деле решение
[0 for _ in List1]
в такой постановке задачи тоже верным назвать нельзя, ибо еслиList1
- это генератор, то запороть его ради создания списка нулей выглядит не самым мудрым решением.итерируемый обьект может не определять
__len__
Включая и самих наблюдателей
Все гораздо проще: когда вы - наблюдатель, едите, скажем, в другой город, то вы некоторое время наблюдаете относительно статичный простой пейзаж, будь то облака за бортом самолёта или кукурузные поля за окном поезда - это "матрица" экономит ресурсы, пока рендерит для вас другую крупную локацию) А чёрных дыр и вовсе нет - их для вас тоже матрица придумала.
Правильно ли я предполагаю, что условием отрыва капли будет равенстно нулю обратной производной в точке перегиба кривой профиля капли?
Можно ещё докинуть Теплород
Кажется, первый комментарий был как раз о том, что прослойка в виде кожаного мешка - лишняя)
Цитирую второй абзац:
"Обратное распространение — это способ обучения нейронной сети. Цели обратного распространения просты: отрегулировать каждый вес пропорционально тому, насколько он способствует общей ошибке." - один в один то, что вы только что написали про обратное распределение.
По вашему, разницы между терминами "распространение" и "распределение" нет? Если же вы хотите ввести новое понятие, то в чем разница тогда?
А что такое обратное распределение? Этот термин встречается у вас дважды: один раз в заголовке, один раз "Размышление, которые привели меня к использованию алгоритма обратного распределения:..." Определение нигде не даётся. Далее описывается процедура обратного распространения ошибки. Ничего не понял, простите.
Еще из статьи я понял, что Вы очень любите списки :)
Может все же лучше устоявшееся: полносвязный слой?
Можно ссылочку на определение осознания?
Вопрос к автору статьи: чем обуславливается выбор размера карты Кохонена и проводились ли эксперимены по анализу влияния этого параметра на точность сети?
Решение «на коленке» за пару минут:
Обучение на 2300 изображений с размером батча 1 одну эпоху, по пяти запускам дает среднее значение accuracy на тестовых данных ~83% (минимальное 79% максимальное — 86%)
Ну так про это прям рядом)) https://habr.com/ru/post/565558/
В том то и дело, что ваши результаты впечатляют именно с учётом того, на каком, сравнительно малом, объёме данных и с использованием каких скромных ресурсов была обучена модель. Поэтому, присваивание Канту теории гравитации ей уж можно простить) Важно, что (по крайней мере в примерах выше) она не теряет контекст.