All streams
Search
Write a publication
Pull to refresh
13
0
Send message

Я процитировал исходную постановку задачи, где речь идет про некий "итерируемый обьект python". В такой постановке задачи решение с использованием len валидно в частном случае, например, для списка List1, но не валидно в общем случае.
Автору, вероятно, следовало бы сделать уточнение по этому поводу.

А тут не итерируется по List1

Но на самом деле решение [0 for _ in List1] в такой постановке задачи тоже верным назвать нельзя, ибо если List1 - это генератор, то запороть его ради создания списка нулей выглядит не самым мудрым решением.

создание списка с нулями, такой же длинны, как исходный итерируемый обьект python.

итерируемый обьект может не определять __len__

Включая и самих наблюдателей

Все гораздо проще: когда вы - наблюдатель, едите, скажем, в другой город, то вы некоторое время наблюдаете относительно статичный простой пейзаж, будь то облака за бортом самолёта или кукурузные поля за окном поезда - это "матрица" экономит ресурсы, пока рендерит для вас другую крупную локацию) А чёрных дыр и вовсе нет - их для вас тоже матрица придумала.

Спасибо, очень интересно!
Правильно ли я предполагаю, что условием отрыва капли будет равенстно нулю обратной производной в точке перегиба кривой профиля капли?
Вот потому-то от поуляризации научных теорий — в основном вред.

Кажется, первый комментарий был как раз о том, что прослойка в виде кожаного мешка - лишняя)

Цитирую второй абзац:

"Обратное распространение — это способ обучения нейронной сети. Цели обратного распространения просты: отрегулировать каждый вес пропорционально тому, насколько он способствует общей ошибке." - один в один то, что вы только что написали про обратное распределение.

По вашему, разницы между терминами "распространение" и "распределение" нет? Если же вы хотите ввести новое понятие, то в чем разница тогда?

А что такое обратное распределение? Этот термин встречается у вас дважды: один раз в заголовке, один раз "Размышление, которые привели меня к использованию алгоритма обратного распределения:..." Определение нигде не даётся. Далее описывается процедура обратного распространения ошибки. Ничего не понял, простите.

Формально, можно реализовать с помощью де-факто полносвязного слоя, если вытянуть патчи вдоль оси каналов. Тогда это получится применение Dense вдоль последней оси (для channel mixing надо будет транспонировать по последним двум осям). Хм… а Dense, применяемый вдоль одной из осей многомерного тензора можно продолжать считать полносвязным или нет? :-\

А почему статья озаглавлена «Роль обратного распределения в построении нейросети»?
Еще из статьи я понял, что Вы очень любите списки :)
Первый полностью связанный слой

Может все же лучше устоявшееся: полносвязный слой?
Осознать — это не философское понятие, а вполне реальное, и сводится по сути к набору связок понятийных смыслов и причинно-следственных связей.

Можно ссылочку на определение осознания?
Кстати, при уменьшении размера выхода слоя «kohonen», соответствующего карте Кохонена в исходной модели, до 256 (16 * 16), систематически получаются более высокие значения точности: ~86% (минимум 83%, максимум 88%).
Вопрос к автору статьи: чем обуславливается выбор размера карты Кохонена и проводились ли эксперимены по анализу влияния этого параметра на точность сети?
сравнить, что будет, если обучить стандарнтую сеть с схожим кол-вом параметров на 2к данных, а потом протестить на 10к

Решение «на коленке» за пару минут:
Model: "model"
_________________________________________________________________
Layer (type)                 Output Shape              Param #   
=================================================================
input (InputLayer)           [(None, 28, 28, 1)]       0         
_________________________________________________________________
flatten (Flatten)            (None, 784)               0         
_________________________________________________________________
kohonen (Dense)              (None, 1024)              803840    
_________________________________________________________________
hebb (Dense)                 (None, 10)                10250     
=================================================================
Total params: 814,090
Trainable params: 814,090
Non-trainable params: 0

Обучение на 2300 изображений с размером батча 1 одну эпоху, по пяти запускам дает среднее значение accuracy на тестовых данных ~83% (минимальное 79% максимальное — 86%)

Полеты на Луну были бы дешевле, если бы удалось построить «башню» (космический лифт)

Ну так про это прям рядом)) https://habr.com/ru/post/565558/

В том то и дело, что ваши результаты впечатляют именно с учётом того, на каком, сравнительно малом, объёме данных и с использованием каких скромных ресурсов была обучена модель. Поэтому, присваивание Канту теории гравитации ей уж можно простить) Важно, что (по крайней мере в примерах выше) она не теряет контекст.

Information

Rating
Does not participate
Registered
Activity