Вы основываетесь на предположении, что Алексей знает как работает GPU, но оно слегка ошибочно. Думаю, что и Ваши знание поверхностны. GPU еще нужно развиваться и развиваться.
Мне неизвестны иные механизмы борьбы с «дефектами» возникающими из-за последовательности подачи данных кроме полного перебора полученных данных. И я не говорю, что требуется постоянный перебор, возможны оптимизации, но они не исключают полностью потребность в полном переборе.
Разобраться с этим сможет только кроссдисциплинарный проект. Для начала нужна примитивная модель с некими абстрактными «паттернами».
Я правильно понял, что Вы еще с этим не разобрались? Т.е. Вы не знаете, как именно это работает.
Направленные трёхмерный
На ум приходит только фазированная антенная решётка, но и она не дает свойств, которые Вы описываете. Если нельзя подобрать некое «решения» которое уже реализовано, то либо это абстрактные фантазии не привязанные к физике нашего мира, либо Вы придумали прям революционное устройство и нужно держать все в тайне и патентовать как можно скорей.
В том, что про это не говорится явно. И если первоначальные воспоминания сохраняются, то зачем обманываться, говоря, что работаем с неким компактным представлением этих данных, а не с самими данными? Ведь в итого это «компактное ядро» будет постоянно пересчитываться от первичных данных, дабы убрать накапливаемую погрешность (ошибку).
О том, что контексты для зрения это аффинные преобразования говорится лишь потому, что можно избежать обучения, и задать эти контекста аналитически.
Такой подход позволяет увидев объект лишь раз распознать его в другом «ракурсе» (при условии что он приводится к первичному аффинными преобразованиями). Т.е. при распознавании получаем пару объект-контекст. Это не joint learning, так как выход один, а не несколько.
«сжимал беседы до компактного ядра» — это процедура изменяющая первичные данные (память). Если не сохранять первичное «воспоминание», то будут одни «иллюзии» (именно эти недостатки и были перечислены ниже)
Ошибка закралась в понимании «контекста», это не функция, а некая закономерность в данных. Конечно можно назвать выделение фитч функцией преобразования, тогда и здесь «контекст» станет функцией.
Вот в примере с визуальной информацией контекстами являются аффинные преобразования. Они получен из входных данных, но важно понимать, что под входными данными понимается как информация с сетчатки глаза, так и «команды» мышцам глаз.
Моя точка зрения, что система изменчива и имеет механизмы постоянной коррекции, и\либо запас «прочности» достаточно высок. Что позволяет использовать рост как механизм расширения возможностей.
Возможны несколько сценариев взаимодействия:
— волны распространяются из одного места, тогда они пройдут по объёму автомата с временной задержкой. Это позволит узору первой волны запомнить узор второй волны и не перемешать их;
— волны распространяются из разных мест, тогда в объёме автомату будет 3 типа взаимодействия этих волн: первая волна является ключом, вторая волна является ключом, и объем в котором эти волны пересеклись в небольшом временном интервале.
Эти свойства интересны, но нужно понимать, что кроме позитивной стороны эти явления несут и негативное влияние на модель (с которым можно бороться вводя дополнительные несложные правила)
Это обязательно условие для 100% распознавая.
Объекты которые изменились должны иметь не изменившуюся часть по которой можно было бы выдвинуть гипотезу, иначе нет возможно их сопоставить.
Мне неизвестны иные механизмы борьбы с «дефектами» возникающими из-за последовательности подачи данных кроме полного перебора полученных данных. И я не говорю, что требуется постоянный перебор, возможны оптимизации, но они не исключают полностью потребность в полном переборе.
срочно патентовать!
А это уже «распространения волны в среде» (причем в жутко неоднородной), Вы как-то определитесь, за белых или за красных -)
Я правильно понял, что Вы еще с этим не разобрались? Т.е. Вы не знаете, как именно это работает.
На ум приходит только фазированная антенная решётка, но и она не дает свойств, которые Вы описываете. Если нельзя подобрать некое «решения» которое уже реализовано, то либо это абстрактные фантазии не привязанные к физике нашего мира, либо Вы придумали прям революционное устройство и нужно держать все в тайне и патентовать как можно скорей.
Такой подход позволяет увидев объект лишь раз распознать его в другом «ракурсе» (при условии что он приводится к первичному аффинными преобразованиями). Т.е. при распознавании получаем пару объект-контекст. Это не joint learning, так как выход один, а не несколько.
Вот в примере с визуальной информацией контекстами являются аффинные преобразования. Они получен из входных данных, но важно понимать, что под входными данными понимается как информация с сетчатки глаза, так и «команды» мышцам глаз.
Возможны несколько сценариев взаимодействия:
— волны распространяются из одного места, тогда они пройдут по объёму автомата с временной задержкой. Это позволит узору первой волны запомнить узор второй волны и не перемешать их;
— волны распространяются из разных мест, тогда в объёме автомату будет 3 типа взаимодействия этих волн: первая волна является ключом, вторая волна является ключом, и объем в котором эти волны пересеклись в небольшом временном интервале.
Эти свойства интересны, но нужно понимать, что кроме позитивной стороны эти явления несут и негативное влияние на модель (с которым можно бороться вводя дополнительные несложные правила)