Полностью автономные роботы, это большие риски, к примеру что другая сторона перехватит управление. Анигилировать планету и сейчас может небольшая группа людей управляющих ядерным арсеналом. А не автономные роботы(беспилотники) уже сейчас летают и бомбят.
Нейросеть не реализуется сверткой, там вычисляемая функция совершенно другая, на несколько порядков сложнее и "подбирается" она вполне определенным методом - градиентным спуском по весам в пространстве функционала ошибки. Одиночная свертка применима только для тривиального поиска по шаблону. Передергивание с дельта-функцией вообще не понятно к чему было.
О госпади, естественно можно подобрать какието функции свертка которых даст дельта-функцию. Только к исходным вашим утверждениям, как и к задаче распознавания по шаблону, это вообще никакого отношения не имеет.
Теперь вы хотя бы ответили по существу, спасибо. Одним из методов template matching действительно является поиск максимума кросс-корреляции(которую можно представить как свертку с "отраженным" ядром) между шаблоном и изображением. Так же этот метод является наиболее простым и старым. Если мы будем рассматривать задачу из статьи, то template matching через корреляцию с шаблоном, будет не устойчив даже относительно тривиальных трансформаций сжатия/расширения относительно одной из осей. Не говоря уж об более сложных аффинных преобразованиях, а примеры в статье на самом деле еще сложнее.
>Вырождение очевидно происходит потому, что идеальная корреляция >даёт дельта-функцию Дирака.
Кросс-корреляция двух функций дает на выходе функцию. Скалярное произведение двух векторов дает скаляр. Кросс-корреляция с шаблоном очевидно никакую дельта-функцию не выдает, это будет функция "похожести" зависящая от координат шаблона, в точке где изображение и шаблон полностью перекрываются она будет равняться 1.
PS: поискал немного по теме, кросс-корреляция является оптимальной линейной оценкой относительно аддитивного белого гауссова шума, это единственная фундаментальная причина почему ее стоит использовать.
Не ну вы серьезно хотите меня убедить, что скалярное произведение векторов надо называть сверткой выродившейся в одну точку?
Классическая нейросеть это как раз и есть последовательность скалярных произведений на которых действует нелинейность.
Ну и определениями меня поучать точно не стоит, для дискретных отсчетов линейный фильтр и свертка это одно и тоже. А так как речь зашла про нейросетки, то не дискретными они не могут быть в принципе.
Все зависит от политико-экономической структуры общества будущего. Маркс к примеру на заре капитализма много убедительного написал по поводу его краха, настолько убедительного, что на одной шестой части суши до сих пор икается. Или парадокс Ферми, это не парадокс, а просто структурная "хрупкость" всех технологических цивилизаций.(есть много подводных камней страшнее ИИ)
PS: в контексте ИИ как мне кажется деградация общества это первая проблема, и существующая капиталистическая элита которая во всю будет цеплятся за свое доминирование на верху пищевой цепочки это вторая
Да уж, ясно. Свертка если совсем по простому это линейный фильтр, а умножение весов, это скалярное произведение(dot product) двух векторов. Понимаете в чем разница? Свертку можно реализовать через повторяющееся скалярное произведение, но скалярное произведение не является сверткой.
Почитайте сколько либо достойный учебник или научные статьи, путь нейросеток в computer vision, как раз начинался со сверточных нейронных сетей. Слова не видили в утюгах, потому что это либо и так очевидно тем кто читает, либо это расчитанный на хипстеров научпоп.
Почему нет? Проблема в том, что меняется хост процессор и некоторая обвязка, поэтому драйвера надо перекомпилировать. Но для aarch64 у нвидии драйвера лежат прямо на сайте: https://www.nvidia.com/en-us/drivers/unix
Это очень опрометчивое утверждение, если это одна и таже железка, которая висит на стандартной шине, то и работать она будет так же. Ну тоесть, что меняется в memory-mapped интерфейсе к железке? Самое большое различие это порядок байт в хостовом процессоре, но это обернуто уже тысячу лет, так же как и работа с прерываниями и dma.
Раст прибит гвоздями к llvm бэкенду, в теории должны работать все платформы поддерживаемые бэкендом. Но их все никто не проверял, так что на свой страх и риск.
Это как раз ни о чем не говорит, так как любая передовая разработка идет по пути постепенного усложнения. Так же как фабы на новом тех процессе сначала делают в основном чипы памяти.
Любую достаточно сложную программу приходится в процессе разработки доделывать и переделывать, именно об этой поддержки и шла речь. Прелесть любого лютого говнокода и спагетти в частности, что в какойто момент его когнитивная сложность начинает расти нелинейно, и хорошо если не экспоненциально, даже для его непосредственного автора. В результате "никто не понимает как это работает" и можно ли сделать, чтобы оно вобще работало в принципе, при заданных входных условиях.
Монополии обычно имеют вкусную маржу, так что надо както ограничивать появление конкурентов, создавая естественные и искусственные барьеры для входа на рынок. Ну и на всякую монополию, когда ни буть приходит свой дисраптор.
Массовая безработица в следствии разработки технологией это страшилка не подтвержденная, какой либо сколько то адекватной макроэкономической логикой. Вот если деньги перестанут печатать, или зарплату начнут роботы получать и тратить, тогда да.
Полностью автономные роботы, это большие риски, к примеру что другая сторона перехватит управление. Анигилировать планету и сейчас может небольшая группа людей управляющих ядерным арсеналом. А не автономные роботы(беспилотники) уже сейчас летают и бомбят.
Нейросеть не реализуется сверткой, там вычисляемая функция совершенно другая, на несколько порядков сложнее и "подбирается" она вполне определенным методом - градиентным спуском по весам в пространстве функционала ошибки. Одиночная свертка применима только для тривиального поиска по шаблону. Передергивание с дельта-функцией вообще не понятно к чему было.
О госпади, естественно можно подобрать какието функции свертка которых даст дельта-функцию. Только к исходным вашим утверждениям, как и к задаче распознавания по шаблону, это вообще никакого отношения не имеет.
Замените слово "боевых роботов" на "солдат", и ничего не изменится.
Теперь вы хотя бы ответили по существу, спасибо. Одним из методов template matching действительно является поиск максимума кросс-корреляции(которую можно представить как свертку с "отраженным" ядром) между шаблоном и изображением. Так же этот метод является наиболее простым и старым. Если мы будем рассматривать задачу из статьи, то template matching через корреляцию с шаблоном, будет не устойчив даже относительно тривиальных трансформаций сжатия/расширения относительно одной из осей. Не говоря уж об более сложных аффинных преобразованиях, а примеры в статье на самом деле еще сложнее.
>Вырождение очевидно происходит потому, что идеальная корреляция >даёт дельта-функцию Дирака.
Кросс-корреляция двух функций дает на выходе функцию. Скалярное произведение двух векторов дает скаляр. Кросс-корреляция с шаблоном очевидно никакую дельта-функцию не выдает, это будет функция "похожести" зависящая от координат шаблона, в точке где изображение и шаблон полностью перекрываются она будет равняться 1.
PS: поискал немного по теме, кросс-корреляция является оптимальной линейной оценкой относительно аддитивного белого гауссова шума, это единственная фундаментальная причина почему ее стоит использовать.
Не ну вы серьезно хотите меня убедить, что скалярное произведение векторов надо называть сверткой выродившейся в одну точку?
Классическая нейросеть это как раз и есть последовательность скалярных произведений на которых действует нелинейность.
Ну и определениями меня поучать точно не стоит, для дискретных отсчетов линейный фильтр и свертка это одно и тоже. А так как речь зашла про нейросетки, то не дискретными они не могут быть в принципе.
Все зависит от политико-экономической структуры общества будущего. Маркс к примеру на заре капитализма много убедительного написал по поводу его краха, настолько убедительного, что на одной шестой части суши до сих пор икается. Или парадокс Ферми, это не парадокс, а просто структурная "хрупкость" всех технологических цивилизаций.(есть много подводных камней страшнее ИИ)
PS: в контексте ИИ как мне кажется деградация общества это первая проблема, и существующая капиталистическая элита которая во всю будет цеплятся за свое доминирование на верху пищевой цепочки это вторая
Да уж, ясно. Свертка если совсем по простому это линейный фильтр, а умножение весов, это скалярное произведение(dot product) двух векторов. Понимаете в чем разница? Свертку можно реализовать через повторяющееся скалярное произведение, но скалярное произведение не является сверткой.
Это уже было, к примеру такой малоизвестный поисковик Nigma. Пользователю не нужны кластеры, он готов максимум прочитать топ 10 результатов.
Это наименьшая из проблем, бэкенд llvm и так поддержиает почти все что как-то жило/живо и на чем можно запустить линукс https://llvm.org/doxygen/Triple_8h_source.html
Почитайте сколько либо достойный учебник или научные статьи, путь нейросеток в computer vision, как раз начинался со сверточных нейронных сетей. Слова не видили в утюгах, потому что это либо и так очевидно тем кто читает, либо это расчитанный на хипстеров научпоп.
Почему нет? Проблема в том, что меняется хост процессор и некоторая обвязка, поэтому драйвера надо перекомпилировать. Но для aarch64 у нвидии драйвера лежат прямо на сайте: https://www.nvidia.com/en-us/drivers/unix
Это очень опрометчивое утверждение, если это одна и таже железка, которая висит на стандартной шине, то и работать она будет так же. Ну тоесть, что меняется в memory-mapped интерфейсе к железке? Самое большое различие это порядок байт в хостовом процессоре, но это обернуто уже тысячу лет, так же как и работа с прерываниями и dma.
Раст прибит гвоздями к llvm бэкенду, в теории должны работать все платформы поддерживаемые бэкендом. Но их все никто не проверял, так что на свой страх и риск.
Это как раз ни о чем не говорит, так как любая передовая разработка идет по пути постепенного усложнения. Так же как фабы на новом тех процессе сначала делают в основном чипы памяти.
Это называется маржинальность бизнеса, чем больше конкурентов на рынке тем она меньше.
Любую достаточно сложную программу приходится в процессе разработки доделывать и переделывать, именно об этой поддержки и шла речь. Прелесть любого лютого говнокода и спагетти в частности, что в какойто момент его когнитивная сложность начинает расти нелинейно, и хорошо если не экспоненциально, даже для его непосредственного автора. В результате "никто не понимает как это работает" и можно ли сделать, чтобы оно вобще работало в принципе, при заданных входных условиях.
Ну мне вполне понятна логика крупного гос.бизнеса, вы им что предлагаете делать? Ждать пока окончательно везде забанят?
Монополии обычно имеют вкусную маржу, так что надо както ограничивать появление конкурентов, создавая естественные и искусственные барьеры для входа на рынок. Ну и на всякую монополию, когда ни буть приходит свой дисраптор.
Массовая безработица в следствии разработки технологией это страшилка не подтвержденная, какой либо сколько то адекватной макроэкономической логикой. Вот если деньги перестанут печатать, или зарплату начнут роботы получать и тратить, тогда да.