Суть в том, что много технических задач можно решать как детерминистическими, так и стохастическими методами (методами Монте-Карло), с любой требуемой точностью решения. Использование стохастических методов в большинстве задач было невыгодным по той причине, что стохастические процессы приходилось моделировать опять же детерминистическими методами (псевдослучайные числа и т. д.). Упомянутный в статье «стохастический процессор» эту проблему решает.
Ммм… Я, человек далекий от естественных наук, и то слышал о вероятностных вычислениях. Предлагаю погуглить или заняться самообразованием. Вот доступно о вероятностных алгоритмах, например: offline.computerra.ru/2002/435/16745/
Чтобы ответить на поставленные вами вопросы нужно как минимум съездить на проходящую концефернцию и изучить представленные (если таковые есть) исследователями материалы. Но, по крайней мере, одна область применения обозначена в посте. И это новостной пост, а не исследовательская работа на тему вероятностных вычислений и примеров их воплощения в жизнь.
Собственно говоря, окромя декодированием видеороликов да еще может фильтров в фотошопе не могу придумать ситуации, когда «2х2= где-то около 5… ну и сойдет!». Есть идеи?
Есть. Рассмотрим вычисление в современном компьютере. Они выглядят примерно так:
2 х 2 =
4 с вероятностью 99.999% — если всё будет хорошо.
от 3.9 до 4 с вероятностью 0.00049% — если одна из ячеек памяти даст сбой
от 4 до 4.1 с вероятностью 0.00049% — если сбой даст ALU процессора
от минус бесконечности до 3.9 — если упадёт метеорит
от 4.1 до плюс бесконечности — если возродятся динозавры
Вычисления в стохастическом компьютере можно довести до сравнимой точности при наличии достаточных ресурсов.
Ну написано же, что это данный подход позволяет решить задачу с заданным уровнем точности. В большинстве процессов реального мира 2 x 2 = где-то в районе 4. Вопрос лишь в необходимой точности. Как вам 2 x 2 = 4.00000001?
Нет. Логика процессора четкая. Нечеткой является физическая работа процессора, где некоторые чипы могут просто выключаться. Как у усталого человека. Вот вас с устатку не поставишь диспетчером в аэропорт, а картошку «на глаз» сортировать — запросто. Так и тут.
Чёткая логика — это когда есть только состояние «1» или «0» (Булевы).
Нечёткая логика — это когда есть все состояния от «0» до «1», но с разными вероятностями: например, от 0 до 0.9 — 1%, больше 0.9 и до 1 — 99%.
А что означает термин «вероятностная логика» — разве не то же самое?
То, что чипы могут отключаться — это лишь характеристика динамичности ресурса процессора, не более того. Плавающая точка заплыть может — ну да и шут с ней. Как это связано с отказом от булевой логики работы?
Самое интересное в статье так получается «за кадром».
Знакомая ссылка. :)
Вероятностная логика (product logic) и нечёткая логика (fuzzy logic) — это практически синонимы, пока мы не уточняем детали, которые в нашем случае неважны.
Но, проклятье, как же работает этот PCMOS-то — бинарно, нечётко или просто его чипы можно динамически выключать? Кто знает? :)
На полосе экономят не из-за собственно полосы, а как раз таки из-за того, что обработка широкого потока данных сжирает батарейку. Т.е. у вас выбор «видео 10 кбит» или «видео 1000 кбит» стоит не из-за полосы (она так и так 1000 кбит, залейся), а из-за того, что на декодинге 1000 кбитсек любая батарейка сдохнет через 20 минут.
Применение pcmos поможет повысить ширину используемой полосы. Ибо всем пофиг, какого именно оттенка из 16 000 000 оттенков голубого небо за спиной видеособеседника.
Там, вообще-то, не весь процессор вероятностный. ARM'овское ядро с прикрученным к нему energy-performance accelerator на этой самой PCMOS. Ну да, ускоряют алгоритмы, где нужны случайные числа. И надеются ускорять алгоритмы устойчивые к ошибкам. На skynet не тянет. Ибо ничего принципиально нового.
Напомнило один весёлый язык программирования
Java2k – это вероятностный, недетерминированный язык программирования. По утверждению его создателя, он имитирует истинную сущность вселенной, в которой не может быть достоверности, только вероятность (гениальное заявление!). Говоря попросту, это означает, что вызов даже встроенных функций гарантирует лишь 90% вероятности, что функция выполнит то, что вам требуется. У каждой функции существует две реализации, и контролировать, какая из них будет задействована, у вас нет никакой возможности. Получается, что разработанная программа при каждом запуске будет работать по-разному.
Зачем, спрашивается, создавать язык, который целенаправленно выдает случайные результаты? Очевидно, что на нем нельзя написать ничего более или менее существенного. Цитируя создателей языка, они придумали Java2k, «потому что обычная java – это не прикольно». На самом же деле язык появился на свет, чтобы заставить программистов пошевелить мозгами, пытаясь написать на Java2k программу, выдающую предсказуемый результат.
Вот бы запустить винду на нем, будут прикольные сообщения:
«Виндоус обновлена с вероятностью 84%». Или «Файл скорее всего скопирован, но я на 100% не уверена».
Осталось подождать пока Обама не финансирует создание системы обороны под названием «Скайнет», после чего передаст вверит её управление этому процессору. И тогда на четвёртого Терминатора не нужно будет идти в кинотеатр )
не силён в этом всём, но сказать думаю стоит.
в прошлом семестре у нас в вузе читали лекции про основные архитектуры процессоров. так вот, до меня донесли интересную информацию о том, что изначально и по сей день ARM-процессоры с RISC архитектурой (PowerPC) очень активно используют принцип вероятностей (в отличие от упомянутого процессора транзисторы не отключаются), засчет чего достигалась значительное превосходство некоторых сферах обработки информации перед привычным сейчас CISC.
*начитавшись про нейроны, так и хочется привязать и эту тему вероятностей к ИИ.
RISC от CISC отличаются тем, что команды в RISC проще и фиксированной длинны, а в CISC могут быть разной. Принципиальных отличий (в контексте темы топика) в вычислениях между ними нет. Все те же биты и детерминированные операции над ними… Почему после слов «RISC архитектурой» в скобках стоит PowerPC? PowerPC, так же как и ARM, архитектура построенные по принципу RISC, но к почему к ней особое внимание? В общем чему-то не тому вас учили :)
Блин, опять не то изобрели. Вся наша математика и техника построена на «да» — «нет», 1 — 0, true — false. Все уже — достигли потолка, теперь только ресурсы наращивать. Пора бы уже ввести третий элемент — «может быть» или «не знаю». Да развивать эту тему. Может и сделаем новый прорыв…
Невероятный вероятностный процессор