Хабр Курсы для всех
РЕКЛАМА
Практикум, Хекслет, SkyPro, авторские курсы — собрали всех и попросили скидки. Осталось выбрать!
"Многие разработки засекречены" — вздор, люди, которые занимаются нейросетями в разных предметных областях, известны пофамильно и их работы можно найти на Google Scholar и arXiv.org. Весь софт сейчас тоже доступен. Все кто "засекречивают" свои разработки на практике отстают от state-of-the-art в лучшем случае на пару лет.
1. Нейронные сетиЧестно говоря, мне кажется именно так. Пройдемся по вашим общим чертам:
2. Генетические алгоритмы
3. Методы вероятностного программирования и т.д.
Возможно, что кому-то покажется, что здесь «в одну кучу» свалены совершенно различные технологии.
1. Предполагают обучение системы.Генетический алгоритм (кстати, почему вы его все время называете во множественном числе?) — это алгоритм безусловной оптимизации нулевого порядка, логичное обобщение метода стохастического покоординатного спуска. Если я решаю задачу «x^2 + y^2 -> min», тут не предполагается никакой системы, которую можно обучать. Да, при решении задач машинного обучения используются алгоритмы оптимизации, но никто в здравом уме не будет обучать хоть сколько-нибудь гибкую модель генетическим алгоритмом. И даже если вы именно это имели в виду, это далеко не самое частое его применение. То же самое с вероятностным программированием: оно позволяет манипулировать распределениями вероятностей для каких-либо расчетов, наверняка это очень удобно, например, при моделировании квантовых эффектов. При чем тут обучение и что тут обучается — не очень понятно. Да, очень многие модели машинного обучения по своей сути вероятностны, и, наверное, их будет удобно реализовать в рамках вероятностной парадигмы программирования, но зачем ограничивать эту парадигму только этим применением?
2. Основа базы знаний — совокупность образцов в рамках классифицирующих признаков.Вы говорите об обучении с учителем или без учителя? Стоило бы отметить, что верные ответы для объектов обучающей выборки тоже могут быть известны (а могут и не быть). А еще есть алгоритмы машинного обучения (широко применимые), работающие без признаков или с признаками, принадлежащими совсем другому пространству посредством ядерных функций. Ну и, опять же, к генетическому алгоритму и вероятностному программированию пункт неприменим. Ну и лучше использовать распространенную терминологию, чтобы читатель вас понял («обучающая выборка»).
3. Предполагают наличие избыточных конкурирующих вычислений до достижения одним из потоков заданного порога достоверности.Вы имеете в виду, что в генетическом алгоритме все точки, кроме ответа, не используются после завершения работы алгоритма? Так это очевидно и так работают все алгоритмы оптимизации, ибо мы не можем взять и угадать экстремум на первой же итерации. Вообще, из этой фразы складывается впечатление, что обучаем столько нейросетей, сколько у нас ядер доступно, а потом оставляем только лучшую, но так никто не делает. Надеюсь, вы поясните этот пункт.
4. Результатом вычисления являются как правило какие-либо прецеденты из заранее установленного списка.«прецеденты из заранее установленного списка» — это объекты обучающей выборки, что ли? Это неверно. Если же вы лишь имели в виду, что у алгоритма есть какая-то заранее известная область значений, то это у любого алгоритма так, зачем об этом писать?
Существуют различные варианты реализации такие как байесовские сети[1], рекуррентные сети[2]
Нейронные сети, генетические алгоритмы и прочее… Мифы и реальность