Обновить
26
0
Богдан Колчигин@ererer

Пользователь

Отправить сообщение
Самую лучшую я сейчас пишу =) Обзор, который у меня на памяти, это Eric Chen-Kuo Tsao, James C. Bezdek, Nikhil R. Pal, Fuzzy Kohonen clustering networks, Pattern Recognition, Volume 27, Issue 5, May 1994, Pages 757-764,
(http://www.sciencedirect.com/science/article/pii/0031320394900523)
Да, и для этого вы предложили мутации. Что не решает проблему вообще никак, потому что оптимальное поведение персептрона — всё ещё просто напросто вернуть мутировавший вес назад.
Зря боитесь, я вообще понятливый.
Спасибо, мне хватило одного раза.
Вообще непонятно. Как два байта становятся нулём при складывании? Что за агент и что значит «сравнивается по нему»? Как можно давать два числа и при этом стремиться давать их как-то иначе? Очень нетривиальное течение мысли, ещё и усугублённое отсутствием запятых.
То есть оптимальная стратегия для персептрона — обнулить все веса, кроме тех, которые ведут от «дополнительных элементов» к выходам. Отличный план.
Ссылки какие попало искать не хочу, а сам не пользовался. Любая нерекурентная адаптивная ассоциативная память работает на псевдообращении, потому что матрицы он-лайн не поворочаешь, а больше ничего пока не придумали.

Могу дать много ссылок, где на псевдообращении делают кластеризацию (разница между задачами кластеризации и ассоциативной памяти весьма размыта).
Это не мелочи, сокращают они даже не в разы, а на порядки. Емкость матрицы-памяти — корень из 2N, а ёмкости нормальных памятией — степени логарифма N (и это не зависит от сложности данных. От сложности зависит crasstalk и, следовательно, ошибки, но не ёмкость). Так что если вы сразу закладываетесь на максимум, то это преступно неэффективно.
Что «так»? Квадратная ковариантная матрица-память — самая неэффективная из ассоциативных памятей вообще. Так что не обобщайте.
Причём здесь ноль на выходах? Ошибка — это расхождение выхода и обучающего сигнала. Если она равна нулю, все молодцы, расходимся.
Альфа-система с подкреплением, насколько я вижу, использует концепцию активных связей. Чтобы определить, какую связь активизировать, нужен обучающий сигнал.

Метод коррекции ошибки это и есть дельта-правило, которое, как я уже писал, в случае бинарной сети численно эквивалентно обучению с учителем.
Квадрат, конечно, нас спасёт, но это значит, что мы выделяем личное измерение каждой паре наблюдений. Немного лучше, чем личное измерение каждому наблюдению, но незначительно. На практике это всё равно астрономические числа.

Меня вдруг посетили смутные сомнения, что вы просто стремитесь получить квадратную матрицу наблюдений, потому её ковариантная матрица и является автоматически полной и исчерпывающей ассоциативной памятью для этих наблюдений. Однако это очень нерационально. Даже ковариантные матрицы-памяти давно научились строить на неквадратных матрицах, используя псевдообращение, да и ассоциативных памятей получше ковариантных матриц придумали в количестве. Надеюсь, я всё же что-то упустил, и всё не так банально.
> «не революция, известный среди узкого круга специалистов факт. Увы таких просто мало.»

Пожалуйста, хватит кичиться своим тайненьким знаньицем о гениальности Розенблатта, это всё ещё неубедительно. На практике одного дополнительного измерения недостаточно, этой практике 60 лет ежедневного применения, и ни узкий, ни широкий круг специалистов выше головы здесь не прыгнет.

Противоречивость в обучающей выборке однозначно указывает на её неполноту, как ни крути. Алгоритмы работы с данными с пропусками широко разработаны и строятся либо на интеполяции недостающих данных, либо на разбиении выборки на непротиворечивые подвыборки (чаще — просто выделение самой большой непротиворечивой подвыборки и игнорирование остального).
Вся совокупность пар вход-выход обучающей выборки задаёт обучающий сигнал, по которому вычисляется ошибка сети, которую формально и можно назвать функцией полезности (зачем?), но парадигма у неё совершенно другая. Хотя бы потому, что ошибка ограничена нулём и всегда можно оценить, насколько мы близки к идеалу, а функция полезности максимизируется неограниченно, и оценить результат можно только в сравнении с кем-то.

И тот, и другой подход обладает аппроксимирующими свойствами, кстати.
Дайте, пожалуйста, ссылку на персептрон, обучающийся без учителя.
Изначальные варианты были бинарными и тернарными, поэтому дельта-правило, которое сейчас используется для подкрепления, для них абсолютно эквивалентно обучающему сигналу.
Это не моя терминология, это общепринятая терминология.
Да, все персептроны обучаются с учителем.
На практике следствие, что всегда достаточно повысить размерность всего на единицу? Ррреволюция.

У меня есть несколько предположений, как примирить ИИ с противоречиями, но важнее зачем. В случае практических задач, с которыми работает вычислительный интеллект, противоречивость скорее указывает на ошибки в данных, так что это задача предобработки. Если же мы стремимся к «романтическому» сильному человекоподобному ИИ, то разговор надо начинать заново вообще с других предпосылок.
Нет, у вас что-то с терминологией. «Обучающий сигнал» — это конкретный правильный ответ на данный стимул. «Подкрепление» — это «молодец» в случае правильного ответа. Функция полезности — это просто цифра, которую надо максимизировать. В случае наличия обучающего сигнала, функция полезности задаётся тривиально, как обратная ошибке. Но если правильных ответов не существует, а есть только функция полезности (например, то же количество золота), построить на её основании обучающий сигнал невозможно.
Описание всей партии, как вы сами сказали, это вектор колоссальной размерности, к тому же плохо подходящий для обобщения. Состояние же мира в конкретный момент (или даже только окресностей) задаёт некоторую ситуацию, применимую во множестве партий. К этой информации достаточно добавить только указание на этап партии (я предложил номер хода, но это может быть даже слишком конкретно. Возможно, достаточно только {начало, середина, конец}), собственно, сделанный ход и общий исход партии. На массиве таких «отдельных» ходов плюс ассоциативная память вполне можно ожидать прогресса (получилось что-то вроде «ИИ на спичечных коробках»).

Правда, думаю, нейросеть будет учится очень-очень долго — это не крестики-нолики, слишком много ходов и исходов. Скорее всего, какие-то агентные системы были бы эффективнее, но там нужно совсем с другой стороны влазить — функции полезности, эгоистичные стратегии… И никаких учителей. Это тот случай, когда от них один вред.
Даже никогда не интересовался, честно говоря. Все ссылаются на Zahirniak D.R., Chapman R., Rogers S.K., Suter B.W., Kabrisky M. and Pyati V., «Pattern Recognition using Radial Basis Function Networks,» Conf. Aerospace Application of Al, Dayton, 1990, но я это не читал. Это всё-таки общее место и принцип объясним в двух строчках, часто идёт без ссылки вообще.

Да, и кстати, это совершенно естественный принцип инициализации, когда нейроны существуют в том же пространстве, что и стимулы (сети Кохонена, радиально-базисные и т.п. и т.д.). Но в случае персептронов и пр. эти пространства мягко говоря разные и даже не однозначно отобразимые. То есть существует намного больше одного способа получить нужный отклик на данный стимул. Не слишком ясно, какой из них предпочесть и почему.

Информация

В рейтинге
Не участвует
Откуда
Украина
Дата рождения
Зарегистрирован
Активность