Комментарии 31
НЛО прилетело и опубликовало эту надпись здесь
Логическая индукция — фигня какая-то.
Рассмотрим все круглые предметы.
Футбольный мяч может катиться и подпрыгивать. Колесо может катиться и подпрыгивать.
Можно обобщить, что все круглые предметы могут катиться и подпрыгивать. Например Солнце.
ПС, с каких пор рыбы стали млекопитающими?
Рассмотрим все круглые предметы.
Футбольный мяч может катиться и подпрыгивать. Колесо может катиться и подпрыгивать.
Можно обобщить, что все круглые предметы могут катиться и подпрыгивать. Например Солнце.
ПС, с каких пор рыбы стали млекопитающими?
Судя по позвоночнику там должны были быть позвоночные. Но, конечно, мозг не содержит таких онтологий, они являются временным продуктом высшей психической деятельности, сознания, а не являются его фундаментальным свойством. Отношения между словами могут быть невыразимыми формально, т.к. включают огромное количество эволюционных факторов («так язык повернулся»), и сегодня эти отношения одни, а завтра другие, а в особенном контексте — третьи. Сам процесс установления отношений между словами — продукт высшей психической деятельности в познавании мира и создании культурной информации в виде мифов, рецептов, биологических систематик и прочих «карт человеческих проблем» (сами форматы карт тоже развиваются, не стоят на месте), а не спонтанная деятельность речевого центра мозга, которую можно бы было изучать in vitro, в отрыве от культурного «эгрегора», кодирующего отношения «индивид — общество» и управляющего поведением человека. Кажется, автор статьи пытается редуцировать свою модель до абсолютной онтологии, имеющей объективный, универсальный смысл и физически определяющий устройство реальности (и потому, мол, мозг приспособлен для возможности выражать отношения между элементами этой «объективной онтологии», а все остальные онтологии — лишь проекции этого Абсолюта). Позитивисты-релятивисты давно похоронили эту идею, но переодически откапывать её человечество не перестанет, конечно.
ПС, с каких пор рыбы стали млекопитающими?
Вот скоректированная схема:
Почему первую не выпилят из вики не понимаю.
Можно обобщить, что все круглые предметы могут катиться и подпрыгивать. Например Солнце.
Совершенно правильный вывод, та же аналогия — «Дайте мне точку опоры, и я подниму Землю». Возможно Солнце и катится в гравитационном поле -)
В том-то и суть, что неполная логическая индукция может, с одной стороны, наплодить ошибок, а с, другой стороны, потенциально, создает слишком большое множество гипотез. Задача этой части как раз заострить внимание на этих моментах, чтобы дальше было понятно, какие недостатки и противоречия классических подходов будут разрешаться.
Рыбы — млекопитающие — это и есть ошибка неполной индукции.
Рыбы — млекопитающие — это и есть ошибка неполной индукции.
А что с кодом примеров?
Спасибо за ваш труд.
Я как-раз столкнулся с проблемой «универсальной» классификации поступающих сигналов, когда пытался закодить контекстную сеть на основе ваших предыдущих статей.
Очень жду продолжения.
Я как-раз столкнулся с проблемой «универсальной» классификации поступающих сигналов, когда пытался закодить контекстную сеть на основе ваших предыдущих статей.
Очень жду продолжения.
Спасибо за статьи! Очень интересно, хотелось бы добраться до кода и попробовать реализацию.
Вопрос по задаче кластеризации/обобщения: как правило, в постановке задачи кластеризации подразумевается некая «оптимальность», хотя бы до уровня иерархии (предметы -> часы -> наручные часы/настенные часы и т.д.)
Т.е. один раз находим какую-то кластеризацию, ей дальше пользуемся.
Однако:
— мозг умеет быстро строить обобщения, которые раньше не запрашивались: можно назвать, например, «все красные предметы» (или это просто хороший способ индексирования?)
— можно быстро построить обобщение — ответ на вопрос «что общего у <двух предметов>?» (так строятся многие анекдоты, подобные обобщения часто можно увидеть в художественных произведениях)
— разные обобщения абсолютно необязательно обладают иерархией («собака» у многих не всегда «опасное существо»)
— мозг может мгновенно отдавать приоритет как минимум одному из факторов (если птица ест ядовитое насекомое, она быстро «осознает», что то, что яркой окраски — скорее всего «ядовитое» и больше не ест)
Похоже, что мозг хранит обобщения, индексирует их («все красные объекты», «все опасные существа») и еще мгновенно может перестроить систему (ну или сделать некий «костыль», который будет работать для какого-то конкретного случая).
Получается, что задача кластеризации не сводится к единичной задаче выявления важных факторов и разделения на оптимальные классы? Или же для мозга задача более жесткая, перестроение системы всегда сложно, а все разнообразие обобщений — результат скорее наличия большого количества людей, чем работы одного конкретного мозга (у каждого мозг обобщил по-разному => получили разные системы)?
Вопрос по задаче кластеризации/обобщения: как правило, в постановке задачи кластеризации подразумевается некая «оптимальность», хотя бы до уровня иерархии (предметы -> часы -> наручные часы/настенные часы и т.д.)
Т.е. один раз находим какую-то кластеризацию, ей дальше пользуемся.
Однако:
— мозг умеет быстро строить обобщения, которые раньше не запрашивались: можно назвать, например, «все красные предметы» (или это просто хороший способ индексирования?)
— можно быстро построить обобщение — ответ на вопрос «что общего у <двух предметов>?» (так строятся многие анекдоты, подобные обобщения часто можно увидеть в художественных произведениях)
— разные обобщения абсолютно необязательно обладают иерархией («собака» у многих не всегда «опасное существо»)
— мозг может мгновенно отдавать приоритет как минимум одному из факторов (если птица ест ядовитое насекомое, она быстро «осознает», что то, что яркой окраски — скорее всего «ядовитое» и больше не ест)
Похоже, что мозг хранит обобщения, индексирует их («все красные объекты», «все опасные существа») и еще мгновенно может перестроить систему (ну или сделать некий «костыль», который будет работать для какого-то конкретного случая).
Получается, что задача кластеризации не сводится к единичной задаче выявления важных факторов и разделения на оптимальные классы? Или же для мозга задача более жесткая, перестроение системы всегда сложно, а все разнообразие обобщений — результат скорее наличия большого количества людей, чем работы одного конкретного мозга (у каждого мозг обобщил по-разному => получили разные системы)?
Именно к этому я и подвожу, что частные задачи, перечисленные в статье, не только имеют «внутренние дефекты», но и не образуют замкнутой системы в котрой могут реализовываться перечисленные вами возможности мозга. То есть нужен совсем другой подход, но такой, что будет включать все существующие задачи, как частные случаи.
Похоже, что такой подход удалось найти. Далее он будет описан.
Похоже, что такой подход удалось найти. Далее он будет описан.
И это решение принципиально превосходит фреймовую систему Минского, как раз и являющейся «нечёткой» семантической сетью, допускающей неполноту, противоречивость и локальную уточняемость данных? Для каких задач и почему?
Я очень уважаю теорию фреймов, но насколько мене известно, в ней нет универсальной процедуры обобщения. А разговор идет о подходе в котором такая процедура будет естественной и простой.
Вся концепция фреймов и является такой «процедурой». Переход между фреймами и терминалами и является процессом обобщения, редукции, дополнения и любых других операций над хранимыми знаниями. Но, конечно, тоже жду вашей версии с большей простотой и естественностью (а главное — эффективностью в практических задачах).
Согласен. Вопрос в том, как сделать «процедуру» универсальной, не зависящей от типов данных и не требующей участия эксперта.
Фрейм как раз и описывает «любые» данные и «любые» связи и «любые» преобразования. Но как автоматизировано заполнять эти структуры — это, действительно, более острый вопрос. И он, кажется, не решается магически, участие эксперта оказывается неустранимым (для естественного интеллекта таким экспертом выступают родители, воспитатели, учителя). Сложных стратегий поведения без эволюционирующего социума не родится, «мозг в банке», какой бы он ни был структуры, без взаимодействия с правильно сконфигурированной (экспертом) средой ничего полезного воспроизвести не сможет. И вот конфигурация среды (преобразование практических задач эксперта в план обучения ИИ для их решения) — более относящийся к механизму сознания и других функций психики вопрос, на мой взгляд, чем формализация палочек и колбочек нейронов, в которых эта фреймовую модель реализуется (или чем попытки вывести «универсальную семантику», которая всё равно будет математически эквивалентна фреймовой структуре ввиду её максимальной абстракции).
Одной магической процедурой все, конечно, не решить. Но несколько «магий» вмете творят чудеса. В этом цикле я попробую показать весь «конструктор».
И хотя бы одну решённую этим конструктором задачу пусть не сильно хуже, чем существующие подходы, да? Или конструктор пока только лишь пророчит перспективы полезной применимости в будущем? Есть хоть одна формализованная задача, которую ваша модель решает?
До демонстрации всего конструктора пока далеко. Но отдельные части и их взаимодействие, конечно, покажу. В следующей части будет пример относительно автоматического построения семантических пространств. Через часть будет пример использования контекстов, бинарного кодирования и универсального обобщения.
Тоже работаю над универсальным классификатором, и мне кажется, что взаимодействие с «экспертами» — очень важно, только необходимо делать систему проактивной (обучающейся, а не обучаемой). Все интересное что мы знаем о мире у нас произведено взаимодействием и используется во взаимодействии (не только общение, но, в том числе). Поэтому в своей модели мой универсальный классификатор постоянно находится в цикле движения внимания, которое полностью обуславливает все поведение системы. Полагаю, без проактивности универсальная процедура будет строить классификации мало интересные людям. Возможно, полезные, но трудно применимые. Просто — другой мир, воспринимаемый классификатором и не воспринимаемый человеком.
Полагаю, без проактивности универсальная процедура будет строить классификации мало интересные людям.Да, именно так. Я покажу как на первом этапе получить пространство всех возможных признаков, а затем, на следующем этапе, с помощью обучения с подкреплением выбрать из них самые важные в той или иной ситуации.
Вопросы к вашей системе:
1) Как можно решить задачу не зная ее полных условий («где мы?» = на земле, под водой или в вакууме?)? и не сформулировав условия, которым должно соответствовать «правильного решение»? а также «точки зрения» (ТЗ) с которой решается задача? пример ТЗ: Сила, ум, опыт, качество исполнения, разумное время…
2) Как можно сделать «верный» логический вывод, не имея достаточного и достоверного массива знаний? а не слов и онтологий.
3) Как можно быть правым, если не знаешь верных ли те данные, на которых ты строишь свое решение в данной конкретной задаче?
4) Как можно сделать логический вывод, не пользуясь _контекстно_ корректными свертками фактов/логики и эвристиками?
5) К какой реалистичной и достижимой цели(ям) должна стремиться создаваемая система на текущем и последующих этапах?
6) Каким образом можно сделать, чтобы система сама себе развивала? ставила себе мини-цели, их достигала и демонстрировала ментору? Виртуальный логико-аналитический эксперимент?! ;) Или все-таки логико-когнитивно-семантический? :)
7) Как системе передавать обратную связь об ошибках и неточностях ее «хода мыслей» от ментора? (Закольцованное обучение. Изменение весов факторов и значимости контекстов в КОНКРЕТНОЙ задаче, «гашение» малозначимых контектов )
8) Как научить ее использовать при решении прошлый опыт решения задач (ходы, подходы, стратегии) и подходящие аналоги задач, без перебора данных с нуля до решения? Думаю, успешное решение надо сохранять и использовать в новых задачах.
9) Как решить проблему достоверности знаний и выбора правильного угла взгляда на имеющиеся факты для решения задачи («просев знаний», через фильтры стратегии или стратегий решения задачи)?
10) Что важнее для решаемой задачи: достоверность или частота использования знания (иначе можно сказать «типичность знания для выбранного контекста»)?
11) Как «выжать» максимум смысла из 1 абзаца данных?
12) Если я скажу, что пространство/множество «признаков понятий» — конечно. Вы мне поверите?
13) Как можно использовать при работе системы знание об неверности факта, утверждения, понятия? Например: «яблоки растут на сосне», «вратарь забивает больше всех в команде».
И самый интересный: Каким образом система сама может стать «умнее», чем была вчера? что она должна уметь делать для этого?
1) Как можно решить задачу не зная ее полных условий («где мы?» = на земле, под водой или в вакууме?)? и не сформулировав условия, которым должно соответствовать «правильного решение»? а также «точки зрения» (ТЗ) с которой решается задача? пример ТЗ: Сила, ум, опыт, качество исполнения, разумное время…
2) Как можно сделать «верный» логический вывод, не имея достаточного и достоверного массива знаний? а не слов и онтологий.
3) Как можно быть правым, если не знаешь верных ли те данные, на которых ты строишь свое решение в данной конкретной задаче?
4) Как можно сделать логический вывод, не пользуясь _контекстно_ корректными свертками фактов/логики и эвристиками?
5) К какой реалистичной и достижимой цели(ям) должна стремиться создаваемая система на текущем и последующих этапах?
6) Каким образом можно сделать, чтобы система сама себе развивала? ставила себе мини-цели, их достигала и демонстрировала ментору? Виртуальный логико-аналитический эксперимент?! ;) Или все-таки логико-когнитивно-семантический? :)
7) Как системе передавать обратную связь об ошибках и неточностях ее «хода мыслей» от ментора? (Закольцованное обучение. Изменение весов факторов и значимости контекстов в КОНКРЕТНОЙ задаче, «гашение» малозначимых контектов )
8) Как научить ее использовать при решении прошлый опыт решения задач (ходы, подходы, стратегии) и подходящие аналоги задач, без перебора данных с нуля до решения? Думаю, успешное решение надо сохранять и использовать в новых задачах.
9) Как решить проблему достоверности знаний и выбора правильного угла взгляда на имеющиеся факты для решения задачи («просев знаний», через фильтры стратегии или стратегий решения задачи)?
10) Что важнее для решаемой задачи: достоверность или частота использования знания (иначе можно сказать «типичность знания для выбранного контекста»)?
11) Как «выжать» максимум смысла из 1 абзаца данных?
12) Если я скажу, что пространство/множество «признаков понятий» — конечно. Вы мне поверите?
13) Как можно использовать при работе системы знание об неверности факта, утверждения, понятия? Например: «яблоки растут на сосне», «вратарь забивает больше всех в команде».
И самый интересный: Каким образом система сама может стать «умнее», чем была вчера? что она должна уметь делать для этого?
Когда ждать следующую статью?
позанудствую: если каждый элемент множества А имеет признак В, то все элементы этого множества имеют признак В.
замена термина «каждый» на «всякий» дает нам тождество, а не индукцию…
и вообще тема осталась нераскрыта.
показали бы как например на анализе данных мобильного оператора ИИ может вывести понятие сексуальной ориентации абонента или профессии
замена термина «каждый» на «всякий» дает нам тождество, а не индукцию…
и вообще тема осталась нераскрыта.
показали бы как например на анализе данных мобильного оператора ИИ может вывести понятие сексуальной ориентации абонента или профессии
Зарегистрируйтесь на Хабре, чтобы оставить комментарий
Логика сознания. Часть 10. Задача обобщения