Comments 29
Ах, кибернетика-кибернетика…
Мне кажется сомнительным в моделировании человеческого мышления выделение «сознания» в отдельную сущность. По-моему, это навязано аналогией с вычислительной техникой, у которой есть память и процессор. У человека же память одновременно и хранит информацию, и обрабатывает её.
На самом деле разницы никакой нет. Или я создам супернавороченный класс Node, который будет одновременно хранить информацию и взаимодействовать с другими узлами. Или я создам классы Сознание и Память, где сознание будет производить манипуляции с узлами, а память — хранить эти узлы. В конечном счете все будет работать одинаково.
Это все вопросы архитектуры. Мне показалось, что второе архитектурное решение более выгодно.
Это все вопросы архитектуры. Мне показалось, что второе архитектурное решение более выгодно.
В первом случае проще создать самоорганизующуюся структуру, которой мозг, по сути, и является. Во втором же вы организуете всю логику обработки информации сами, насильственно.
Не согласен. Самоорганизующаяся структура тоже не сама по себе пишется — ее логику тоже нужно написать, насильственно.
В любом случае нужно определить некий набор операций, которые будут производиться над узлами. Кто будет производит эти операции — не так важно.
Выделять сущность сознания оправдано хотя бы потому, что нужно как-то выделить узлы, о которых система «думает» в данный момент от всех остальных, которые лежат в памяти. Эти узлы проще всего хранить в Сознании, где оно может легко проводить над ними свои операции (модифицировать, отправлять в память, брать из памяти, составлять новые связи).
В любом случае нужно определить некий набор операций, которые будут производиться над узлами. Кто будет производит эти операции — не так важно.
Выделять сущность сознания оправдано хотя бы потому, что нужно как-то выделить узлы, о которых система «думает» в данный момент от всех остальных, которые лежат в памяти. Эти узлы проще всего хранить в Сознании, где оно может легко проводить над ними свои операции (модифицировать, отправлять в память, брать из памяти, составлять новые связи).
Мне всё же кажется, что операции надо возлагать на узлы, т.к. эта модель ближе к человеческому мозгу. Но какой-то центр восприятия должен быть, согласен. Думаю, можно ограничиться подсистемой, которая будет переводить узлы из активного состояния в пассивное.
Признаюсь, сначала я тоже был идеалистом. Но когда начинаешь представлять, как это можно реализовать, то сразу понимаешь, что сделать это в разы сложнее.
Именно в этот момент вспоминаешь, что у тебя в руках ООП, а не нейроны. И глупо было бы не воспользоваться его преимуществами в виде распределения обязанностей, всяческих абстракций, служебных классов и прочих прелестей.
Именно в этот момент вспоминаешь, что у тебя в руках ООП, а не нейроны. И глупо было бы не воспользоваться его преимуществами в виде распределения обязанностей, всяческих абстракций, служебных классов и прочих прелестей.
И из пассивного в активное, конечно.
Мне кажется сомнительным в моделировании человеческого мышления выделение «сознания» в отдельную сущность. По-моему, это навязано аналогией с вычислительной техникой, у которой есть память и процессор
Если проводить аналогии, то сознание не память и не процессор, а софт. Сущность, соответственно, отдельная
Совершенно своеобразный софт, работающий на совершенно своеобразном железе.
блин… я не могу произнести алфавит в обратном порядке :)
Если вы визуал, то могу посоветовать представить представить напечатанный алфавит в строчку и попытаться «посмотреть» на него с конца.
не визуал. представить себе что то точнее силуэта или чего то отдаленно, нереально.
Как вариант — создать отдельный список (обратный) в мозгу. И поддерживать их оба. Правда хз, нафига.
UFO just landed and posted this here
В реальности, чтобы смоделировать даже мозг мыши у Вас будет чуть ли не бесконечное число столбиков, потому что прости миллион факторов в реальности оцениваются мозгом для принятия решения и поддержания его выполнения.
Кроме всего прочего мне не очень понятно ваше определение термина «сознание». То какие Вы функции вкладываете в сознание — это скорее выбор и поддержание выполнения действия насколько я понимаю. Однако функции сознания, как мне кажется, этим не ограничиваются.
Кроме этого, самое интересное — это даже не сама память или процесс принятия решения (хотя он тоже очень интересен), а возможности целенаправленного обучения — вот это и есть основная функция сознания.
При этом связи (и параллельные, и последовательные) в Вашей модели имеют некую аналогию с биологическими данными, однако в общем мне кажется, что вы рассматриваете мозг, как некоторую реактивностную систему, которая с помощью рефлексов реагирует на стимулы из внешней среды. А это не так к счастью. Вы в тексте этого напрямую не сказали, но у меня вот такое ощущение сложилось.
Кроме всего прочего мне не очень понятно ваше определение термина «сознание». То какие Вы функции вкладываете в сознание — это скорее выбор и поддержание выполнения действия насколько я понимаю. Однако функции сознания, как мне кажется, этим не ограничиваются.
Кроме этого, самое интересное — это даже не сама память или процесс принятия решения (хотя он тоже очень интересен), а возможности целенаправленного обучения — вот это и есть основная функция сознания.
При этом связи (и параллельные, и последовательные) в Вашей модели имеют некую аналогию с биологическими данными, однако в общем мне кажется, что вы рассматриваете мозг, как некоторую реактивностную систему, которая с помощью рефлексов реагирует на стимулы из внешней среды. А это не так к счастью. Вы в тексте этого напрямую не сказали, но у меня вот такое ощущение сложилось.
Количество столбиков — это разрешающая способность сенсоров и действий. Нужна большая точность — нужно увеличить количество столбиков. Начитать я собираюсь с малого количества.
Сознание — это тема следующей статьи.
Мозг так или иначе реагирует на внешние стимулы. Если этих стимулов нет, то и мозг перестает работать. Сложность реакции зависит только от сложности информации, которую обрабатывает сознание. Т. е. если поместить мозг человека в тело крысы, то он не сможет развиться до уровня человеческого, так как он не сможет получать достаточно сложную информацию и совершать достаточно сложные действия.
Сознание — это тема следующей статьи.
Мозг так или иначе реагирует на внешние стимулы. Если этих стимулов нет, то и мозг перестает работать. Сложность реакции зависит только от сложности информации, которую обрабатывает сознание. Т. е. если поместить мозг человека в тело крысы, то он не сможет развиться до уровня человеческого, так как он не сможет получать достаточно сложную информацию и совершать достаточно сложные действия.
А теперь представьте себе сколько сенсорной информации и сколько возможных действий может совершать таже крысы. Именно поэтому я и говорю, что данное представление не слишком удобное.
Мозг направлен не только в сторону восприятия внешних стимулов, но и на восприятие внутренних стимулов, что делает его не реактивной, а активной системой.
Мозг не перестанет работать, если нет стимулов. Об этом свидетельствуют опыты по сенсорной депривации испытуемых. Конечно длительное время без сенсорной информации приводит к необратимым изменениям в мозге и развитие мозга действительно было бы не возможно без внешнего мира, но тем не менее. При этом внешняя информация — это не только стимулы, но и их отсутствие например, когда они ожидались.
Мозг направлен не только в сторону восприятия внешних стимулов, но и на восприятие внутренних стимулов, что делает его не реактивной, а активной системой.
Мозг не перестанет работать, если нет стимулов. Об этом свидетельствуют опыты по сенсорной депривации испытуемых. Конечно длительное время без сенсорной информации приводит к необратимым изменениям в мозге и развитие мозга действительно было бы не возможно без внешнего мира, но тем не менее. При этом внешняя информация — это не только стимулы, но и их отсутствие например, когда они ожидались.
Данное представление не навязывает количество столбиков. Если их не хватает, то ничего не мешает их добавить. Я не знаю, сколько столбиков понадобится для создания разумного поведения. Никто этого не знает. Но начинать логичнее с малого количества и постепенно его увеличивать.
Нет такого особого типа информации, как стимулы. Есть просто информация — воспоминания о чувствах и действиях. Сознание — это некий ящик, в который поступает информация извне. К ней добавляется информация из памяти, которая с ней связана. Внутри проводятся некие манипуляции и на выходе может получиться действие.
Т. е. во время работы сознание берет информацию не только из окружения. В количественном отношении большая часть информации берется именно из памяти. Поэтому разные организмы по-разному реагируют на одну и ту же внешнюю информацию — память-то у них разная. Внутренние стимулы, о которых вы говорите — это и есть память, опыт, который в ней хранится.
Нет такого особого типа информации, как стимулы. Есть просто информация — воспоминания о чувствах и действиях. Сознание — это некий ящик, в который поступает информация извне. К ней добавляется информация из памяти, которая с ней связана. Внутри проводятся некие манипуляции и на выходе может получиться действие.
Т. е. во время работы сознание берет информацию не только из окружения. В количественном отношении большая часть информации берется именно из памяти. Поэтому разные организмы по-разному реагируют на одну и ту же внешнюю информацию — память-то у них разная. Внутренние стимулы, о которых вы говорите — это и есть память, опыт, который в ней хранится.
Память — это не внутренние стимулы. Внутренние стимулы — это мотивация. А это две совершенно различные вещи.
Вы подразумеваете под информацией воспоминания? Мне казалось, что Вы подразумеваете информацию из окружающей среды. В таком случае, я несколько запутался в Ваших определениях.
Безусловно сознание — это примерно то, что вы описали. Только еще сюда добавляется мотивация. Синтез обстановочной информации, памяти и мотивации — это и есть сознание и тут я с Вами полностью согласен. Однако в рамках самого сознания есть различные механизмы и поэтому рассматривать его как единый черный ящик тоже невозможно, как я считаю.
Я понимаю, что можно сколько угодно добавлять эти столбики и таким образом уточнять задачу. Я просто говорю, что такое представление является не слишком удобным, так как в какой-то момент мы просто запутаемся в этих столбиках, так как их будет невероятно много. Хотя как модель для исследования такое представление имеет все права на жизнь.
И в дополнение советую Вам немного почитать о работе мозга в рамках теоретической нейробиологии. Я думаю это будет полезно в ваших исследованиях. Если Вы заинтересуетесь могу порекомендовать Вам конкретную литературу.
Вы подразумеваете под информацией воспоминания? Мне казалось, что Вы подразумеваете информацию из окружающей среды. В таком случае, я несколько запутался в Ваших определениях.
Безусловно сознание — это примерно то, что вы описали. Только еще сюда добавляется мотивация. Синтез обстановочной информации, памяти и мотивации — это и есть сознание и тут я с Вами полностью согласен. Однако в рамках самого сознания есть различные механизмы и поэтому рассматривать его как единый черный ящик тоже невозможно, как я считаю.
Я понимаю, что можно сколько угодно добавлять эти столбики и таким образом уточнять задачу. Я просто говорю, что такое представление является не слишком удобным, так как в какой-то момент мы просто запутаемся в этих столбиках, так как их будет невероятно много. Хотя как модель для исследования такое представление имеет все права на жизнь.
И в дополнение советую Вам немного почитать о работе мозга в рамках теоретической нейробиологии. Я думаю это будет полезно в ваших исследованиях. Если Вы заинтересуетесь могу порекомендовать Вам конкретную литературу.
Про мотивацию и эмоции я уже писал в одной из предыдущих статей. Сознание будет с ними работать (на самом деле так же как и с памятью). Подождите, пожалуйста, очередной статьи.
Что касается столбиков. Если система будет работать при количестве столбиков равном 10 шт, то она будет работать и при количестве 100 шт. Для этого не придется как-то переделывать функции сознания. Достаточно будет просто заложить возможность настраивать размер образа.
Некоторые идеи по работе сознания были взяты из книг. Но то, что в итоге получается по структуре и принципам работы очень далеко от оригинала. Как я уже писал — приходится учитывать особенности платформы. Я не хочу добиться точного структурного сходства. Мне важнее добиться сходства в поведении.
Что касается столбиков. Если система будет работать при количестве столбиков равном 10 шт, то она будет работать и при количестве 100 шт. Для этого не придется как-то переделывать функции сознания. Достаточно будет просто заложить возможность настраивать размер образа.
Некоторые идеи по работе сознания были взяты из книг. Но то, что в итоге получается по структуре и принципам работы очень далеко от оригинала. Как я уже писал — приходится учитывать особенности платформы. Я не хочу добиться точного структурного сходства. Мне важнее добиться сходства в поведении.
Опять про столбики.=)
Увеличение размерности в данной модели может привести к проблемам с устойчивостью и вообще поведение может сильно измениться и быть далеко не таким как предсказывалось, что и характерной для комплексных систем. Исследование этого изменения — тоже важная и интересная задача.
К тому же увеличение размерности опять в такой постановке модели сильно усложнит анализ и исследование, для чего придется разрабатывать сложные методики анализа. Более того такую модель я думаю будет сложно анализировать с математической точки зрения.
Однако мне кажется, что это может быть интересным началом. Единственное, что посоветую — попробовать уйти от модульности и от восприятия ИИ — как модели, включающую исключительно блоки со стрелочками (типичная болезнь программиста, начинающего заниматься ИИ). Гораздо интереснее рассмотреть ИИ не как блоки или тупой набор правил, а как динамическую систему в развитии.
В рамках создания адаптивных систем не обязательно, чтобы по структуре что-то было похоже на реальность. Однако, и в этом случае необходимо доказать присутствие адаптивных свойств у разработанной модели. Вообщем под любой моделью должна быть база, как ни крути.
Увеличение размерности в данной модели может привести к проблемам с устойчивостью и вообще поведение может сильно измениться и быть далеко не таким как предсказывалось, что и характерной для комплексных систем. Исследование этого изменения — тоже важная и интересная задача.
К тому же увеличение размерности опять в такой постановке модели сильно усложнит анализ и исследование, для чего придется разрабатывать сложные методики анализа. Более того такую модель я думаю будет сложно анализировать с математической точки зрения.
Однако мне кажется, что это может быть интересным началом. Единственное, что посоветую — попробовать уйти от модульности и от восприятия ИИ — как модели, включающую исключительно блоки со стрелочками (типичная болезнь программиста, начинающего заниматься ИИ). Гораздо интереснее рассмотреть ИИ не как блоки или тупой набор правил, а как динамическую систему в развитии.
В рамках создания адаптивных систем не обязательно, чтобы по структуре что-то было похоже на реальность. Однако, и в этом случае необходимо доказать присутствие адаптивных свойств у разработанной модели. Вообщем под любой моделью должна быть база, как ни крути.
машину тьюринга напомнило:)
Мозг — база данных с рандомным доступом. Можно вспомнить, а можно и не вспомнить. А можно вспомнить, но не то, что надо =)
Sign up to leave a comment.
Изображаем память с помощью тетрадки в клеточку