Pull to refresh
235
0
Алексей Редозубов @AlexeyR

User

Send message
Я полагаю, что сознание — это одно из материальных свойств. И если у компьютера нет соответствующего харда, то ни при каком алгоритме оно не возникнет. Поиском источника сознания занимается, в том числе, и основанный нами фонд bekhtereva.fund.
Здесь та самая беда, что описана в статье. Да, строя модель на связях, получается сделать что-то работающее. Возникает огромный соблазн предположить, что мозг так и устроен, а значит усиливая модель можно получить СИИ.
Мое мнение о природе сознания здесь www.youtube.com/watch?v=P2kUVyH2I5o
Да, где-то так. Я для себя объединяю первый и третий подходы. Дело в том, что при описании сущностей неизбежно придется вводить их описания и задавать меры близостей и все вернется на круги своя.
«От нейрона к мозгу» — моя настольная книга) Это реально Библия нейрофизиологии. Кстати, уже есть русское издание 2019 года.
Есть подход «аналоговая машина». Его разделяют многие очень уважаемые ученые. Но описать как эта машина работает им так и не удалось. Мысли крутятся вокруг парадигмы нейронов бабушки, хотя и понятно что в чистом виде их нет.
Используя цифровой подход, удается многое объяснить. Но аналоговый подход лег в основу слишком большого числа научных школ и породил слишком много статей чтобы от него можно было быстро отказаться.
Следуя вашему взгляду концентрация не связана с увеличением числа лигандов в единице объема. А как тогда ???!!!

Испускание нейромедиаторов происходит квантами один пузырек содержит несколько тысяч молекул. Для срабатывания рецептора достаточно одной из них. Вопрос концентрации и ее влияния не очевиден.
Но надо учитывать, что рецепторы объединяются в кластеры и работают совместно. Кластер играет роль ключа, которому для активации нужен полный набор лигандов. Вот здесь, чтобы гарантированно обеспечить эти лиганды поблизости от кластера встает вопрос их концентрации.
Реализовав контекстно-смысловую модель мы получим понимание аналогичное человеческому. За тем исключением, что у человека еще есть и сознание (способность осознавать мир, себя и свои мысли). От того, что компьютер сможет оперировать смыслом сознание не появится.
Да, речь о ситуациях.
Вопрос аналогичен такому: если записывать данные в память компьютера, то увеличится ли вероятность появления сигнала на какой-либо его шине.
Я уверен, что мозг в основе своей «цифровое» устройство, которое работает в первую очередь с кодами. Соответственно, не стоит применять к нему аналоговые аналогии.
Что касательно ионотропных рецепторов, и ионных каналов, управляемых изнутри g белками, то их открывание сложный процесс, не сводящийся к количеству и статистике.
Например, в течении дня формируется огромное количество рецептивных кластеров, которые практически полностью разбираются ночью (это многократно проверялось экспериментально). Но это не делает к вечеру нейроны более активными.
«Ну тогда приведите цитату оттуда, которая, как вам кажется, имеет смысл „Каждому вопросу своя карточка с ответом“.

Напишу еще раз) Есть два подхода к созданию ИИ. Один — через перечисление сущностей. При таком перечислении оптимизация идет за счет введения метрики и объединения похожего. Но требуемая мощность при этом остается пропорциональна числу сущностей. Если утрировать, то „каждому вопросу своя карточка с ответом“.
Второй подход через оперирование смыслом. Там совсем другой алгоритм, который описан в моей статье.
Цель статьи Серла была показать, что у комнаты не появляется „понимания“. При этом он дал свое определение пониманию. В рамках его определения у него все сошлось.
В комментариях комнату упомянули в другом разрезе, по умолчанию приписав ей первый алгоритм, что и дало начало обсуждению.
Опять же повторюсь. На машине Тьюринга можно реализовать оба подхода. Но это будут разные алгоритмы.

Его работа была не области информатики

Так и я об этом. И уже раньше писал, что обсуждение здесь китайской комнаты — это не обсуждение идей Серла, а использование его примера для других целей.

На мембране есть ионные насосы трёх типов они поддерживают поляризацию.

Цель — объяснение работы мозга и создание СИИ, основанного на понимании того, как мозг оперирует со смыслом.
Накопления ионов как такого не существует. Есть поляризация мембраны. Есть реакция кластеров рецепторов на смесь нейромедиаторов. Есть локальная деполяризация мембраны в местах открытия ионных каналов. Есть метаботропные рецепторы с их g белками и тремя механизмами влияния на состояние нейрона. Есть условия возникновения дендритных спайков (перемещения деполяризации за счет открытия/закрытия потенциалзависимых ионных каналов). Есть кабельные свойства дендритов и токи протекающие в них. Есть сложный механизм формирования деполяризации в аксонном холмике, ведущий к возникновению спайка.
Прочитайте уже источник.

Конечно, читал.
Так же, как и в любом другом сильном ИИ.

Мы возвращаемся к началу разговора и к теме статьи. Серл показывал отсутствие у комнаты представления о смысле через два предположения. Программа может пройти тест Тьюринга. И это будет программа на уровне книги с инструкциями дополненная большим архивом.
При этом он стыдливо умалчивал о третьем предположении, что все алгоритмы одинаково мощны. То есть он полагал, что «классические» алгоритмы в которых не используются смыслы и контексты путем масштабирования могут пройти тест Тьюринга. Я показываю, что это не так. Никакого объема архива не хватит.
При этом на классическом компьютере можно создать алгоритм, который будет работать со смыслами. И это ровно то, что пытался опровергнуть Серл. Он полагал, что смысл сидит внутри человека и никак не может возникнуть внутри архива или компьютера. Я говорю, что контекстно-смысловой подход моделирует именно тот смысл, что свойственен человеку.

В текущей беседе вы завели разговор о том, что программа должна содержать столько вариантов инструкций, сколько есть возможных входов.

Не программа, а предложенный Серлом механизм комнаты. Каждому вопросу своя карточка с ответом.
У меня есть достаточно много работ и на языке биологии и на языке математики. Перечень здесь www.aboutbrain.ru. Не очень понятен посыл: перескажи это все в двух словах в комментарии.
Я много лет занимаюсь нейрофизиологией. Вместе с академиком Медведевым мы создали фонд исследований мозга имени Натальи Бехтеревой. Будучи в теме и общаясь с коллегами, я имею определенное видение на ситуацию.
Сейчас стали понятны процессы, вызываемые испусканием в синапсах единичных квантов нейромедиаторов (единичных пузырьков). Появилось представление о миниатюрных постсинаптических потенциалах (порядка 1 мВ). Выяснилась существенная роль плазматических астроцитов (концепция трехстороннего синапса). Глубоко изучено поведение мембранных рецепторов и их кластеров.
Все это привело к пересмотру «классических» моделей подобных модели Ходжкина — Хаксли.
Сейчас нейрон рассматривается в составе кортикальной миниколонки (порядка 100 нейронов), которая воспринимается сложнейшим вычислителем.
И все это бесконечно далеко от идей порогового сумматора.
«Китайская комната» не обязательно подразумевает диалог

Сама комната в примере Серла описывалась для того, чтобы показать, что, и не имея сознания, можно делать что-то «разумное». Вопрос насколько это будет разумно у него был замылен. В текущей беседе речь пошла о прохождении китайской комнатой теста Тьюринга и здесь пришлось уточнять замыленное.
Кстати, хороший перевод требует помнить о чем была речь ранее, замыленный может просто заменять одни слова другими, наиболее вероятными.
Не путайте «объяснить чем занимается» и «рассказать в деталях». Кстати, на пальцах основное объяснено в статье.
Во-первых, вы уже описываете программу, а в комнате предполагался «архив» по принципу «запрос-ответ».
Во-вторых, что будет, если новый вопрос комнате содержит отсыл к предыдущей беседе? Как это учтется в ее ответе?

Information

Rating
Does not participate
Location
Санкт-Петербург, Санкт-Петербург и область, Россия
Date of birth
Registered
Activity