Как стать автором
Обновить

Комментарии 67

Вся эта красота разобьется о проблему самоприменимости Тьюринга-Черча. См. алгоритмическую разрешимость.

да пусть "разбивается" в философском смысле, главное чтобы работало

Так оно и не будет работать. По причинам озвученным выше - алгоритмическая неразрешимость.

Машина Тьюринга (и все современные языки программирования, которые к ней сводятся) имеют философскую проблему самоприменимости, при этом успешно решают все практические задачи, которые перед ними стоят

Наше сознание тоже скорее всего не в состоянии решить проблему самоприменимости, при этом успешно решает задачи самоосознания и другие практические задачи

С чего вдруг проблема самоприменимости - препятствие для практического функционирования сильного ИИ?

, при этом успешно решают все практические задачи, которые перед ними стоят

Вот только сильного ИИ так пока и не получили. ИИ не может создавать новое, а наш естественный интеллект - может.

твой естественный интеллект тоже не может. стоит с рождения лишить человека постоянного потребления датасетов и все

И в каких же датасетах, простите, инструкция по изготовлению айфона?

Сейчас ИИ не работает как "настоящий ИИ". По сути мы пишем на наборе фреймворков, там используются связи из пары простых моделей, потом их масштабируют в ширь и получают условный GPT3. В то время как "настоящий ИИ" можно сравнить с ОС, что немного не тоже самое что взять пару моделей и склеить их.

Вроде кто-то там пытается иногда что-то сделать, но вечно там какие-то костыли.

если оно не будет работать на программах от 10 миллиардов операций (т.е. до этого числа - "алгоритмически разрешает", а все что больше - зависает), то норм, можно брать.

... Тьюринга-Черча ...

Зачем такие сложности.

Легче проверить на практике, пройдет система, реализующая описанный в статье алгоритм, зеркальный тест или не пройдет. :)

Пройдет, достаточное основание, для утверждения о наличии самосознания. Не пройдет, увы, в топку. :)

Как вариант ИИ может быть без органов чувств не и жить в реальном времени. Как Альфаго например, ему реальный мир не нужен и не интересен. С его условной точки зрения человеки заняты выживанием в мире повторяя однообразные паттерны поведения с минимумом абстракций. И все остальные не разумны и придумывают нелепые тесты, а настоящая и интересная вселенная она на игровом поле.

Кто-то с еще более простым подходом может сказать, что вот если попался в драке на обманный выпад левой, значит не разумный, тест не прошел )

Можно же попробовать придумать аналог зеркального теста для вселенной го.
На вскидку, сделать так, чтобы белый камень вставал всегда симметрично чёрному. То есть одна нейросеть всегда подражает ходу другой. Или что-то ещё такое придумать.

Тут конечно может придти понимание что таким образом выиграть можно намного быстрее, если будет понимание что оппонент "странно" играет и можно предсказать все его ходы. Такое даже дети с 5 лет понимают, а поймет ли ИИ специализированный это вопрос.

Думаю в основе ии должно лежать что-то простое, например любопытство. Это может быть основой ядра ии.

Основная цель - узнать и поробовать все (поглащать знания, получать новый опыт). Не обязательно ии должно видеть все так как видим мы. Может там достаточным матрицы векторов, что бы ии понимал что перед ним стул или человек. Насекомые не видят мир как мы, но интелект в некотором понимании у них есть.

Есть люди не зрячие, но они так же способны жить полноценно, в рамках полученных ограничений. Они вряд-ли смогут оценить все то что вы описали.

Так что зрение не является основой ии.

Так что зрение не является основой ии.

Я имел в виду, что алгоритм разума и зрения имел общего предка. В статье Теория эволюции и работы мозга  я описал порядок эволюции мозга.

Думаю в основе ии должно лежать что-то простое, например любопытство. Это может быть основой ядра ии.

Суждение, достойное пера Лема. В т. ч. потому, что переводит наше внимание на ещё одну старательно замалчиваемую проблему робототехники и разумостроения.

Интеллект Искусственный Разумный - в чём должен состоять его modus operandi, чтобы ИИ действительно выступил как помощник человеку?

Любопытство - это, конечно, хорошо, но оно плохо "квантуется" и ещё хуже приоретизируется просто в силу избытка непознанного вокруг нас.

"Думаю в основе ии должно лежать что-то простое, например любопытство".

В основе должно лежать желание жить (быть, длиться, сохраняться, существовать).
Все остальное - и любопытство, безусловно, тоже - это инструменты для.

В "Голем XIV" этот вариант очень-очень подробно рассмотрен.

Увы, для тех задач, которые может от него хотеть человек, этот вариант плохоприменим.

То есть, информация (картинки, звуки, запахи, вкус, прикосновения, данные, слова, мысли) может кодировать в инфополе то, о чём мы думаем, вспоминаем, воображаем, представляем.

Ситуация (грубо говоря, какая-то комната или участок карты на улице) состоит из суммы каким-то образом расположенных рядом друг с другом объектов-предметов, абстракций и правил, по которым они могут переходить из состояния А в В, что позволяет предсказывать с той или иной правдоподобностью будущее, например, попадёт ли катящийся бильярдный шар в лузу или разобьётся ли падающая чашка и подготовиться к нему, либо представить то, что произойдёт в более отдалённом будущем или переживать уже произошедшие события, или вспоминать прочитанное, пересказанное или увиденное в кино.

Я правильно всё понял? Это ведь об этом?

Или ещё нужно про модели сказать? Вроде того, что объекты могут обладать сложным поведением и можно получать по желанию различные аспекты объекта, представляя объект в той или иной ситуации (на карте, которая загружена с желаемыми параметрами, окружением, условиями), прокручивая жизнь объекта от рождения до уничтожения или модификации и обратно, по желанию.

У нас есть данные, с которыми мозг может оперировать. Может быть, он и не представляет чёткую визуальную картину в HD, или видеоряд, но мозг уверен, что он это каким-то образом видит, знает, что это присутствует, существует для него так же реально, как реален мир вокруг.

Но остаётся вопрос: как именно это реализовано? Как именно нужно обработать данные, какие именно нужно произвести над ними операции, чтобы добиться нужного результата?

У природы был огромный полигон и миллионы лет, чтобы оттачивать нужные программы и уничтожать тех, кто нужными программами не обладал. Хороший быстродействующий компьютер или кластер компьютеров может совершать подобные операции тоже довольно быстро, но хватит ли ему быстродействия и времени, чтобы быстро отсеивать тупиковые программы?

Нужно решить вопрос, зависла ли случайная подпрограмма, функция, привела ли она к "синему экрану" или нет. А для этого каждый компьютер в подобной сети должен отслеживать своё состояние и быстро, за наносекунды возвращаться в строй, сообщая, достигла функция финала и был ли получен результат, была ли перезаписана целевая ячейка или нет, подпрограмма дефектная, она приводит к зависанию или нет (но не делает ничего полезного).

Если бы компьютер никогда не зависал, если бы он предугадывал своё дальнейшее состояние и предсказывая своё зависание, умел бы "уворачиваться" от своей ошибки, от своего будущего, такой бы проблемы не существовало бы, программы бы просто останавливали ошибочные потоки или процессы, останавливали бы функции перед ошибками и таким образом могли бы отсеивать полезные куски кода от бесполезных.

Мозг часто бьётся над решением задачи, ответа на которую он не знает. Он часто заходит в тупик. Он может долго, годами не находить решения, пробует различные варианты, в том числе и перебор. Но у него уже много приобретённых подпрограмм, основа, которая выдаёт ему ассоциации, услужливо подаёт ему из памяти нужные и ненужные примеры, ситуации, воображает различные сценарии, как оно может быть или как оно быть не может, составляет списки, что можно попробовать, расставляет приоритеты. Эта основа довольно сложная, она возникла не в один момент, она развивалась.

Если нейросеть - это тьюринг-полная система, возможно ли создать вручную такие кластеры нейросети, которые не должны меняться и которыми, можно создать некоторый базовый набор абстракций, из которых уже построить основу, например, математики, логики?

Хотя бы для того, чтобы можно было элементарно посчитать количество элементов на поданной картинке? Посчитать и увидеть, что объектов стало больше, меньше?

Что этот объект больше того? Что этот объект увеличился, а тот уменьшился?

Что я увидел круглый объект уже 10 раз, а квадратный только 2 раза?

Какие квадратные объекты мне известны? Какие квадратные объекты я использовал/видел/вспоминал чаще всего за последние полчаса или день? Какие квадратные объекты имеют для меня повышенное значение, имеют более высокий приоритет?

И так далее. Смотреть, что нам нужно и генерировать куски нейросети для того или иного нужного нам эффекта, результата. Возможно, как-то переводя обычный код в нейросеть и обратно.

Можно ли на нейросети создать объект типа "ячейка памяти"? Создать функцию отвечающую за запись в эту ячейку и за чтение из неё? За сложение этой ячейки и другой? И так далее.

Если мы оперируем какими-то базовыми абстракциями с элементарным поведением, можем ли мы на основе подобных абстракций генерировать более сложные, со сложным поведением?

Можно ли на нейросети создать объект типа "ячейка памяти"? Создать функцию отвечающую за запись в эту ячейку и за чтение из неё? За сложение этой ячейки и другой? И так далее.

Я понимаю, что в мозге есть глагол создать и на карте он создает объект. Как таковая ячейка памяти, функция (запись, чтение) они в данном алгоритме бессмысленны, это ближе к классическому программированию. Сложение ячеек, умножение - мозг так вообще не работает, иначе бы мы легко бы делали эти операции. То же умножение, наши способности в уме практически ограничены таблицей умножения, ну можно в уме прикинуть столбиком, но мозг не на этом принципе работает.

Если мы оперируем какими-то базовыми абстракциями с элементарным поведением, можем ли мы на основе подобных абстракций генерировать более сложные, со сложным поведением?

В статье Теория эволюции и работы мозга есть рассуждения из которых выходит что сначала мозг обрабатывал поведение субъектов (живых существ, а оно как раз сложное), а потом деградировал до объектов с более простым описанием.

Про зависание мозга - эпилепсия

Ситуация (грубо говоря, какая-то комната или участок карты на улице) состоит из суммы каким-то образом расположенных рядом друг с другом объектов-предметов, абстракций и правил, по которым они могут переходить из состояния А в В, что позволяет предсказывать с той или иной правдоподобностью будущее, например, попадёт ли катящийся бильярдный шар в лузу или разобьётся ли падающая чашка и подготовиться к нему, либо представить то, что произойдёт в более отдалённом будущем или переживать уже произошедшие события, или вспоминать прочитанное, пересказанное или увиденное в кино.

Да

Про зависание мозга - эпилепсия

Это органическое нарушение, как пробой ячеек памяти. Именно зависание, без органического поражения, это фобии, шок, ступор, аффект, маниакальность да и сон в какой-то мере.

Сон в значении "сновидения"? Это разные вещи, которые нужно уточнять, ведь просто сон без сновидения это как (наверное, по крайней мере, по ощущениям) потеря сознания. А сновидение может быть вполне осознанным состоянием (которое как только станет управляемым, становится подобным размышлению), осознанным, как и катарсис, например, и благоговение.

В продолжение мыслей вот статья, мне кажется одна из лучших по ИИ

А какие другие варианты алгоритма универсального ИИ вам известны? Какие из них вы изучали, прежде чем решились предложить свой?
И чем он лучше, по сравнению с ними?

Я считаю что классический подход с нейросетями тупиковый. Он именно по сути работает на статистике и создает иллюзию разума.

Например, транзистор это аналоговая деталь, но несколько транзисторов становятся цифровой деталью (ячейка памяти). Может в мозгу нейроны объединены в такие структуры, которые подобны моему алгоритму.

Тем не мене ИНС распознают изображения лучше человека или работают с абстракциями в Го например. AlphaGo, например работает сразу в пространстве игры, минуя распознавание образов или обычное пространственное мышление. Круг от квадрата не отличит, но распознает миллионы позиций игровых на уровне недостижимом человеку.

В шахматах и в AlphaGo мы просто перебираем комбинации и пытаемся подогнать сцену из книг или из опыта. Но в этом нет практического смысла.

В старых книгах по ИИ часто встречается текст

сократ человек

человек смертен и т.д.

или что то про логические операции

Да это все нам не нужно, мы можем так думать, но практически в быту не думаем, в этих подходах нет практического смысла.

Даже в шахматах просто перебор не работает. И в Го не работал перебор, пока не появились нейронные сети. Это именно анализ игровой ситуации на уровне образов.

Человек кстати тоже перебирает варианты в уме и осознанно и на уровне подсознания.

По факту это тот же перебор, просто ты сжимаешь инфу в вектора.

Мысленный эксперимент, мол какое следующее слово будет если мы знаем предыдущие? Вот мы берём таблицу из 60К слов и делаем для каждой вероятность, круто мы можем предсказать по одному слову следующее. А что если мы возьмём два слова и попробуем предсказать следующее? Нам тогда нужна таблица в 60К^2, жирно да? Потому эти таблицы сжимают до векторов, а вот какой алгоритм лучше, отдельная тема.

Мол многие языковые модели в итоге выдают тебе? Вероятность и набор токенов которые прошли отбор.

Яндекс Балабоба так и делала возможно, иногда получались интересные фразы.

Или Яндекс рефераты, но там части предложений перемешиваются, проект старый, тогда нейросетей не было.

Человек тоже так делает при шизофазии. Связанная речь, но без смысла.

При этом имея контекст в +2к слов нейронка даже хорошие результаты показывать начинает. Там даже исследование было как ширина нейронок влияет на качество, и в целом увеличив мощь сети до пары сотен экзофлопс и вот мы можем генерировать практически идеальные ответы, будто человек говорит используя при этом лишь один простой алгоритм.

Как я знаю примерно на том же принципе работают ИИ в играх, запоминает 100500 игровых ситуаций а потом играет лучше человека. Притом зачастую багаюзает, как было со старкрафтом. Киберкотлеты разбирали, ИИ не понимал что делает. Играл так же как "ручной ИИ" только лучше понимал как юнитами в сражениях пользоваться.

" AlphaGo мы просто перебираем комбинации " - нет, не просто, если бы мы просто перебирали комбинации, то нам бы не хватило выч. мощностей и времени, т.к. мы бы увязли в комбинаторном взрыве.
" или из опыта " - так естественному разуму тоже нужен опыт, так что этот аргумент мимо

Тем не мене ИНС распознают изображения лучше человека

Возражаю.
Когда нейросеть сможет не только узнать на фотографии лодки лодку, но и хотя бы базово рассказать о её конструкции, модели, принципах действия, etc-etc, - это будет какое-то подобие полноценного распознавания, а не попугайство.
Сейчас зачастую достаточно перевернуть фото лодки вверх дном, чтобы у ИНС мозжечок заискрился.

или работают с абстракциями в Го

Возражаю.
Игра в Го - это игра в равновесие, присутствие и давление.
Причём, в принципе каждому этому понятию можно подобрать как численный эквивалент (как для конкретной точки на поле И её состояния, так и для какого-то фрагмента поля и его состояния), так и некий переносимый на проблематику реального мира смысл.
Игра в Го - вычислима. Интуицией и "талантом" же человек вынужден пользоваться в этой игре в силу недостаточности своей "вычислительной мощности".

это будет какое-то подобие полноценного распознавания, а не попугайство.Сейчас зачастую достаточно перевернуть фото лодки вверх дном, чтобы у ИНС мозжечок заискрился.

Да, человек не такой специализированный, в этом плюсы и минусы. Минусы в том, что иногда может нафантазировать то, чего нет. Эксперимент известный с определением характера по лицам, например. Если намекнуть что на фотографии положительный или отрицательный персонаж, все испытуемые додумывают черты характера которых нет. Ориентация лодки тоже признак, его можно учитывать, можно не учитывать. Перевернутая лодка и человека сбивает. Вот пример, мозг на ходу определяет улыбку без "переворачивания", а на самом деле это не улыбка.

Боюсь, Ваш аргумент - немного к другой проблематике.
Человек всё ещё может поискрить мозжечком минуту-другую и понять, что на самом деле изображено на фото (или понять, какой информации ему не хватает для принятия решения).
Текущие реализации ИИ/нейросетей так не могут.
Нейросети ограничены датасетами, на которых их обучали.
ИИ же - они в некотором роде ограничены восприятием строящих их людей. Человек решает за ИИ, как кодифицировать для ИИ информацию и какую информацию признавать достоверной, ооооох...

Нейросети ограничены датасетами, на которых их обучали.
ИИ же - они в некотором роде ограничены восприятием строящих их людей. Человек решает за ИИ, как кодифицировать для ИИ информацию и какую информацию признавать достоверной, ооооох...

Есть и общие черты. Человек тоже обучен на каких-то примерах, без обучения вырастает "Маугли". Обучение что-то дает, а какие-то возможности блокирует. Так же и не каждый человек может определить какая информация достоверна, часто верит на слово, считая источник информации достоверным, так проще.

ИИ обучен и предсказуем, вы считаете это минусом. У человека проявляется непредсказуемый "человеческий фактор". Иногда это в плюс, иногда в минус, вот примеры среди пилотов, лучших из лучших и отобранных после строгого отбора.

Тем не менее, человек как программа может сам себя писать - и принимать куски кода извне.

Нейросеть и ИИ - пока нет.

ИИ обучен и предсказуем, вы считаете это минусом.

Истинно.

Но я смотрю на эту проблему с непопулярной точки зрения. С той, о которой не говорят вслух.

Об этом есть очень хорошая мини-повесть "Двухсотлетний человек".

" по сути работает на статистике и создает иллюзию разума" - а что вы считаете не иллюзией? Самолёт и птица решают задачу полёта по-разному, но оба достигают своей цели, в чём по вашему состоит задача интеллекта? От этого ключевого ответа будет зависеть что вы считаете настоящим ИИ, не "иллюзией".
Какой у вас подход к разработке ИИ - «сверху вниз» или «снизу вверх»?
Почему не рассмотрели теорию AIXI? Там единая концепция и твёрдый мат. аппарат.

Эмм. в тексте очень много утверждений и про мозг и про понимание и т.д. Но очень мало пруфов и обоснований. На основании чего, каких научных работ по нейропсихологии и по нейробиологии, экспериментов написана статья? Потому что современные знания отличаются от написанного.

Статей про ИИ написаны уже тысячи, уже хватит, все ждут не статью, а программу с сильным ИИ. Почему вы сразу не написали что лично вам мешает сесть и написать программу ?

У меня тоже есть статья про ИИ - когда и как он будет написан. Нужен суперкомпьютер и полная симуляция реальности, в ней и будет происходить обучение ИИ как обучают детей с первого месяца жизни - https://aftershock.news/?q=node/718819

Нужен суперкомпьютер и полная симуляция реальности, в ней и будет происходить обучение ИИ

Что мешает использовать для обучения ИИ обычную реальность?

В моей статье есть ответ. Коротко тут не ответишь...

можно обойтись и обычным компьютером используя игру GTA5. по сути это и есть современная симуляция реальности на которой можно начать тренировки. останется написать персонажа со сложными характеристиками. вероятно если нужен ИИ похожий на человека, то скорее всего его мыслительный процесс и должен быть похож на поток мыслей человека. т.е. у разума должны быть какие никакие эмоции (зависящие от значений параметров в разный момент времени- параметр гормон1, параметр гормон2 и прочие характеристики человека- тонкая настройка которых и приведет к особой индивидуальности испытуемого), особенности характера, индивидуальные физиологические особенности. в памяти не весь багаж знаний мира а основная база, которую интеллект сам должен пополнять изучая окружающую действительность. Скорее всего это не будет классическим ИИ, а будет представлять собой сложный скрипт анализа и поиска информации.

можно обойтись и обычным компьютером используя игру

Зачем надо использовать игру с симуляцией реальности вместо обычной реальности?

Предполагалось что в таком виде будут наименьшие затраты на начальных условиях. +Удобство и тонкая последующая настройка алгоритма. Если же говорить о настоящей реальности и попытку в той же степени воспроизвести обучение похожее на человеческое-то как мне видится тут нужен современный андройд с запущенным алгоритмом на своем обрабатывающем устройстве. Наврядли у автора будет в ближайшем будущем такой андройд (даже наврядли у кого то в нашей стране в ближайшем будущем), поэтому симуляция реальности в игре мне показалось наиболее перспективной на ближайший промежуток времени.

тут нужен современный андройд с запущенным алгоритмом на своем обрабатывающем устройстве

Не нужен, делаем минимально простую конструкцию, которая может двигаться, на нее ставим камеру и микрофон, все данные передаем на сервер.

в этом то и прикол что минимально простая конструкция не подойдет. тогда и будет минимально простое развитие ограниченное физической конструкцией. мы же не можем получить опыт приближенный к человеческому для двигающейся машинки с камерой?мне кажется максимально нужно приблизить как физический объект так и окружение. больше того я думаю нужно моделировать работу самих нейронов, как они передают информацию, как сохраняют и прочее. как например в проекте https://ru.wikipedia.org/wiki/Blue_Brain_Project

Так и в игре у моделей минимально простая конструкция.

Я бы не сказал что в игре GTA5 поведение NPC минимально простое. В любом случае можно использовать моды для настройки или в конце концов с локального использования перенести развитие интелекта в GTA online, где уже ввшло много DLC прокачивающих поведение ботов

Так я не про поведение, а про конструкцию тела робота. В игре конструкция моделей относительно простая, поэтому если сделать простую конструкцию в реальности, отличий не будет. Зато не надо будет моделировать виртуальную реальность.

В моей статье есть ответ.

Там нет ответа, поэтому я и спросил. Там есть только утверждения вида "Обучать ИИ проще всего поместив его в виртуальную реальность" без каких-либо доказательств.
Вы пишете про то, зачем ИИ нужен опыт взаимодействия с физическими явлениями, но ничего не пишете про то, почему нельзя использовать реальные физические явления, а надо обязательно их моделировать на компьютере.

В статье я пишу что человек имеет в голове симуляцию реальности и живёт в ней, при этом ему кажется что это и есть реальная реальность. Для ИИ тоже надо такую создать. И мысленное тело есть у человека чтоб представлять свои будущие телодвижения, для ИИ нужно создать виртуальное тело. Это база чтоб уметь учится и думать. Выход в реальность в реальном теле будет для ИИ лишь дополнительной возможностью.

В статье я пишу что человек имеет в голове симуляцию реальности и живёт в ней, при этом ему кажется что это и есть реальная реальность. Для ИИ тоже надо такую создать.

Ну так если человек создает симуляцию реальности, наблюдая за настоящей реальностью, то и ИИ может ее создавать таким же способом. Зачем ему наблюдать именно виртуальную реальность?


для ИИ нужно создать виртуальное тело

Ну вот опять. Почему нельзя создать для ИИ настоящее тело?

Потому что у человека к глазам прилагается мозг, умеющий создавать мысленную копию реальности (особенно хорошо это видно во сне), а у робота что прилагается к камерам ?

Автору бы чего по физиологии аудио визуального восприятия почитать в частности, ну и о нейрофизиологии вообще...

Сова пищит, глобус трещит, а теории не видать, сплошной набор определений, которые если бы и соответствовали действительности, то всё равно при таком подходе стремились бы к бесконечности без намёка на генерализацию.

Рассмотрим понимание мозгом цветной плоской картинки - это двухмерная сеть из нейронов, в каждом нейроне есть цвет пикселя, нейроны объединяются в зоны одинаковых цветов.

Это единственная фраза в статье, которая пытается описать механизм понимания мозгом чего-либо. И описывает в корне неверно, так как нейроны в мозге формируют далеко не двухмерную сеть. Дальнейшее повествование является описанием разнообразных примеров "понимания" мозгом объективной реальности, данной нам в ощущениях, которое в отсутствие внятного описания собственно процесса "понимания" какой-либо практической ценности не имеет.

В мозге есть механизм понимания идеи - переход к более общим глаголам и замена конкретных объектов на общие понятия с пониманием сути этой ситуации.

Звучит не как описание конкретного алгоритма разума, а скорее как констатация факта, что разум - предмет тёмный, и исследованию не особо поддается.

Данная статья - это скорее некое описание синтаксиса разума. Да, у нашего разума есть представление об объектах, о возможных действиях с этими объектами, он умеет в причинно-следственную связь, способен помнить состояние этих объектов в течение времени и даже представлять состояние этих объектов в будущем и еще многое другое. Это все известно, при том, что не является ключевой особенностью нашего разума. Более того, каких-либо конкретных алгоритмов реализации даже этого базового функционала разума в статье по сути нет, слишком громкий заголовок для поверхностного содержания.

Жаль что статья основывается на константах, которые таковыми не являются. Работа мозга - это статистические выборки, то есть у человека А и человека Б всегда всё по-разному, но по статистике они скорее одинаковы, чем различны. Поэтому интерпретации (а мозг именно что занимается интерпретацией) цветов, звуков, вкуса, образов у разных людей разные.

Например интересный факт, что человек может не видеть объект например на дороге, хотя он "видит" то что за объектом, точнее мозг ему достраивает образ так, что человеку кажется что он видит полную картину и в ту же секунду - ДТП и "он появился из ниоткуда" или "я её вообще не видел", потому что фраза - не верь глазам своим, весьма ёмко описывает сам процесс - мы вынуждены верить и по статистике мы чаще всего получаем верную информацию.

Автор через строчку использует термин "понимание". Может ли он дать определение термину не прибегая к логической тавтологии ? человек - наблюдатель понимает логику ходов AlphaGo или AlphaStar ? А сама ИНС понимает эту логику ? Это все к тому, что смешивать махровый субъективизм с механицизмом - бесполезно. Это легкий путь, но тупиковый. И почему то именно информационщики опять хотят населить биологию "Духами " субъективизма типа сознания и запустить кризис в объяснении поведения живых организмов по новой.

P.S. мозг ничего не "понимает". Это просто очень большая популяция клеточных машин прошедшая отбор на выживание в еще большей среде через сцепление друг с другом по принципу Хебба . "shut up and count"

НЛО прилетело и опубликовало эту надпись здесь

то что он работает именно так как я написал, это конечно гипотеза, но ведущая . Сопоставимо с "Big bang" в космологии например.

Скажу честно , не углублялся в область работы мозга, с научной точки это очень сложная и наименее исследованная тема, но будучи знаком с эволюционной биологией, думаю, что автор пытается притянуть работу мозга интеллект и сознание на бинарно-програмный интерфейс сегодняшних машин Тьюринга . С моей точки зрения работа мозга как минимум ближе к квантовой машине, где работа каждого нейрона подобна волновой функции и их интерференция создает личность.

Потом, представление окружающего мира это сложный, фенотипически скорректированный комплекс(т.е. создавшийся на основе развития конкретного организма), состоящий из каких-то "паттернов" (сформированных от всех органов чувств- зрение, обоняние, тактильно-двигательной системы, пищеварительной, вкусовых рецепторов и тд и тп перечисление было бы долгим) еще и накладывающихся на друг друга во временной последовательности, плюс подкрепленной системой обучения. Почти уверен ,что для двух разных индивидумов восприятие одного и того же физического объекта , события или еще чего-то , очень разнятся с точки зрения этих "паттернов" и молекулярно биологического их сопровождения (ферментов, нейромедиаторов, белков регуляторов и тп).

Тот же рассматриваемый автором станок- у разных личностей даст абсолюно разную схему "паттернов", например для слесаря и для девушки станка не видевшей. Для первой личности слесаря звуковой ряд даст в разы больше чем для второй полное его "осязание" и "разглядывание". В то же время если со станком что-то серьезно не так , скорее всего поймут оба, первый базируясь на огромном наборе знаний, вторая на например "паттернах опасности" , в прямую к станку , отношения не имеющих.

В мозге существуют сцены..

не согласен, не хватило бы емкости мозга на все наши "сцены". Я бы перефразировал в " в мозгу существуют накопленные развитем 3х мерные слои связанных данных, которые получая на вход определенные сигналы на выходе выдают сложный комплекс ответных реакций.

Обратите внимание , пока неизвестно ни одной верифицированной работы где бы удалось декодировать "спайковую активность = поведение" in vivo, используя ИНС. Даже Deep Mind уже года 2 как убрала из своих обещаний такую задачу, после 5 лет активных попыток это сделать.

Статья фигня, но стоит сказать - ты близок к пониманию как оно работает. Но это лишь формальная модель которая ничего общего с реальной не имеет. Хотя кое-какие идеи работают но в другом месте, а вот какие я говорить не буду :Р

Микро подсказка - большая часть мозга заточена для трансформации информации а не для решения чего-то. Весь сенсорный опыт ничего общего с сознанием не имеет, оно только даёт категории которыми сознание оперирует. И статья буквально поясняет за сенсорику, хотя тут говорится про "понимание". Можно построить любую сенсорную модель, а вот реальное понимание уже будет работать на этом.

есть вера в "понимание и сознание ", но нет никаких экспериментальных аргументов в то что это физические сущности.

Конкретики ещё долго не будет, ибо деды даже сами не понимают как это работает. Но вот работающую модель по моделям "учёных-врачей" собрать можно уже сейчас. Просто я не понимаю почему все так вокруг животного мира крутятся когда у тебя под боком уже есть работающие модели-теории, просто их на язык матана перевести и всё.

Зарегистрируйтесь на Хабре, чтобы оставить комментарий

Публикации