All streams
Search
Write a publication
Pull to refresh
7
0
Александр Хомяков @Xom

AI-agents, RAG, NLP, Philosophy AI

Send message
«Программа, моделирующая гиперколонку неокортекса. Воспроизведение обучения, событийной памяти и функции гиппокампа». Чего она воспроизводит и в каком месте? Я могу тоже написать программу и сказать, что она воспроизводит мышление — калькулятор. Я открыл секрет работы мозга?
Вы не совсем верно понимаете фальсифицируемость — это не проверка на практике. Нефальсифицируемость — это когда на основании высказанного автором можно доказать и противоположное суждение. Или доказать вообще все что угодно. Вот тут это как раз в полный рост. Это такой прием схоластов или циганок. И только «проброска» автора как то их соединяет пседологическими рассуждениями. «Влияние творчества Евтушенко на производительность шахтеров Кузбаса».

Проверить же на практике или хотя бы смоделировать высказанное невозможно, потому что это догадки, причем основанные на совсем разных теориях, свести которые в одну логическую программу невозможно — это будет некая интерпретация, но не подтверждение гипотезы. Подтвердить можно только прямым опытом — на мозге или модели, которая выдает ровно тот же результат, что и мозг. Приложенные программы никакого отношения к работе мозга не имеют, то есть они что то демонстрируют, но ничего не могут доказывать, как хочется автору. Голограмма и волновое распространение если даже и есть, не значит, что оно есть в таком виде в мозге и что оно и есть механизм мозга, при помощи которого он работает (мыслит, запоминает, распознает). Автор не ссылается на исследования О МОЗГЕ. Он ссылается на теории, к нему не имеющие отношение.

Похоже на какое-то месиво, причем нескончаемое. В начале вроде был какой-то вопрос (о нейроне бабушки, который он заменяет другим процессом), но до ответа, как я не призываю автора, он не хочет даже доходить. Он постоянно пишет «в следующей главе, дальше все будет». А там опять ничего нет. Никаких ответов на все больше появляющихся вопросов. Похоже, что автор сам не знает ответ, а радость ему доставляет сами рассуждения. Но это бессмысленная работа, причем для читателей.

Думаю, в той части, которая так и останется ненаписанной :)
Где в тексте? Я вижу только ссылки на википедию, а не программу.

Вам бы еще сюда описание мозга как квантового компьютера с дуалистическими свойствами… )) Могу поспорить, что даже к концу описания, которое будет долгим, Вы не дойдете до конкретики, которую можно проверить или хотя бы фальсифицировать. Потому что ни во вступлении, ни в описании нет даже намека на это.
А где программа? Вы так часто на нее ссылаетесь, что уже ора представить. Иначе это голословное «доказательство». ТО есть вообще не доказательство.

По поводу голограмм и волн можно только сказать словами из известного произведения «Все смешалось в голове Обломова». Голограммы из Прибрама, клеточный автомат еще откуда-то, волны… И ничего нового, ничего имеющего отношения к работе мозга. Имею возможность судить.
В вступлении ничего нет о том, как вы собираетесь решить поставленную задачу, только обозначили, в чем она по вашему состоит. Это не абстракт и не аннотация. Как мне решить, стоит ли читать все это в таком объеме, особенно если на 90% это давно известные факты и теории.
А можно где то прочитать Абстракт на всю Логику сознания? Что хотите сказать — кратко в одном абзаце как это делают к научным статьям в уважаемых журналах? Или это невыразимо и надо обязательно читать весь цикл, чтобы узнать, что же Вы хотели сказать?
Вообще, если оно работает, и работает так же, как существующие сети, то не важно как оно работает, как мозг или не как мозг. Самолет тоже не похож на птицу, крыльями не машет, но летает быстрее и перевозит куда больше. Вы сделали другую архитектуру сети? Тогда она должна сразу быть лучше… Где можно посмотреть?
Вообще-то проще показать это в работе )) Будет намного быстрее, чем еще 19 частей. Оно же уже работает?
А в чем проблема все таки? Конкретно? Написано про нейрон бабушки, но чем он мешает достич результата? Ни слова. Нейрон бабушки давно уже подвергнут критике нейрофизиологами, так как на бабушку откликается как минимум сотня тысяч бабушек как оказалось. И вообще проблема поставлена чрезвычайно не точно. По сути вы написали — есть проблема, я думаю она в нейроне бабушки. А причем тут бабушка?

«Нам сами странно, но все это действительно очень хорошо работает :)» Странно то, что об этом больше никто не знает, нет восхищенных статей в Nature, посрамленных вашим гением ученых из лабораторий гугла, и сообщения в Блумберге о многосотмиллионной сделке о покупке того, что якобы работает )) Вы же их всех уделали!
«Если же там хранится набор данных что кот — это животное, кот не имеет крыльев и «правило», что животные(а может и не животные а вообще произвольные объекты) не имеющие крыльев — не летают».

Уже пробовали, в — Copreno от ABBYY с веселыми рассказами тут их онтоинженеров. Так не получится. Девид Ян угробил на 17 лет 300сот таких оноинженеров и еще полмиллиарда сколковских денег после этого и результат работы с такими выводами на онтологиях низкий. И при том, наверно понятно, что сеть не может ответить «нет». Это как раз и есть ВЫВОД. Его не натренируешь на текстах. Потому что слово «нет» отдельно одинаково встречается как отрицание всех закрытых вопросов. Мозг — это не набор правил. Это нечто другое, внешне похожее на правила. Правила — это всего лишь надводная часть механизма мозга. Итог, но не механизм его получения.
Ватсон больше хвастается, чем распознает болезни. Принявших к использованию их алгоритм медучреждений очень мало. И даже там где приняли, решение принимает все равно доктор. У них не больше успехов в распознании болезни, чем у сверточной сети по снимкам томографии.
Вот могу только согласиться почти со всеми приведенными доводами и поблагодарит за ссылку — к уровню пчелы уже приближаемся. Уточню только по поводу искусственного интеллекта — статья написана не как возражение против названия раздела copmuter science, а как возражение против наделения нынешних сетей достижением способностей человека. Да, в играх и зрении уже серьезные успехи, но это еще не интеллект в том смысле, которым обладает взрослый homo sapiens. Способ, которым достигнет сеть таких же способностей меня тоже не интересует, поезд тоже не похож на лошадь, а самолет на птицу, они просто быстрее и больше возят, чем лошадь. Но имитация должна достигать той же результативности, что и имитируемое. Желательно даже большей, что есть пока только в играх.

Про дорожный знак не соглашусь. Фича или баг? Скорее все таки баг. Вот тут еще Д. Ветров анализирует как раз статью про такие ошибки очень интересно: «В недавно опубликованной статье „Интригующие свойства нейронных сетей“, на первый взгляд, получено два удивительных результата. Во-первых, вопреки распространенному мнению показано, что выходы отдельных нейронов имеют не больше смысла, чем случайная комбинация выходов нейронов с одного слоя. Во-вторых, у популярных архитектур нейронных сетей, используемых для классификации изображений, обнаружены „слепые пятна“: достаточно внести неуловимое глазом изменение в правильно классифицируемое изображение, и нейронная сеть начинает грубо ошибаться на модифицированной картинке» (цитата с постнауки).
«Как попала фраза «изверги!» в ассоциативную цепочку? Да просто когда-то человек уже бывал в подобной ситуации — он услышал приблизительно ту же фразу про котят, после которой последовала фраза «изверги!»» Тогда надо, чтобы кто-то первым произнес «изверги!». А такого существа по Вашему описанию не существует. Еще у «мозга» можно спросить «почему изверги?» и «мозг» объяснит. Объяснение он тоже где-то ранее подслушал? Все таки процессы в мозгу сложнее. Он умеет делать выводы, рассуждать. Рассуждение — это «действие словами» (с). Человек умеет оперировать мысленными образами, а не только выдавать ранее увиденные или услышанные.
«А вот крыльев например у него нет — поэтому летать он не может». Таких логических выводов сеть не умеет делать, это наша интерпретация ее работы. У нее нет «поэтому». И даже если кто-то вне самой сети (например, человек) будет «оценивать смысл и адекватность выдаваемых нейросетью ответов», саму сеть это не научит «понимать» смысл. Она просто будет «угадываеть его». Надо бы разобраться, что такое понимание смысла. Пока этого не понимает никто, судя по результатам. Вот ниже у TimKruz неплохая попытка дать определение пониманию.
Сетей уже наделано не мало, но ни одна почему-то пока не научилась сама понимать язык. Чтобы она научилась, надо все равно сначала сделать соответствующую архитектуру. А значит надо сначала понять, какую архитектуру делать, а потом делать нейросеть (НН), которая уже «сама» научиться.

И многое зависит от того, как интерпретировать результат. Мы говорим, что НН распознала лошадь, например. Она просто выбрала выход Х, который мы (а не она) назвали «лошадь». НН о лошади представления не имеет. Мы создали интеллектуальную машину, понимающую, что она видит, или просто создали сложное «реле» со множественным входом?
Спасибо, читал отрывочно, Деннет — мой любимый автор с его интенциональным подходом к психики. Но все таки он пишет немного о другом. Отличие нейросети именно в структурном устройстве, выше тут смотрите комментарии ZhenyaZero и мой ответ ему. Причем эти отличия уже давно известны в когнитивной психологии, но почему то совершенно игнорируются программистами нейросетей. Междисциплинарность вопроса между тем очевидна.
В том, что Вы написали и современными нейросетями — огромная разница. Она именно в том, как Вы точно описали сам процесс распознания неизвестной картинки людьми.«мы определим её суть и назначение, отбросив неподходящие «выходы», придя к в итоге к одному или нескольким конкретным». Мы можем анализировать картинку и с одного образца научиться распознавать их в дальнейшем. Сети надо подсунуть их несколько тысяч минимум, чтобы научить. Вот тут есть отличная формулировка у ZhenyaZero.

На счет летать и «не интеллект, а органы чувств», так мы и их еще не умеем повторять, а то, что человек не умеет летать и поэтому не приспособлен к полету — ничего странного нет. Зато бегаем быстро. Речь не о приспособленности, а о приспособляемости.
Евгений, Вы очень точно выразили самый существенный на сегодня недостаток нейросетей, который не позволяет им носить гордое имя «интеллекта». Дело именно в том, что в мозгу есть нисходящие и восходящие потоки, взаимодействие который и приводит к постепенному выбору наиболее вероятной модели (концепта) «лошади», а все что в нее не вписалось (разница восходящего и выбранного нисходящего образа) вычленяется в отдельный образ или помеху. Именно поэтому мы видим все таки «лошадь», но с пятой ногой. Это можно почерпнуть еще у У. Найсера (1970-е) в его известном треугольнике восприятия.

Кроме того, именно эта особенность не позволяет нейросетям быстро обучаться. С. Пинкер писал, что ребенку не хватило бы всей жизни, чтобы встретить в своей жизни столько разных картинок одного и того же, чтобы научиться их распознавать (цитата не точная). Собственно и Н. Хомски говорил ранее об этом же, только применительно к языковой компетенции. Ребенка распознанию нового образа можно научить, просто рассказа ему, что это такое. ОДИН РАЗ! И никто этой разницы нейросетей и мозга той мыши не учитывает. А это только один из моментов, есть еще много других принципиальных отличий. Недавно на TED появилось видео, где гугловцы научились генерировать картинки, возбуждая наученную ранее сеть (не без наших соотечественников обошлось, что приятно). Это первый шаг к нисходящим. Так что движение в верном направлении уже есть…

С вашего позволения, я вставлю Ваш ответ в сам пост как отличный его итог, который я и хотел получить. Со своими дополнениями, если Вы не против.
Вы наверно имеете ввиду Сильный и Слабый ИИ в определении Серла. Вы считаете, что ИИ достиг уровня имитации? Попробуйте поговорить с Siri. Станет скучно на 30 сек. Или задайте перевод научной статьи Google. Если не в теме, ничего не поймете. Хотя может быть для диалога и перевода как раз требуется Сильный (иногда говорят «полный») ИИ. И тогда Вы правы.

Information

Rating
Does not participate
Location
Санкт-Петербург, Санкт-Петербург и область, Россия
Date of birth
Registered
Activity

Specialization

Chief Product Officer (CPO), ИИ агенты
Lead
From 500,000 ₽
Project management
People management
Development management