Как стать автором
Обновить

Комментарии 75

Как-то оборвалось неожиданно…
Да, я даже невольно убедился, есть ли коннект…
Как-то автор начал обработкой текстов, а закончил — искусственным интеллектом (причем в изначальном, усложненном, понимании).
Не понял, о чем статья, что именно понимается под «компьютерной лингвистикой», и о каком тупике идет речь (наоборот же, сейчас подъем скорее и заметные проекты вроде IBM Watson или Siri, чего в предыдущий десяток лет не было). То, что упрощенные средства решения задач имеют ограничения — это понятно, но почему считать «компьютерную лингвистику» наукой только об упрощенных средствах решения? Одно строится на основе другого, сначала разрабатываются базовые инструменты и подходы, потом более продвинутые.
Я просто оставлю это здесь…

«В феврале 2011 года для проверки возможностей Уотсона он принял участие в телешоу Jeopardy!.[3] Его соперниками были Брэд Раттер — обладатель самого большого выигрыша в программе, и Кен Дженнингс — рекодсмен по длительности беспроигрышной серии. Уотсон одержал победу, получив 1 миллион долларов, в то время, как Дженнингс и Раттер получили, соответственно, по 300 и 200 тысяч.»
www.youtube.com/watch?v=WFR3lOm_xhE

Расскажите IBM про то как компьютерная лингвистика ичерпала себя…
Дело в том, что IBM, как раз, не надо ничего рассказывать. Эта компания и так всё знает. Для того, чтобы удостовериться в этом она положила 10 миллионов баксов. Что такое Watson и SIRI? Обыкновенные QAS — вопросно-ответные системы. То есть, несколько модернизированный поисковик Google, основанный на выявлении «ключевых слов» в естественно-язычном запросе, на которые заготовлены соответствующие ответы. В принципе, это и есть компьютерная лингвистика и это её потолок в виде обыкновенного чатбота с огромной базой ответов.
Но с этой технологией не подойдешь даже близко к проблеме машинного перевода. Ни синтаксический парсинг, ни семантическая сеть, ни «статистическая модель», ни какие-либо другие ухищрения не позволят компьютеру «понимать смысл текста (контекста)», без чего невозможен адекватный перевод.
Технология Compreno тоже из этой серии. Она может улучшить качество «лингвистического перевода» лишь на пару-тройку процентов — с 50% до 53%. И всё!
Обожаю теоретиков.

Задача Watson — отвечать на вопросы, основываясь на автоматически собранной базе знаний. Задача Siri — обеспечить естественноязыковой интерфейс к функциям устройства. Обе программы свои задачи решают вполне успешно, побеждая в соревнованиях даже самих людей. В чём же тогда проблема с этими программами, и почему IBM «положила» 10 млн баксов?

Compreno — я так понимаю, вы уже успели попользоваться ей, а также заглянуть в исходники, раз делаете такие выводы?

По поводу «понимания» текста я уже писал. Судя по всему, в этот раз всё тоже сводится к погоне за каким-то полумифическим «смыслом» — суть понятия никто сформулировать не может, но все уверены, что машина его постичь не сможет. Ну если вы не можете определиться, чего вы от машины хотите, то конечно она этого не сможет достичь.

Напоследок продублирую анекдот из предыдущей ветки:

Математик и инженер принимают участие в психологическом эксперименте.
Их посадили в с одной стороны комнаты и они ждут, не подозревая, что случится потом.
Дверь открывается и в комнату входит обнажённая женщина и встаёт вдали от них. Испытуемых предупреждают, что каждый раз, когда они слышат сигнал — они могут пересечь половину расстояния, оставшегося до женщины.
Тут же они слышат сигнал, инженер одним прыжком преодолевает половину расстояния, а математик, со скучающим видом остаётся сидеть. Когда и после второго сигнала математик не шевельнулся, инженер поинтересовался, почему он не бежит.
— Это от того, что я знаю, что никогда не достигну женщину.
Инженер на тот же вопрос ответил так:
— Потому что я знаю, что уже очень скоро я буду достаточно близок для любого практического применения!

Посмотрите какие стихи пишет нейросеть и поймете, о каком смысле пишет автор. Ватсон — чисто техническое решение, к запросе не имеет отношения. Трюк. Потому и не имеет как видите прямого применения как диалоговая машина. Но автор и не предложил ничего внятного, хотя правильно поставил вопрос.

Пост выглядит более чем странно спустя пол года после того, как была представлена потребительская (!!!) технология на основе этой самой лингвистики, систем знаний и даже распознавания речи до кучи. (Если кто не понял — я про Siri).
Могу, естественно, сильно промахнуться, но проблема не в том, что эти области не двигаются, а в том, что двигаются они не у нас и найти вменяемую литературу на русском в принципе проблематично (если не брать какие-то обзорные труды, наподобие того же Люгера)
ABBYY сейчас активно развивает эту тему, рискну предположить, что у них есть какие-то публикации на русском.
Единственная публикация, которую я видел из абби — это статья Голубицкого про презентацию технологии. Если будут еще адекватные — не сочтите за труд, поделитесь )
Договорились :)

Вы сами пытались беседовали с siri? Она ничего не умеет толком, поддержать диалог может только на простые заложенные заранее темы. Это не бот, а сплошная имитация.

А где выводы, ссылки, результаты?
Я так понимаю, это очередной пост о проблемах компьютерной лингвистики от человека, который сам ею никогда не занимался?
Автор весьма известен всем, кто вовлечен в разработки в области компьютерной лингвистики. Узнать об этом можно на сайте AOT.RU.
>… на сайте AOT.RU

О котором тоже никто не знает ;)

По делу ответил выше.
Ну кстати, это Вы зря. Про АОТ все-таки многие знают, как-никак машинный синтаксис русского языка, морфология там всякая и вообще полезно :)
Другое дело, что и автор сайта, и многие его коллеги давно и успешно работают в прикладной области (сейчас по большей части в Яндексе). А вот у автора поста в далеком конце 90-х с ними ничего не получилось. Я бы на его месте тоже разочаровалась.
Да я, собственно, иронизирую. Просто я не очень люблю, когда люди пытаются доказать свою компетентность известностью в узких кругах. Слишком уж много контрпримеров на моей памяти.
У меня было такое подозрение, но я решила на всякий случай поработать КО, а то вдруг кто-нибудь Вам поверит :)
Значительные проблемы, стоящие перед нами, не могут быть решены на том же уровне мышления, на котором мы их создали. Альберт Эйнштейн
На мой взгляд в России компьютерная лингвистика только сейчас начинает проходить в общие массы, т.е только сейчас её пытаются преподавать.
И прав safright, что на русском литературы почти нет. это либо полукустарные публикации студентов во внутреуниверситетских изданиях, либо публикации крупных коммерческих компаний, которые не очень хотят делиться опытом).
Преподавать начали очень давно, лет 50 назад. А вот потом устарели, отстали от современных западных исследований, как и во многих других областях.
Сейчас пошла новая волна в попытке качество этого образования улучшить, потому что как раз вырос спрос на таких специалистов.
Про публикации — в точку.
НЛО прилетело и опубликовало эту надпись здесь
1. Компьютерная лингвистика совсем себя не сичерпала. Из последниз примеров, использование deep learning для распознавания текста.

2. Вы описали только одну теорию естественного мышления — их значительно больше.
Набрал в Гугле «Теория естественного мышления». Ничего не нашел или плохо смотрел. Может быть, у Вас что-то есть? Буду признателен за помощь.
так, может я перепутал естественное мышление и мышление вообще? т.е. термин «естественное мышление встречается» в русских текстах.
А вот теорий сознания — пруд пруди: en.wikipedia.org/wiki/Theory_of_mind
Ситуация такова, что Theory of Mind не рассматривает процедуры мышления. Это больше философско-психическая научная дисциплина, совершенно не изучающая принципы мышления.
группа наук под общим названием cognitive sciences как раз занимаются мышлением, ну т.е., процедурами мышления.
Ах, если бы это было так! Вы могли бы навскидку назвать 3-4 процедуры мышления, которые установила cognitive sciences? Может быть я их пропустил, не заметил…
В бытность сдачи экзамена по философии переводил статью Mind Architecture and Brain Architecture — On the claims made for a general synthetic model of consciousness. Там приводилось две теории: connectionism и cognitive functionalism. Если интересо — причешу перевод, так мой английский все же стал лучше за 5 лет — выложу в виде статьи на Хабре.

Будет интересно ещё раз убедиться в том, что мышлением в процедурном плане никто ранее пяти лет назад не занимался. В 2007-2008 годах, когда я стажировался в MIT, брейнетика только-только зарождалась и сейчас делает свои первые шаги.
Так, что такое процедура памяти я не понимаю, поясните пожалуйста.
Теориями памяти неврологи занимаются с момента появление неврологии как науки — т.е. уже лет как 100 минимум.
Я не употреблял понятия «процедура памяти», но пользуюсь термином «процедуры мышления».
Ок. я не понимаю термина процедура памяти, поясните пожалуйста.
Вы хотели прояснить понятие «процедуры мышления»?

Да, поясните пожалуйста. Из вашего поста вообще ничего не понятно, далее не смотря на наличие образования по когнитивной психологии. Что такое МПО, в совместной компьютер сайнс и когнитивной психологии нет такого понятия. И вам в любом случае придется решить вопрос что такое память.

Слишком громкий заголовок и слишком мало конкретики.

Что понимается под обработкой текста? «надлингвистических технологий, способных осуществлять анализ… подобно тому, как это делает человек» — А оно нам так нужно? Мышление человека далеко не идеально, имеет свои «баги» (http://goo.gl/Z7ij) в чем смысл пытаться его продублировать в точности? И гарантирует ли это решение прикладной проблемы понимания человека машиной, ведь зачастую это проблема неспособности объясниться самого человека, которого не то что машина, но и другие люди не поймут.

Доцца аьлча, я согласен с Норвигом в том, что ИИ уже есть, только он отличается от массового представления о Skynet: goo.gl/V33Xk

Анализ мошейничества — это не ИИ. Она не может поддержать диалог с человеком. Это и требуется. Да. Совершенно не обязательно платят как делает человек. Самолет тоже не птица. Но он должен летать, а не антивирусом работать.

Ну в таком случае и все другие области, касающиеся распознавания текста, изображений, объектов в 3D, речи, музыки и других, где человек показывает преимущество над компьютером, также зашли в тупик по причине того, что в существующих алгоритмах не строится модель знаний о мироздании и не используется осмысливание информации, в соответствие с контекстом.
Речь идёт о компьютерно-лингвистических технологиях, призванных для распознавания СМЫСЛА текста и, соответственно, для извлечения ЗНАНИЙ из текста. В этом отношении компьютерная лингвистика ипотентна. И эту свою неспособность к смысловой обработке текста лингвисты пытаются компенсировать различными логико-математико-статистическими ухищрениями.
Что касается графического или аудио-визуального распознавания, то здесь ни лингвистика, ни мышление ни при чём, поскольку в этих процессах участвуют технологии совершенно иного рода.

Ну тут правильно ответили, что никто не знает, что такое смысл, хотя все чувствуют, когда его нет. Так что сначала стоит его как то опередить. Пока и Вам этого не удалось. Кстати, наличие смысла важно и для понимания картинки, так что вы зря по другие технологии. Собственно мозг изоморфен функционально, так что методы работы у него универсальны как и строение коры

Человек «мыслит мыслями» (тавтологично, но верно)!
Если мысль индивидуума нужно донести до другого собрата, то данную мысль автор кодирует с помощью языкового инструмента. Было бы прекрасно (или ужасно), если бы люди умели телепатически читать чужие мысли.
Итак, закодированная в сознании автора мысль, излагается адресатам вербально, эпистолярно, жестами… в каком-либо сообщении, а реципиент должен восстановить, то есть, декодировать такое послание, чтобы восстановить авторскую мысль, иначе — это процесс называется «сомыслием». Отсюда выпочковался термин «смысл», то есть, авторская мысль (мем) после процесса дешифровки, по другому — «извлечения смысла».

Это вы про понимание при коммуникации. Про языковые конвенции. Смысл же — это как раз то, что кодируется в слова, то есть ДО коммуникации. Смысл же присутствует и для меня, когда я молчу. Вы же знаете наверняка про методы типа w2v. Но дистрибуции слова в его окружении недостаточно для передачи «смысла», грамматику она не учитывает, например.

Фишка в том, что чтобы декодировать смысл, то бишь, понять авторскую мысль или ЗАМЫСЛ (без «е»), необходимо иметь ЗНАНИЯ!
Процесс извлечения смысла из языкового сообщения происходит исключительно при помощи Знаний. Нет знаний, нет и понимания смысла.
Отсюда вывод, чтобы машина (Яндекс, Гугл...) могла понимать (извлекать смысл), она должна ОБЛАДАТЬ Знаниями!
А может ли современный комп оперировать Знаниями? Нет, не может, так как всё в нём заточено под управление ДАННЫМИ. А Данные не есть Знания.
Вот когда научим машину оперировать Знаниями, тогда и сможем научить «понимать смысл».
Впрочем, одно Знание всё же имеется во всех машинах — это импликативный оператор: «Если ..., то..., иначе...». Но это так мало…

Тогда встает вопрос, что такое «знание» и чем оно отличается от «управления данными» настолько, что в знаниях появляется смысл. Нейросеть обладает знаниями например? Сверточная, например, распознающая собаку. Или рекурентная, отвечающая на вопрос.

1. Понятие Знание не тождественно семантически понятию «управление», поэтому здесь не следует искать «отличий». Эти термины из разных категорий.
2. Более верно сказать — управление Знаниями и управление Данными. Знания и Данные отличаются также, как Система отличается от Элемента. Знания состоят из Данных, но не наооборот, также как Система состоит из Элементов.
3. Информационное естественно-язычное текстовое Сообщение можно рассматривать как Систему или как Знание. В таком Сообщении в роли Элементов или Данных выступают Слова, с помощью которых кодируется Мысль автора Сообщения.
Заметьте, если Мысль (Смысл) была бы тождественна одному Элементу, одному Данному или одному Слову, то все Сообщения состояли бы из одних единственных Слов (Элементов, Данных).
4. Поскольку любая Система — это уже, априори, есть набор Элементов, функционально связанных между собою, дающих этому набору новые качественно-количественные и формо-сущностные особенности, не свойственные одному Элементу или нескольким Элементам, не имеющих между собою функциональных связей, то Знание — это Система Данных, имеющая новые свойства и способности в отличие от своих составляющих. Отсюда вытекает важное следствие — оперировать Знаниями, значит, оперировать Системами Данных в комплексе, а не суть самими Данными.
5. Как следствие всего вышесказанного остаётся лишь найти МАШИННЫЙ ФОРМАТ хранения и оперирования Знаниями и тогда можно будет говорить о «понимании смысла запроса» поисковой машиной.
Это все понятно, хотя Фреге утверждал, что смысл сообщения есть сумма смыслов его составляющих. Вы же упираете на коннективизм, я тоже уверен, что именно связи или «функционализм связей» создает «смысл», если к этому добавить вероятности/статистику связей. Собственно отсюда и мой предыдущий вопрос — нейросеть содержит смысл?

А машинный формат искать рано, ибо непонятно все равно, какими связями отличается знание/смысл. Вот в нейросети связано… смысл появился? Би-триграммные модели — это тоже связи. Связи есть, а смысл? И между чем связи то… фонемы, морфемы, лексемы, синтагмы, клаузы, предложения, абзацы. Все связано, и все имеет семантическую нагрузку («семантическую ось» (с)), начиная с морфем. Так что вопрос не в машинном представлении, а в понимании как связи создают смысл. Но у Вас нет ответа на этот вопрос, я понимаю, как и у меня. Его ни у кого пока нет. Понять бы хотя бы направление…
/Фреге утверждал, что смысл сообщения есть сумма смыслов его составляющих./

Согласно Фреге получается, что каждый Элемент обладает Смыслом. Повторяю мысль из предыдущего поста — «Если каждое Слово обладало бы Смыслом, то не было бы резона лепить из них Систему, иначе любой словарь представлял бы собою набор смыслов, чего нет, на самом деле. Просто люди часто путают семантисы слов, употребляя сплошь и рядом одно какое-нибудь слово для разных случаев. Например, говорят: „не вижу смысла“ в тех случаях, когда верно было бы сказать: „не вижу резона, не вижу ассоциации, не вижу цели...“ и так далее.

Вот пример: „леса. из. шёл. Петя. удочкой. с. домой.“
По отдельности, эти слова могут только обозначать что-то элементарное. Имеют ли они какой-либо „смысл“? Нет, конечно! Но лишь в связках между собою они начинают проявлять авторскую мысль, которую мы легко восстанавливаем: „Петя шёл домой из леса с удочкой“.
Другой пример: „запах вкуса видит слух“. Здесь по Фреге „сумма смыслов отдельных слов“ должна дать общий смысл.
Третий пример, что, например, может дать набор слов: „песок. цемент. вода. галька.“? Ведь, это может быть и стена, и фундамент, и пол, и многое чего другого.
Я бы не увлекался особенно Фреге.
Я бы не увлекался особенно Фреге.


Я же написал выше, что «я тоже уверен, что именно связи или «функционализм связей» создает «смысл»». Так что совсем не увлечен Фреге за очевидностью Ваших примеров. Эмерджентность связей «в целое» с новым смыслом никто пока не отменял. Именно в этом проявляется «функционализм связей».

Спасибо за интересные примеры. Так понятней Ваши мысли. Каждое слово все таки обладает своим смыслом в наиболее привычном для нее контексте, подразумеваемом по умолчанию. «Дом» вполне имеет смысл и без других слов для меня так как активизирует в мозгу (или в ментальном пространстве) весь контекст связанных с ним у меня других слов, каждый со своим еще смыслом (город, вид дома, подъезд, квартира, семья, друзья и т.п.). При сложении слов вместе возникает НОВЫЙ эмерджентный смысл из их сочетания, отличный от «смысла по умолчанию» каждого отдельно. «Дом престарелых» — это уже не мой дом. Пока по крайней мере ))
Есть две дихотомические категории людей, занимающихся данной проблемой. Первая — считает, что каждое слово имеет смысл.
Вторая — к которой отношу и себя — что отдельное слово не имеет никакого смысла! Слова имеют только ЗНАЧЕНИЯ КАК ОБОЗНАЧЕНИЯ чего-то.
Значения и обозначения совершенно не адекватны тому, что понимает вторая группа «энтузиастов не пойми чего» в отличие от первой.

Слова это просто идентификаторы чего-то! С их помощью в сознании устанавливаются АССОЦИАЦИИ с/между Образами уже имеющихся там предметов, явлений, фигур и процедур. Машина пока такого не делает.
В теории, которую разрабатывает наша группа, принято считать, что любая Мысль являет собою Образо-Акциональный Переход из какого-либо начального состояния Объекта в конечное состояние. Итак, Мысль это описание словами Перехода Образа, совершающего какую-либо Акцию. Если нет такого перехода, значит, и нет самой Мысли!
«Палка», «кривая», «быстро», «очень»… во всех этих словах нет ни грана Мысли, значит, и нет самого Смысла. Возьмём пары: «палка кривая»; «быстро очень»… Вроде чего-то с чем-то ассоциируется, но нет Мысли. А теперь добавим к ним Процесс — "плывёт".
И сразу, как на фотобумаге, проявляется и Мысль и соответствующий ей простейший Смысл: «Палка плывёт». Далее уже идёт прорисовка Мысли (Смысла) — «кривая палка плывёт»; «палка плывёт очень быстро»… Таким образом появляется переходный процесс (Акция), когда Образ в сознании совершает Акцию — переход из одного состояния в другое. Даже если «шляпа висит на гвозде» — всё равно это процесс, хотя и стабильный.
Вы излагаете своими словами треугольник Фреге. Но в нем три, а не две стороны. Это к слову. Акциональность мысли в Вашем изложении — это тоже давно известная вещь, см. тема-рематическое членение. И ассоционизм тоже. Вы же все это пытаетесь выразить на каком-то метафизическом языке, хотя есть уже разработанный научный. Вы пишите «С их помощью в сознании устанавливаются АССОЦИАЦИИ с/между Образами уже имеющихся там предметов, явлений, фигур и процедур». А что такое Образы и предметы в мозгу? Предметов там точно нет, не влезут все в черепную коробку )) Вы опираетесь на какие-то исследования, известные технологии, фреймворки? Наверно, лучше говорить и строить что-то на их основе, а не изобретать свою метафизику, которая априори невоплотима. Ибо неконкретна и не опирается на известное (и воплотимое).
Предметов в мозге, конечно, нет, если не считать предметами клетки мозга, из которых он состоит.
Я пишу: «Образов уже имеющихся там предметов...» В русском языке, если после слова «Образов» нет запятой перед причастием «имеющихся», то причастие относится не к последующим словам «предметам, явлениям,...», а к определяемому слову «Образов». Спишем на Вашу невнимательность, а не на грамотность.
И потом, я говорил о «сознании», а не о мозге. Тоже невнимательное прочтение.
Вы пишите о смысле предложения. О ее собственном смысле. Он, конечно, появляется только при сложении слов, причем как Вы верно подчеркнули, только при правильном грамматическом сложении, что говорит о важности грамматики, а не только семантики (w2v уплывает поэтому в песок). Но это совершенно не значит, что у самого слова нет смысла, и он только знак чего-то. Нет цели Вас переубеждать, просто почитайте Соссюра или того же Фреге, да в общем-то любой учебник по семиотике. Слово всегда подразумевает контекст, в котором мы его мыслим, которое оно активирует при его припоминании. Никто не может этого избежать. Для сравнения есть бессмысленные слова, бабагай, вот у него нет смысла, пока я не сказал, что это такое из известного Вам )) И то, Вы уже по морфемному его окончанию догадываетесь, что наверно это название…
Нейросеть обладает знаниями например?
1. Так называемые «нейросети» обладают способностями устанавливать ЗАКОНОМЕРНОСТИ в потоке Данных. Например, изображение в каком-либо графическом формате является Массивом Пикселей (Данных). Поток Пикселей, обрабатываемых алгоритмами, выявляющие различные «МЕРНОСТИ», может выявлять какие-либо Закономерности СТАТИСТИЧЕСКОГО порядка. Если число статистических факторов «говорит» о том, что на изображении, скорее всего, собака, это не значит, что прога понимает изображение как человек.
2. Единственное, что на сегодня машина может с уверенностью ПОНИМАТЬ, так это распознавание Пикселя. Не больше. Распознавать Знания никакая нейросеть, надстроенная «семантической» или иными видами «сетей» на сегодня не способна, хотя бы потому, что нет пока разработанного формата «Знаний» для компа. Форматы Данных есть, а вот, для Знаний ещё не придумали, хотя много думают, в том числе и я.
Может, Вам повезёт больше и именно Вы придумаете Машинный Формат Знаний — МФЗ!
Поток Пикселей, обрабатываемых алгоритмами, выявляющие различные «МЕРНОСТИ», может выявлять какие-либо Закономерности СТАТИСТИЧЕСКОГО порядка. Если число статистических факторов «говорит» о том, что на изображении, скорее всего, собака, это не значит, что прога понимает изображение как человек.

А разве человеческое мышление работает как-то принципиально по другому?
На мой взгляд та же статистическая обработка. Чем чаще мы встречаемся с объектом, тем лучше его распознаем.
/А разве человеческое мышление работает как-то принципиально по другому?/

Конечно же, иначе! Полный аналог того различия, когда вычисляет машина и человек. В первом случае используется метод с «плавающей запятой». Во втором случае сознание запоминает ответы для простых случаев и применяет алгоритмы в цифровых массивах.

В слове «распознать» заложен корень слова Знания. Мы понимаем и распознаём их не с помощью вычислений весов статистических факторов, а совершенно по-другому. Не хочу здесь говорить, как именно. Могу сказать только, что распознание объектов идёт с помощью Знаний. Если у человека нет Знаний, то он и не распознает чего-либо.
Мы понимаем и распознаём их не с помощью вычислений весов статистических факторов, а совершенно по-другому. Не хочу здесь говорить, как именно. Могу сказать только, что распознание объектов идёт с помощью Знаний.

У меня не очень глубокие знания в нейробиологии, но эти самые «знания» в мозгу на физическом уровне обеспечиваются сетью нейронов с множественными синаптическими связями, и вот эта самая система одновременного взаимодействия синапсов по сути очень похожа на систему «вычислительных весов».

Проблема Ваших рассуждений в самом подходе — Вы оперируете абстрактным понятием «знания», а интересней смотреть на саму суть физических процессов, как эти сами знания закодированы в мозгу, как они там формируются и обрабатываются и уже исходя из этого сравнивать их с тем, как дело обстоит в компьютерных системах.
Ещё лет 10-15 я тоже так думал, что Сознание — это Мозг, а Мозг это Сознание, что нейроны там и всякие синапсы лежат в основе человеческого мышления.
Потом пришло понимание, что Мозг это сугубо промежуточный инструмент между физиологическим телом человека и его ментальной сущностью — Сознанием!
Мозг это некая автомобильная коробка передач с датчиками параметров системы, которая передаёт импульсы нужного формата туда-сюда. Человек мыслит не мозгом, для меня и для многих серьёзных исследователей это уже доказанный факт.
Человек мыслит не мозгом, для меня и для многих серьёзных исследователей это уже доказанный факт.


Это многое объясняет )) Так бы и сказали, что Вы дуалист, и мыслите не в научной парадигме. На этом бы все и закончилось )) Да, если не трудно, перечислите «серьезных исследователей», которые так же думают как Вы? Что -то не встречал. Из серьезных, то есть признанных другими…
/Вы дуалист/

Точно! Мироздание дуально, диалектично, дихотомично. Оно не триально, неквадрально…

Из серьёзных исследователей назову, например, Татьяну Владимировну Черниговскую — известную ученицу Бехтеровой.
))))
Уважаемый Эдуад. Татьяну Владимировну знаю хорошо лично, отчасти являюсь ее учеником, даже докладывал на ее известном когнитивном семинаре, который она ведет уже много лет. И могу Вам сказать, что она на все 150% никак не является дуалистом! )))) П.С. Она бы перекрестилась, наверно, узнав, что ее причислили.
Все люди дуальны. В том числе и Вы.
Вообще-то, я говорил о том, что мозг не несёт функции сознания. Об этом говорит, в том числе и Черниговская.
Не обобщайте — я не дуален, развдоением личности не страдаю ) Речь идет о парадигме, в которой Вы мыслите, а не о нас самих.

Если Вы так смело заявляете о взглядах ТВЧ, это над подкреплять цитатами. Я ни раз участвовал с ней в обсуждении вопросов сознания, читал многие ее труды и ни разу не мог усомниться, что она как экспериментатор и биолог исследует сознание в мозгу. Читайте ее «Чеширского кота ...» хотя бы, чтобы не заблуждаться на сей счет.
Раздвоение личности не имеет отношения к дуальности.
Мироздание имеет дуальность в том плане, что есть физический мир, который принято называть «материальным», и есть также мир ментальный.
Мироздание и раздвоение личности две большие разницы.
Что касается ТВЧ, то у неё есть хорошая лекция под названием «Как научить мозг научиться». Можно найти в Интернете.
Про раздвоение личности похоже Вы не поняли юмора. Будем считать, что незаметили )) Про ТВЧ — она в этой лекции сказала про свои дуалистичные взгляды? В каком месте, простите?
Она говорит, что мозг человека не несёт функцию сознания.
/Про раздвоение личности похоже Вы не поняли юмора/

Будем списывать Ваши косяки на то, что это «юмор».
Про дуальность вы совмем видимо ничего не поняли. Почитайте внимательно свой первый посыл про то что «все дуальны»/ «Все люди дуальны. В том числе и Вы» — ваша цитата? И прочтите мой ответ. Достаточно очевидно, у кого тут косяки (так люди дуальны или все таки их представления?). Или опять не поняли, над чем я пошутил?
Вот был такой товарищ Ленин. Потом были «ленинисты».
Был потом товарищ Сталин. Потом появились «сталинисты».
Был такой Мухаммад Аль Вахаби. Потом появились «вахабисты».
Не помню про товарища «Дуала» или «Дуали», после которого появились «дуалисты».
Напомните, пожалуйста!
Мы понимаем и распознаём их не с помощью вычислений весов статистических факторов, а совершенно по-другому.


Вы же сами написали выше, что знания есть связи. Значит так же или близко к тому. Если к связям добавить статистические веса, это и есть обученная нейросеть. Конечно, мы распознаем так же, но именно «распознаем», что есть узнаем знакомое. Но это не значит, что понимаем. Понимаем уже как-то иначе. Это следующий шаг.
Если бы проблема была только в этом, ИИ был бы уже давно у каждого на компе (и один большой, тайно ими управляющий) :) Интеллект безусловно является «большой байесовской машиной», но не только. Есть еще что-то функциональное, что делает его интеллектом, способным в отличиие от нейросетей «понимать» то, что он распознал по статистике, распознавать то, что никогда не видел (новое), менять свою «программу», так чтобы в следующий раз распознавать иначе и т.п.
Про нейросети соглашусь, но по другой причине. Пока это просто «сложный калькулятор», классификатор с самообучающимися параметрами классификации, так как нейрон выходного слоя «собака» имеет смысл только для нас, но не для сети. В нейросети он не встроен в «картину мира», где собака гуляет на поводке, есть мясо и любит хозяев. Нейросеть, распознав «собаку», ничего об этом не знает. Знаем мы.

Смысл как раз и заключается во включенности слова в широкий контекст «картины мира» своими связями. Например, знание, что можно делать с предметом, означенным словом «со смыслом». Это известно давно. Вопрос как организована эта сеть? Это не просто связи с разными весами, этого мало. И не онтология Компрено, так как этого… вообще попытка зацементировать метафорический язык в застывшие связи. Нет. Тут есть какой-то недостающий функциональный элемент, который создает и модифицирует связи и организует их в систему так, что система может создать модификацию связей для несуществующей ситуации без переобучения. Нейросети приходится переобучать с потерей прошлого обучения, в чем их слабость и проявление несоответствия реальной структуре «мокрой сетки» (мозга).
Зарегистрируйтесь на Хабре, чтобы оставить комментарий

Публикации

Истории