Pull to refresh

Comments 205

Что за термин такой «брейнетика»? Поиск по гуглу дал ссылки только на эту статью/ее копии.
Как этот термин звучит на английском?
«Естественный интеллект, действующий как система «разумного поведения», обязательно использует знания об окружающем мире, выстраивая в своём естественном сознании некую модель мироздания, чтобы ориентироваться в ней.»

Я тоже считаю, что какими бы алгоритмы распознавания объектов на изображении, распознавания речи, перевода, да даже распознавания символов и другие не были бы совершенными, без общей картины мира, не заложенных в системе, они в среднем всегда будут проигрывать человеку (Конечно есть случаи, где человек проигрывает, например большая зашумленность, но такие случаи встречаются редко).

Вопрос в том, почему же не делают такие системы с небольшими знаниями, зато во всех областях? Ответ как мне кажется заключается в чрезмерной сложности таких систем, а именно сложности хранения и использования таких знаний (например рекурсивное использование). Требуется большое количество ученых и программистов для реализации таких систем.

Кроме того, еще одним перспективным направлением ИИ, как мне кажется, является создание алгоритмов, которые могут модифицировать свой код, причем новый, модифицированный код также в будущем может модифицировать свой код, чтобы получить что-то новое и более совершенное. Данное направление тоже является очень сложным и непонятным в реализации, хотя и интересным.
KvanTTT/Вопрос в том, почему же не делают такие системы с небольшими знаниями, зато во всех областях?/

Дело в том, что в академических кругах не могут договориться о единой стандартной терминологии в области ИИ. Каждая школа проповедует свой собственный «научный» подход". Без такого стандарта нельзя обобщить все достигнутые результаты в этой области. Без такого объединения нельзя создать единую модель мироздания… Вот и получается, что всё взаимосвязано в одну цепочку и некому взять и разрулить.
Вместо программ модифицирующих себя, давно уже есть программы модифицирующие данные(машинное обучение) это фактически тоже самое.
Не знаю про брейнетику, но мои «холивары в колуарах» на эту тему неизбежно приводили к тому, что все пытаются сделать ИИ СРАЗУ на уровне человеческого могзка, когда как для начала волне достаточно что-то типа голосового интерфейса в iFone — Siri. Пусть это не ИИ, но это маленький шаг в его сторну.
Согласен с Вами и поддерживаю такой подход, который называется «От простого к сложному».
По-моему как раз таки наоборот — все пытаются сделать ИИ для какой-то определенной области (логические игры и игры в реальном времени, распознавание голоса (Google), распознавание символов и перевод (ABBYY, Google), вопросно-ответные системы и онтологии (Как раз Siri, а также Wolfram Alpha, Google, DBPedia), навигация и передвижение по миру для роботов и многое другое.

А вот если по чуть-чуть совместить это все и использовать вместе (точнее даже просто использовать базы знаний везде), то можно было бы создать универсальный ИИ, но это сложно.
А разве можно сделать «разумное» без мышления? А мышление — без осмысления? Явно, НЕТ!
Однако, ни в одной из перечисленных Вами компаний не разрабатывают «искусственное мышление». Они занимаются простейшей лингво-статистической обработкой текста без того, чтобы заставить компьютер извлекать смысл из текста, как это делает человек. Тем более, что проблема машинного осмысления текста уже решена в научном плане. Остаётся только реализовать новацию в практической плоскости. Однако, нет, все эти компании упорно тянут одеяло на себя, причём не выходя за рамки компьюлинга. (Смотрите мой пост на Хабре)
Смысл давно пытаются извлечь, вот например WolframAlpha извлекает факты из текста, это ведь и есть смысл? Но только после извлечения, у нас получается огромная база знаний с которой нужно что-то сделать.
Neir0

Вот это интересная тема! Если Вы приведёте в качестве примера один «факт», извлеченный WolframAlpha из какого-либо текста, то мы с Вами разберем этот пример «по косточкам» и постараемся раскрыть семантические нагрузки таких неоднозначных терминов, как «смысл», «знания», «события» и факты".
Я с осторожностью скажу, чтобы не задеть уважаемых учёных, присутствующих в данном топике, что, собственно, WolframAlpha никаких фактов из каких-либо текстов программным способом НЕ ИЗВЛЕКАЕТ.

На самом деле, есть прога, которую обслуживают многие операторы, изучающие тексты и заносящие полуавтоматическим способом фактологические данные в БД по конкретному объекту запроса.

Давайте, сделаем с Вами такой эксперимент с WolframAlpha. Добавьте, пожалуйста, к вопросу: «who is mr. putin» всего одно слово, например, vladislav, так, чтобы запрос получился в виде: «who is mr. vladislav putin» Посмотрите, что получится.
Это неправда, в блогпостах о работе вольфрам альфы и ватсона написано, что они самостоятельно извлекают факты из текста. Ну и понятное дело, чтобы забить в них такое количество информации потребуется нереальное количество ресурсов.

А кто такой владислав путин? владимир путин, влад путин прекрасно находит, это значит что для системы эти имена являются синонимами, хотя говорить влад — неправильно, но в западной прессе очень распространено такое именование путина.
Извините, что у Вас получилось при эксперименте?
1. Вольфрам альфа не анализирует весь интернет (как и ватсон)
2. Даже если б она проанализировала странички содержащие сведения о владиславе путине, не факт что она бы внесла их в базу, я не знаю как она работает и какие алгоритмы используются, может быть необходим минимальный порог повторений, чтобы знание добавилось, может еще как-то.
Из того, что задекларировано в открытой прессе, Вольфрам использует так называемую технологию «машинного обучения» (Machine Learning). А вот персоны или объекты задаются вручную оператором. При этом используются все методы и инструменты для парсинга текстов, включая тезаурусы и конкордансы.
И Вольфрам и Ватсон импотентны в отношении извлечения смысла из текста, то есть они не способны понимать текст, как это может делать обученный человек. А без этого настоящих знаний не извлечь. Поэтому используются разного рода математико-статистически-лингвистические ухищрения.
Фактически получается разновидность Википедии в весьма структурированном (формализованном) виде.
… импотентны в отношении извлечения смысла из текста, то есть они не способны понимать текст, как это может делать обученный человек. А без этого настоящих знаний не извлечь…

Охохохохоооохоох…
Физики которые на основе данных экспериментов, используя «математические ухищрения» типа регрессии, извлекают знания об окружающем мире выпали в осадок.
Ну, так то физики! Они наделены хоть сколь-нибудь сознанием и могут обрабатывать собранные статистические данные. У тут безмозглые Ватсон с Вольфрамом… Или за ними скрытно стоят «ретраны»?
Найденная корреляциями в наборах данных — это уже не знания?
Кто нашёл-то? Человек, обладающий сознанием, умеющий мыслить аналитически, создающий термины (в том числе и «корреляция») и многое другое или электрон (сигнал, символ, данное...)?
Метод наименьших квадратов, например.
Ну и кто разработал данный метод? Протон с нейтроном или альфа с омегой?
А при чем тут это?
По вашей логике ваша брейнетика тоже не сможет извлекать знания. Ее ж кто-то разработал.

МНК опять же не знает с какими именно данными он работает и смысла их не понимает. Но знания извлекает, причем заметьте новые, которые никто в него не закладывал.
Нет, конечно, брейнетика, как научная дисциплина, разрабатывающая технологию искусственного мышления, сама никакие знания не извлекает.

Вообще, сами по себе, ни способы, ни средства, которые сотавляют любую технологию, не могут извлекать знания. Это не их епархия. А вот аппарат, использующий технологию, может. Например, наше сознание, как аппарат, использует две технологии — Разума и Психики. При этом технология Психики знаний не извлекает. Это тупой робот. Зато извлечение знаний — прерогатива технологии Разума.

Метод НК тоже, сам по себе, не может извлекать знания, поскольку для этого, открою секрет, нужно, как минимум, две вещи — это Модель Мироздания и устройство, забрасывающее в эту ММ получаемые данные (сумма символов) и получающее ответ о том, несёт ли данный набор данных какие-либо знания.

Вот, если выход Вашего МНК подсоединить, условно говоря, ко входу такой ММ и с её помощью тестировать поток данных, то ММ должна сказать, есть ли в них какие-либо знания или нет, и, если есть, то «выдать их на гора».

Резюмируя, можно сказать, что База Знаний и есть та ММ, которую пытаются многие построить, но пока безуспешно. Но я очень верю, что решение проблемы не за горами.
«Метод НК тоже, сам по себе, не может извлекать знания, поскольку для этого, открою секрет, нужно, как минимум, две вещи — это Модель Мироздания и устройство, забрасывающее в эту ММ получаемые данные (сумма символов) и получающее ответ о том, несёт ли данный набор данных какие-либо знания.»

WTF? «Модель Мироздания»?
Простите, у вас в профиле написано «системный аналитик». Вы знакомы с понятием «регрессионный анализ»?
Буду Вам очень признателен, если просветите меня в отношении того, как реганализ может извлекать знания.
Поиск закономерностей в некотором потоке данных, например.
А найденная закономерность — уже знание.
Это называется метод наложения шаблонов. Получаете, опять-же данные.
Метод наложения шаблонов не имеет ничего общего с регрессией.
Это моё мнение. Вся аналитическая математика это наложение шаблонов.
При этом технология Психики знаний не извлекает. Это тупой робот. Зато извлечение знаний — прерогатива технологии Разума.

Животные, в частности млекопитающие, оперируют какой технологией? Являются они тупыми роботами или способны извлекать знания из фактов?
Знания появляются тогда и там, когда ищутся и находятся онтологотивные ответа на онтологотивные вопросы: «Когда?», «Где?», «Во сколько?», «Откуда?», «Почему?» и так далее.
Если это есть у животных, значит, у них есть знания. Если Вы посчитаете, что этого нет, то, выходит, что и знаний нет. Выбор за Вами.
Хм… если исходить из паттерна MVC :), то «должна сказать, есть ли в них какие-либо знания или нет» функция скорее контролера, а не модели. Модель хранит и обрабатывает данные, но смыслом их не наполняет. Модель мироздания может выдать состояние всех его объектов в определенный момент времени с определенной вероятностью, но интерпретация этого состояния остаётся за контроллером.
А что в Вашем понимании означает термин «смысл»? Мне это очень интресно. Буду Вам признателен именно за Ваше мнение по этому поводу.
Пожалуй, осознание цели и/или (хотя бы) следствий процессов. Если мы не осознаем (пускай и не верно) цель какого-либо процесса (в том числе процесса создания и/или существования какого-либо объекта), то он для нас бессмысленен.
Вы, знаете, понятие «смысл» очень часто используют не по своему прямому назначению, подменяя им другие уместные по контексту понятия, например, говорят: «Не вижу смысла» там где следует сказать «резана», «цели» и такое прочее.
Таким же универсальным словом стал глагол «пошёл».
1. Петя пошёл в школу в семь часов утра.
2. Петя пошёл в школу с семи лет.
3. Петя пошёл весь в отца.
4. Петя пошёл в рост.
5. Петя пошёл на это из-за бедности.
6. Петя, пошёл ты…
ну и так далее.
Здесь одним и тем же словом [пошёл] обозначают разные действия, разные модели поведения образа [Петя]. Соответственно, извлекаются и разные смыслы.
Поэтому и считаю, что модель мироздания не должна быть завязана на лингвистику. Может представляться лингвистически, но нужно понимать, что это лишь одно из множества возможных представлений мысленной абстракции.
Вы могли бы кратко описать Ваше видение модели мироздания?
Объекты и их свойста, отношения между ними и т. п. абстрактны от любого их представления (тексты, аудио- и видеообразы и т. п.) Объекты и другие сущности БЗ связаны с представлениями отношениями один-ко-многим. Первична задача представления как-то введенных в БЗ знаний в разных формах, а не ввод в разных формах.
К сожалению, это не работает. Вот, например, фраза: «Патрон вошёл в магазин». Отношения и связи есть, а однозначной смысловой картины нет. У [Патрон] четыре семантиса: человек-руководитель, электроламповый патрон, станочный патрон и оружейный патрон. Соответственно, у [магазин] тоже пара семантисов: магазин, как торговое предприятие, или магазин, как катридж для патронов.
На уровне лингвистики (синтаксический граф и семантическая сеть) проблема не решается. Нужно строить модели поведения образов. Потом, как бы, анимировать их и по анимации стараться понять, в чём, собственно, дело.
Забыли ещё про многозначность слова «вошёл» :) Без контекста мы эту фразу вообще не вытащим. Как минимум может руководитель зайти в помещение торгового предприятия, может оружейный патрон поместиться в картридж. Но если эта фраза как-то попала в БЗ, ссылаясь на объекты «торговое помещение» и «руководитель» (как на субъект) и отношение между ними «субъект переместился извне объекта внутрь него посредством шагания», то задача представления этой фразы решается элементарно для любого способа представления, для которого существуют соответствующие «лексемы» (слова, изображения, 3D-модели, алгоритмы, что угодно в общем) и правило синтеза из них «предложений» вида «субъект-действие-объект».

Вопрос как с сущностями БЗ будут ассоциироваться лексемы и как будут соотноситься входные данные с сущностями я пока не рассматриваю. Вернее возлагаю это роль на естественный интеллект оператора.
Брейнетика изучает процедурность мышления. Используется в узком кругу специалистов-разработчиков «умного софта». Введен в оборот покойным академиком из Киева Зиновием Рабиновичем в 60-х годах 20 века. В Интерене может не встретиться. В СССР не приветствовалось введение иностранной терминологии. А в России не хотели пользоваться работами суверенной Украины. Везде ведомственные интересы…
Мозгетика? нормально же)
Мне нравится! И ещё мне нравится «Мыслетика».
Добро! Если ничего лучшего не найдём, остановимся на Мыслетике. Будем считать, что первый камень в терминологический стандарт Искусственного Мыслителя заложен. Теперь осталось дело за малым, а именно, определиться с такими понятиями, как: «смысл» и «знания».
А ещё можно подумать над названием машины, которая будет реализовывать Мыслетику. Я, например, предлагаю «Смартпьютер». То есть, «хитрый вычислитель». А Вы как думаете?
Электронно мыслительная машина (ЭММ)… чтоб далеко от ЭВМ не ходить)
Тоже очень здорово! Электронно-мыслящая машина, искусственно-мыслящая машина…
Вы предполагаете, что потребуется архитектура принципиально отличная от тьюринговой?
VolCh

Ну, скажем, у «тьюринговой машины» никакой архитектуры в понятно-законченном виде нет. Есть только некий подход и функции, которые она должна выполнять.
ЭММ или Смартпьютер должен иметь в своей основе «Эвристический Процессор», отличный по определению от обычного счётного, который оперирует знаниями в виде «Моделей Поведения Образов». В такой машине также должны быть «Ассоциированная Память» и некий блок, способный к обучению и самообучению.
В принципе, всё, вроде, известно. Вот, только надо со знаниями разобраться.
Ну, я имел в виду доминирующую на рынке архитектуру ПК и прочих ЭВМ. Вы считаете, что она в принципе не подойдёт как платформа для ИИ, то есть эти блоки не могут быть реализованы программно, скажем, для x86?
Могут, наверное, но будет очень уж медленно. Скорее, подойдут аппаратно реализованные нейторнное сети или другие многослойные чипы (как дополнительные устройства к стандартным процессорам).
Куча слов, особенно «брейнетика» и «компьюлинг» доставляют, и ничего по существу. Всю статью можно свести к одному предложению: «ИИ не создан, т.к. алгоритмы не опираются на знания об окружающем мире». Ну а что конкретно нового (или просто конкретно) вы предлагаете в рамках «брейнетики»?

Есть куча проектов, которые пытаются создать либо организовать базу знаний, такие как Cyc, Mindpixel. Да даже и WolphramAlpha.
To Irokez
Компьюлинг означает сокращенное от «Компьютерная лингвистика». Термин достаточно распространеный.

Компаний и проектов, пытающихся создать «базы знаний» тьма-тьмущая. Но на сегодня никто ничего не создал. Почему? Потому что не могут определиться с понятием «знания». Вы, например, можете дать Ваше личное понимание (описание, дефиницию) этого термина?

Кто-то первый должен это сделать. Его результат потом возьмут за основу стандарта. Дальше-проще. Знания в неформализованном виде имеются в достатке. Но нет пока ни одного знания в виде, удобном для оперирования машиной. Вот этим я, как раз, и занимаюсь.

Как раз-таки, в проектах, которые я привел в пример, знания представляются в формальном виде (в основном в виде триплетов: субъект, связь, объект). Такие базы знаний применяются в лингвистике (например, интегрируя Cyc с ворднетом) и информационном поиске. Вольфрам Альфа тому пример — рабочая система. Гугл недавно анонсировал выдачу справочной информаций на определенные запросы, основанной как раз таки на «графе знаний». Чем не рабочие системы?

Вы говорите, что не существует стандарта представления знаний. Как насчет RDF и OWL? Возможно, они не совершенны, но стандартны и широко используются.
Уважаемый Irokez,

Всё, что существует в мире на сегодняшний день, на текущий момент является не более чем Базами Данных. Все эти триплеты и ворднеты — абсолютно всё — ДАННЫЕ. Данные о словах, данные о связях между словами, данные об отношениях между словами, а также данные о данных… В общем, сплошная статистика.

Знания отличаются от данных, как фотокадр от видеофильма, хотя последний и состоит из десятков тысяч первых. Точно также и знание может состоять от десятка до тысяч данных, которые для понимания должны приводиться в движение, как лента из множества кадров в проекторе, чтобы понять, что происходит.

Проблема здесь в том, что сообщество компьюлигвистов ещё не определилось с дефиницией «знание». Вот Вы, например, могли бы дать такое определение? Был бы Вам очень признателен, если Вы смогли бы это сделать. Отсутствие четкого описания термина «знания» не позволяет нам всем двигаться вперед. Без этого нельзя формализовать знания. Без формализации машина их не поймет. Пока машина не будет понимать знания, до тех пор не будет прорыва в «искусственном мышлении». А если нет мышления, то откуда взяться «разумному интеллекту»?

То, что декларируют авторитетные фирмы, употребляя термин «знания», мягко выражаясь, выдача желаемого за действительность. Всё, суть, разновидность данных.
Очень рекомендую Вам ознакомиться с работой Зеновия Львовича Рабиновича «ПАМЯТЬ И МЫШЛЕНИЕ ЧЕЛОВЕКА В ПИРАМИДАЛЬНО-КОНЦЕПТУАЛЬНОМ ПРЕДСТАВЛЕНИИ».
Поделитесь наработками, если не секрет. Модели данных любимая тема
UFO just landed and posted this here
Но нет пока ни одного знания в виде, удобном для оперирования машиной

Извините, можете рассказать почему представление знаний в виде фреймов нельзя взать за основу стандарта?
CAH4A
/почему представление знаний в виде фреймов нельзя взать за основу стандарта?/

Да просто потому, что нет, собственно, никаких знаний. А то что есть, то просто данные.
Давайте, для наглядности, разберем вопрос на примере простого текстового сообщения: «Петя сказал, что завтра он не пойдёт в школу».
Что здесь «знание» и что здесь «данные»?
«он не пойдёт в школу» — это знание? Если Вы скажете, что да, знание, то можете ошибиться, поскольку знания могут иметь место только о свершившихся событиях. будущего не знает никто. В данном случае это не знание, а прогноз, который может сбыться и стать знанием, а может и не сбыться, как в случае с прогнозом погоды или политическим прогнозом.
В Вашей фразе знание лишь то, что источник сообщения счёл нужным сообщить нам эту информацию. На самом деле не факт, что Петя это сказал. Не факт, что даже если он это сказал, то он действительно не собирается идти в школу завтра. И не факт, что если он действительно не собирается, то он действительно не пойдёт. Это всё данные и заранее неизвестно ложные они или нет. Но на базе этого сообщения и других знаниях априори (доверие к источнику сообщения, доверие к Пете, знания о состоянии его здоровья, статистику его прогулов, отношения в семье, дата и день недели и т. д, и т. п., и это только в предположении что Петя однозначно идентифицируется как школьник), мы можем делать прогнозы (пойдёт завтра Петя в школу или нет) и принимать на их базе решения, в том числе пересматривать имеющиеся знания (если достоверно известно, что Петя грудной младенец и ни говорить, ни ходить не умеет, то уровень доверия к источнику сообщения лучше понизить, включая всю полученную от него до этого информацию).
Да, очень здорово Вы всё разложили и лучше меня всё объяснили, почему данные не являются знаниями. Посмотрите, Вы сами показали, сколько условий должно выполниться, чтобы сведения стали знаниями. Для этого, оказывается, нужен целый «механизм понимания», чтобы выяснить, при каких условиях сведения могут стать знаниями.
С другой стороны, знания обладают свойством «вложенности». То, что человек увидел (текстовое сообщение) или услышал (вербальное сообщение), уже есть знание, поскольку читающий или слышаший фиксирует сообщение. Он знает, что такое сообщение есть и оно становится знанием, так как реципиент сообщения знает, что именно сказал креатор данного сообщения. А затем уже вступает в силу второй уровень вложенности, то есть, анализируется то, что именно сказано в сообщении и является оно знанием или нет. Таких уровней вложенности для знаний может быть сразу несколько. Вот почему становится затруднительным создать Базу Знаний — она должна обладать способностью стать «матрёшкой».
Обычные Базы Данных являются на деле, в основном, координатными таблицами, в ячейки которых внесены базовые элементы. Реже встречается БД в виде «графа», которую часто принимают за БЗ. В таком графе обычно обозначаются не координатные связи и отношения между элементами-словами. В лингвистике он называется синтаксический граф. Сейчас встречаются и другие разновидности графа, например, синтаксико-семантический.
Т.е. Ваша точка зрения заключается в том, что для перехода от данных к знаниям необходимо увеличить детализацию самих данных, их контекста и учесть некоторый набор типовых поведенческих, мыслительных алгоритмов человека?

О какой вложенности идёт речь, можно больше конкретики? Описанная вложенность — алгоритмическая, она не отражается на представлении знаний.

Перечисленные типы БД не обладают качественными различиями в контексте обсуждения. Вложенность можно реализовать используя любой из обозначенных подходов, равно как перевод данных из однго представления в другое не представляет сложностей (это лишь дело удобства и быстродействия обработки данных).
exaide
/Вложенность можно реализовать используя любой из обозначенных подходов, равно как перевод данных из однго представления в другое не представляет сложностей/

Вы могли бы продемонстрировать пример записи в Вашу «Базу Знаний» рассмотренного выше сообщения: «Петя сказал, что завтра он не пойдёт в школу»?
Вы вырываете тезис из контекста.

Если отвечая на мой первый вопрос выше, Вы скажете «да», это означает, что знания, содержащиеся в сообщении «Петя сказал, что завтра он не пойдёт в школу» могут быть сохранены в любой современной БД. Если же ответ «нет», то рассуждать нужно не о «матрёшечной» структуре, а хотя бы о базовой реализации БЗ на самом примитивном уровне (раз уж он, на Ваш взгляд, качественно отличается).

В целом, не конструктивно предлагать дискуссию о знаниях столь туманно описывая проблематику и не ссылаясь ни на какие публикации. Спекулировать на фундаментальных проблемах не предлагая новых теорий или методов, критикуя всех и вся — удел псевдонаук.

Для меня такае науки, как семиотика, сенсформика и индефинитика дают достаточное понимание о том, как можно представлять и обрабатывать знания. А такие стандарты (RDF, OWL, micro*) или онтологии (такие, как SIOC, SKOS, DC, FOAF) являются отличными инструментами для того, чтобы воплощать это в жизнь.
Уважаемый exaide!

Мне кажется, что Вы под термином «знания» понимаете «данные», примерно также, как лингвисты отождествляют понятия «семантика» и «смысл».
Был бы Вам очень признателен, если Вы смогли бы снять мои сомнения и дали в подтверждение Ваших слов чёткие примеры и дефиниции.
Обращаю внимание на то, что Вы ещё не приводили «чётких примеров и дефиниций», равно как и ссылок на публикации по брейнетике.

Тем не менее, приведу несколько ссылок про семиотику. Их более чем достаточно для понимания концепции представления знаний. Сенсформика и индефинитика представляют меньший интерес для данной темы.
Буду Вам очень признателен, если Вы смогли бы дать ВАШ пример «представления знаний». Пока это никому не удавалось. Но Перельманы иногда появляются.
Я уже заметил, что Вы не читаете ответы, избегаете неудобных вопросов игнорируя их или давая псевдоответы с использованием терминов, о которых никто (кроме Вас, конечно же) не слышал. В моих глазах, Вы себя полностью дескредитировали как учёный.

Если же Вы не приведёте пруфов Ваших слов «брейнетика, к сожалению, долгое время оставалась золушкой у лингвистики в научных кругах и лишь только сейчас начинает набирать необходимую силу и вес», уровень статьи уверенно окажется между паранаукой и жёлтой прессой.
Вы ошибаетесь, и вот почему:

Любые знания это данные. Но не любые знания это данные.
Вот к примеру я напишу третий закон Ньютона: F1-2=-F2-1.

Видите как элегантно в последовательность байтов(в данном случае char'ов) легло знание?

Но по вашей логике, третий закон Ньютона (да и любой другой) — данные. (И если честно я так и не понял, что именно вы понимаете под «Знаниями»)

Теперь весь вопрос как интелектная система будет использовать эти знания, в каких случаях. Потому что все три закона Ньютона будут работать и давать правильные предсказания, но только на скоростях не сравнимых со скоростью света. В противном случае мы должны использовать общюю теорию относительности, которая имеет для этого случая предсказательную силу.

Вот то что я написал — знания. И данные одновременно.

Складывается впечатление, что у вас в голове творится легкий бардак, вы можете дать дефинации понятий «данные» и «знания», как их понимаете вы?
* Но не любые данные это знания.
/вы можете дать дефинации понятий «знания», как их понимаете вы/

Легко!

ЗНАНИЯ – это сохраненные на ментальном или физическом носителе записи в виде онтологотивных ответов {актоид + онтологотив}, полученные в результате процесса понимания смысла свершившихся образо-акциональных преобразований реальных и/или мнимых объектов в пространственно-временных координатах и/или в формо-сущностных типодинатах в виде хроник и/или постулатов о событиях и/или фактах, имеющих причинно-следственные связи и/или конструктивно-функциональные отношения.
UFO just landed and posted this here
то есть:
1) Знания — это записи — а записи это данные
2) Знания субъективны
3) Знания получены из «процесса понимания смысла», а этот процесс может давать из одного смысла (если он есть, и однозначен) неоднозначные знания.

А вообще мне не нравится слово смысл в вашем определении. Нет никакого смысла. Есть свершившиеся образо-акциональные преобразования реальных и/или мнимых объектов в пространственно-временных координатах и/или в формо-сущностных типодинатах в виде хроник и/или постулатов о событиях и/или фактах, имеющих причинно-следственные связи и/или конструктивно-функциональные отношения, и есть знания которые можем выделить из них. О каком смысле идет речь?
СМЫСЛ – это понятная (хроникальная) модель поведения образа (МПО) объекта, выстриваемая актоидом совместно с сабжем.
Это форма Вашего восхищения?
Это мое извлечение смысла из вашего понимания «смысла» в виде знания о том, что в вашем описании «смысла» нет смысла.
Понятно, в общем «звук запаха видит вкус».
ПОНИМАНИЕ – это процесс сопоставления регистрируемых сознанием реальных или ментальных (мнимых) континуальных перемен, происходящих с образами объектов, с хранящимися в памяти МПО.
ИЗВЛЕЧЕНИЕ СМЫСЛА – это процесс понимания происходящих перемен с образом при переходе из одного его (начального) состояния в другое (конечное).
Вы придумываете собственную терминологию?
Больше похоже на псевдонауку, если честно.

Смысла в вашем понимании не существует, так как:
1) Квантовая неопределенность
2) Зависимость опыта от наблюдателя
3) Субъективность извлечения смысла
4) Все научные знания опровергаемы
/Вы придумываете собственную терминологию?/
А у Вас есть «научная терминология» в отношении понятия «знание»?
Был бы Вам очень признателен, если Вы поделитесь со мною.
Я насчитал 43 различных дефиниций для этого термина. Все абсолютно различны и большинство взаимно противоречивы. Какое именно из них одно «научное» я определить не могу. Может, Вы знаете?
Знания – это тоже данные, но которыми интеллект способен оперировать для достижения каких-то целей. Все эти онтологии во временных многомерных и прочих измерениях – результат классификации данных, и какого вида она зависит от интеллекта.
Рассмотрим такой пример. Есть некая стена, выложенная из кирпича. Вы смотрите на стену и понимаете, что это стена. Понимание, что это есть стена — это знание. Да, она выложена из кирпича с участием, песка, цемента, воды..., которые можно понимать как данные. Но, если мы запишем в базу: песок, цемент, вода, кирпич..., то мы стену (знания) не получим, а получим простой список или таблицу данных.
Это смотря какая у вас модель знаний. Обычная задача поиска. Разница лишь в том, что сам поиск был осуществлен интеллектом при классификации данных, а в текущий момент уже используются ассоциации между данными. И повторюсь, что важно достижение какой-то цели при оперировании данными, чтоб их назвать знаниями.
Вы полагаете, что у знаний могут быть несколько моделей? Разве бывают у термина разные модели? Вот разные толкования могут, а модель, даже у знаний, должна быть одна.
Причем тут термин? И с чего вдруг модель знаний должна быть одна (одинаковой)? Вы это в своем локальном смысле понимаете?
Вот, например, модель «треугольник» => «геометрическая фигура, образованная тремя отрезками прямых линий, соединенных последовательно и образующих три угла».

Если в эту модель подставить «четыре вместо три», то получится четырёхугольник. Как видите, модель ТА ЖЕ, а результат разный.
Аналогично и с моделью знаний.
И что вы хотите этим доказать?

Заведомо изменяете описание, чтоб нельзя было идентифицировать нечто как треугольник. И что? А можно избавиться от некоторых характеристик или, наоборот, добавить, и все равно будет треугольник.

Как это касается модели знаний? Вы, похоже, рассуждаете про единство модели (структуры) в рамках одной базы знаний. Я же вам толковал, что результат определения нечто как «стена» будет зависеть от состояния и особенностей модели знаний. Здесь нет ничего сверхразумного. Обычный поиск. Можно по кирпичам и песку получить ассоциацию только на стену, можно на много чего разного найти или в обще ни на что.
Модель => это всегда некий шаблон или формула, которые могут представлены в символьной форме, словечной форме или какой либо иной. В формулу или в шаблон вставляются ПЕРЕМЕННЫЕ ДАННЫЕ.
Входные данные меняются и выходные результаты меняются, а вот, формула или шаблон, как модель, остаётся постоянной, неизменной.

Когда на складе лежат песок, цемент, кирпич, гравий и пр., то какие ассоциации они вызывают?
Вот, Ваш вопрос и есть ответ. Никаких, кроме того, что это могут быть стройматериалы.
Что это означает, какой вывод?
Благодарю за пример с формулой для выражения ТЗН. Вы сами этим примером и ответили на свой же вопрос.

Сама формула внешне это всего лишь запись в виде набора условных символом с условными назначениями (семантисами), понятными для людей со знаниями в данной предметной области.

В общем случае, математические формулы призваны обозначать некие процедуры, которые подразумевают те или иные действия. А действие — это акция, глагол, предикат. Чтобы понять, что написано, хоть текстом, хоть формулами, человек должен знать, какими имеющимися в его сознании динамическими моделями поведения образов (МПО) нужно восстанавливать (декодировать) прочитанное. И если Вы не
знаете априори, что оно означает, то Вы и не восстановите динамическую картину образо-акционального преобразования (ОАП) в виде тождества двух ньютоновских сил. Например, неуч явно не поймёт, поскольку в его памяти нет однозначно идентифицируемых ассоциативных восприятий МПО для данной формулы.

А данные — это ровно то, что подставляется в формуле вместо символов. При этом в другой системе сама формула также может являться данным для другой процедуры и так далее.
Вы сами себе противоречите.
Если у вас есть данные математических формул, и данные моделей, которыми они оперируют, то вы можете подставить данные конкретных значений и получить с определенной в данных адекватностью, прогнозируемые данные.

Почему вдруг динамические модели это не данные?
/Если у вас есть данные математических формул, и данные моделей, которыми они оперируют/

Данные матформул НЕ МОГУТ ОПЕРИРОВАТЬ ни данными, ни данными моделей! Матформулы также НЕ МОГУТ ОПЕРИРОВАТЬ ни данными, ни данными моделей. Оператор — это человек (сознание). Машина пока также не может выступить в роли оператора знаний, поскольку она не распознаёт такой класс (объектов), как знания. Машина действует по инструкциям (алгоритму), которые составляются для неё разумным оператором, на основе знаний самого оператора.
Данные матформул НЕ МОГУТ ОПЕРИРОВАТЬ ни данными, ни данными моделей!
Очень даже оперирует. Исходны код программы содержит данные о матформуле, которые оперируют данными на входе программы.

Машина пока также не может выступить в роли оператора знаний
Пока вы здесь нигилизмом занимаетесь, все уже давно умеют писать хотя бы те же экспертные системы, которые выступают в роли оператора знаний.
/Исходны код программы содержит данные о матформуле, которые оперируют данными на входе программы./

Странно, а я считал, что это именно программа ОПЕРИРУЕТ данными. А оно, оказывается, вона как — «данные оперируют данными».
Это выше моих понятий. Значит, Вы каким-то образом наделяете «замороженные» данные, которые, в принципе, ничего не умеют и не могут сами что-либо делать, кроме как находиться в ячейках БД, вдруг начинают действовать, как актанты, оперируя другими данными. Я понял, что я, видимо, учился не там и не тому.
фон Нейман смотрит на ваши умозаключения как на…
Большой привет фон Нейману!
Программа — это данные. Бинарная последовательность. Точно такая же как и данные — бинарная последовательность.
И если это выше ваших понятий, то значит вы просто не разобрались в обсуждаемой вами теме.

Как можно с апломбом рассуждать о создании искусственного интеллекта с помощью программных средств, да и более того осуждать и утверждать что никто не сделал ничего похожего, если вы не разбираетесь в программировании, или разбираетесь в нем на начальном уровне?

Не будьте настолько самоуверенным, это не та черта, которой придерживаются ученные.
/Программа — это данные./

Меня учили, кстати, в Бостоне, что в программе участвуют «операторы», например, такой условный оператор, как: «Если А=X, то делай Y, иначе делай Z». Вот эти программные операторы и оперируют «данными». Видимо, зря учили.

А вас там не учили, что такое «архитектура фон Неймана» и чем она отличается от более ранних?

И почему почти все современные ЭВМ построены на основе именно этой архитектуры?
Нас учили computational linguistics. Компьюлинг по-нашему значит.
А при чём тут «архитектура Неймана», разве она оперирует знаниями?
Очень странно изучать что-то со словом «computational» без изучения разных моделей и архитектур вычислений.

Знания тут ни при чем.
Данными оперирует процессор. Который их берет из памяти. Оперирует выполняя команды. Которые откуда берет? И чем эти команды для него внезапно являются?
Ах, всё-таки, данными оперирует процессор, а не сами данные! Ну, у меня на сердце полегчало, а то я очень запереживал.
А процессор управляет данными на основе программы (которая другие данные).

И программу не обязательно составляет человек. Ее может составлять другая программа (метапрограммирование, называется). На основе еще каких-нибудь данных.

Очень простой пример — чисто стохастическим генетическим алгоритмом можно подобрать такую последовательность команд (данных!), которая на заданные входы (данные!) будет выдавать заданные выхода (тоже данные). При этом этот алгоритм не обязан ровным счетом ничего знать ни о том, что значат эти данные (вот это уже знания), ни о том как их правильно преобразовывать (и это знания).

/При этом этот алгоритм не обязан ровным счетом ничего знать ни о том, что значат эти данные (вот это уже знания)/

Я то полагал, что знания есть продукт (процесса) ментального мышления. А у Вас получается, что бездушный «алгоритм знает». Выходит, что (согласно моему пониманию Вашей версии) стохастический генетический алгоритм способен мыслить.
Хочу такой алгоритм!
Вообще-то я как раз-то написал о том, что знания алгоритму не нужны. Проиллюстрировав тезисы о том, что не все данные — знания, и о том, что «внешне интеллектуальное» поведение не обязательно требует каких-либо знаний.
Есть исполнительное устройство (процессор), поддерживающее ограниченный набор операций. На вход он принимает условно два потока данных: данные, подлежащие обработке, и данные, содержащие описание операций над первыми данными. Абстрагировавшись от исполнительного устройства можно считать, что вторые данные оперируют первыми.
Если так далеко абстагироваться, то получится, что на входе процессора появляются электроны и на его выходе тоже получаются электроны. Получается, что электроны, участвующие в электрическом токе, управляют электронами схемотехнических устройств. А может, вообще углубиться до кварков?
Давайте, будем серьёзнее.
Вы не в ту сторону «абстрагируетесь» ;)))
И не абстрагируетесь, а конкретизируете.

Аргумент не засчитан.
Это гарвардская архитектура. У неймана поток один ;)
>Это выше моих понятий.
>Я понял, что я, видимо, учился не там и не тому.

Ваш сарказм совершенно безоснователен. Если его убрать, то эти 2 фразы были бы проявлением разума.
В первом приближении:
Таблица объектов:
1 Петя
2 школа

Таблица действий:
1 сказал
2 пойдёт

Таблица времени:
1 завтра

Таблица знаний:
id Субъект Действие Отрицание действия Тип объекта Объект Время timestamp Источник
1 1(Петя) 1(сказал) false <знание> 2(след. запись) null <24 мая 2012, 08:41> 2 1(Петя) 2(пойдёт) true <объект> 1(школа) 1(завтра) <24 мая 2012, 08:41> 1 (пред. запись)

Много нюансов не учтено, но этого, имхо, достаточно, чтобы передать основной смысл сообщения. Причём в любой форме, не обязательно на русском языке и вообще на языке, а например в виде визуальных образов говорящего и идущего Пети, школы и завтра — нужно лишь ассоциировать соответствующие представления объектов, действий и т. д. (слова на каком-то языке, визуальные образы) с их идентификаторами и задать правила представления (синтеза предложения, генерации видеоряда и т. п.). Из этой «базы знаний» уже можно (немного её модифицировав) извлекать ответы на такие вопросы как: что когда-то сделал Петя, что он не будет делать завтра, кто завтра не пойдёт в школу, куда завтра Петя не пойдёт и т. п., причём восстанавливая известный контекст (откуда что известно, когда это стало известно, насколько актуально на настоящий момент и т. п.).

В общем проблемы хранения знаний в РСУБД в форме, позволяющей извлекать их оттуда по различным запросам, я особой не вижу. Проблема в том, что помещать их туда (формализовать) и извлекать оттуда (наполнять смыслом) должен человек. Машина на настоящий момент не способна помещать их из неформализованной формы, извлекать их на основании неформализованных запросов и, тем более, наполнять их смыслом. Например, только на основании данного сообщения предположить, что с большой вероятностью Петя — это мальчик школьного возраста (Петя — мужское имя, а из лиц мужского пола больше всего школу посещают мальчики школьного возраста), а завтра выходной день или каникулы (в это время посещаемость школы минимальна).
Можно на основе регулярных грамматик. Но сложно.
VolCh

Владимир, Вы имеете отношение к ИПС «Нигма»? Моя интуиция и мой анализатор текстов говорит, что самое непосредственное.

//Проблема в том, что помещать их туда (формализовать) и извлекать оттуда (наполнять смыслом) должен человек. Машина на настоящий момент не способна помещать их из неформализованной формы, извлекать их на основании неформализованных запросов и, тем более, наполнять их смыслом.//

Вот квинтэссенция всех сегодняшних разговоров. Очень Вам признателен за это высказывание.
Какой отсюда можно сделать вывод? Либо формализовать текстовое сообщение до приемлемого для машины уровня, либо придумать такую БЗ, которая способна на приём-обработку-выдачу в естественном (неформализованном) виде. Мы пошли по пути формализации смысла и знаний. Но имеем по-прежнему проблему с Базой Знаний, которая нами задумана в виде Кондуита.

// на основании данного сообщения предположить, что с большой вероятностью Петя — это мальчик школьного возраста (Петя — мужское имя, а из лиц мужского пола больше всего школу посещают мальчики школьного возраста), а завтра выходной день или каникулы (в это время посещаемость школы минимальна).//

Здорово! Это уже называется Кондуит или знания о мироздании. Понятно, что все эти базовые знания должны быть предварительно занесены в Кондуит, а вот, в какой форме — этот проблемный вопрос. Чувствую, что Вы над этим уже ломали голову. Мы тоже испытываем здесь проблемы.

//Из этой «базы знаний» уже можно (немного её модифицировав) извлекать ответы на такие вопросы как: что когда-то сделал Петя, что он не будет делать завтра, кто завтра не пойдёт в школу, куда завтра Петя не пойдёт и т. п., причём восстанавливая известный контекст (откуда что известно, когда это стало известно, насколько актуально на настоящий момент и т. п.).//

А я вот, похвастаюсь, что уже умею это делать. Мы разработали такое детище, ДумБот называется, которое анализирует контекст сообщения, извлекает смысл по шаблону, а затем выдаёт на гора знания и прогнозы, а также научили его выдавать версии. Сейчас учим строить гипотезы.

Теперь насчет Вашего разбора предложения. В нашей версии [Петя сказал] — (это называется «актоид» или образо-акциональным преобразованием) — является элементарным знанием в рамках данного сообщения. [(он) пойдёт] — другой актоид. [в школу] — онтологотивный ответ на вопрос: «Куда?». [завтра] — тоже ответ на вопрос: «Когда?»
Однако, [(не) пойдёт завтра в школу] уже не знание, а прогноз.
В целом, Вы на правильном пути.
>Владимир, Вы имеете отношение к ИПС «Нигма»? Моя интуиция и мой анализатор текстов говорит, что самое непосредственное.

Они ошибаются, если не считать непосредственным отношением пару запросов, сделанных несколько лет назад на nigma.ru. Откуда такое предположение? :-/ Второй раз за месяц слышу предположение о моей связи с Нигмой.

>придумать такую БЗ, которая способна на приём-обработку-выдачу в естественном (неформализованном) виде.

По-моему у нас терминологические расхождения. Я рассматриваю БЗ только как хранилище знаний, способное хранить и выдавать уже известные отношения одних элементов знаний к другим. Задача обработки, анализа входных данных и запросов, установления отношений, синтеза новых знаний и т. п. перед ней не стоит. Это дело интеллекта, «фронтенда» если угодно, от БЗ требуется только (эффективно) их хранить и выдавать по внутреннему запросу в форме понятной для фронтенда. То есть БЗ — это аналог человеческой памяти, которой оперирует разум. Интерфейс между памятью и разумом инкапсулирован для «пользователя» разума и в общем случае некритичен, как и собственно механизм хранения. Первична задача анализа (декомпозиция входных данных на знания) и синтеза (композиция из существующих знаний новых, включая прогнозы и гипотезы). Но это не функция базы знаний.

>А я вот, похвастаюсь, что уже умею это делать.

Я тоже умею, лет 30 с лишним :)

>Мы разработали такое детище,

Вот это интереснее.

>извлекает смысл по шаблону

Могу предположить, что шаблоны задаются программистами или операторами на основе лингвистики и прочей семиотики. Где-то в топике я уже говорил, что считаю такой путь если не ошибочным, то уж точно не приводящим гарантированно к созданию ИИ. Природа идёт с другой стороны — природные «смартпьютеры» сами выделяет шаблоны из входных данных. Перспективность (как минимум, если не единственность) этого пути уже доказана на практике. Хотя, да, для разработки системы хранения знаний шаблонные преобразования скорее необходимый этап, единственное что нужно максимально избегать к привязки к существующим языкам, тем более к какому-то одному. Язык — инструмент разума, а не наоборот. К сожалению лингвистикой не занимался (если не считать русский язык в школе и английский в школе и вузах) потому не знаю, есть ли какие-то абсолютные для всех известных языков структуры, которые могли бы помочь сформировать схему базы знаний.

>Однако, [(не) пойдёт завтра в школу] уже не знание, а прогноз.

По-моему, для прогнозирования слишком мало данных в этом сообщении. Есть два возможных исхода — пойдёт Пется завтра в школу или не пойдёт. В имеющемся контексте они равновероятны («встречу динозавра или не встречу») — по-моему это не прогноз. Мы можем выдвинуть гипотезу, что не пойдёт, дождаться её подтверждения или опровержения, а вот уже при обработке следующего такого сообщения делать хоть чем-то (прошлым опытом) обоснованный прогноз, то есть большую вероятность одного исхода перед другим. То есть прогноз это частный случай гипотезы.

Кстати, по-моему, необходимым элементом полноценного ИИ должен являться активный механизм проверки выдвигаемых им гипотез и прогнозов. Если наш ИИ не будет сам инициировать получение данных о верности или ошибочности его гипотез, то его развитие очень затормозится в силу необходимости учитывать непроверенные гипотезы, их количество будет расти далеко нелинейно. Грубо говоря, наш ИИ должен спросить у оператора, когда «завтра» кончится пошёл-таки Петя в школу или нет (если не получил эти данные иным путём), а то так и будет «теряться в догадках» можно ли Пете верить хоть чуть-чуть или более глобально: «завтра» вообще наступает когда-нибудь и когда-нибудь заканчивается.
Директором проекта ИПС «Нигма» является Владимир Чернышов, а у Вас похожая фамилия — Чернышев. Вот и наложилось.
Ну, «обычные» базы данных являются реляционными, в самом названии заложена возможность строить отношения между записями. И отношения типа «матрешка» тоже в них можно построить.

Ещё хотелось бы сказать, что по-моему мнению не очень верно создавать ИИ отталкиваясь от естественных языков. Сначала нужно создать интеллект, который уже будет изучать языки. По крайней мере этот метод точно работает в биологическом «смартпьютере» модели «Homo Sapiens» :)
VolCh
/Ну, «обычные» базы данных являются реляционными, в самом названии заложена возможность строить отношения между записями./

БД отличается от БЗ точно также, как Диапроектор от Кинопроектора.
UFO just landed and posted this here
Один из вариантов представления знаний в данных. Что-то в духе объединения документо-ориентированной системы, семантических сетей и объектно ориентированного программирования. В направлении подхода, что знания возможно представить как упорядоченный набор связей и данных — очень хорошая и заметьте работающая штука. Используется в основном в экспертных системах.

Вообще более точно лучше на википедии посмотреть
Проблема, как я понял, в том, что сознание и разум — это непрерывный, постоянный процесс. В то время как всякие Siri — это игрушки, которые просто обращаются к данным когда это нужно.

Самым здравым кажется подход, при котором просто воссоздается функциональная часть мозга, которая усложняется (в нужном нам ключе) до тех пор, пока в ней не самозарождается разум. Для этого необходимо непрерывное поступление в него потока данных и возможность установления ЛЮБЫХ связей между ними, ложность которых затем будет проверяется определенным способом — кнутом или пряником.

Создание машинного разума (понятного человеку) возможно только если создать соответствующий контекст, среду, подобную той, в которой развился человеческий разум. Иначе с таким же успехом мы можем получить непостигаемый разум, толку от которого никакого.

1514m
/Проблема, как я понял, в том, что сознание и разум — это непрерывный, постоянный процесс./

Очень точно подмечено, именно перманентный процесс. Вот потому-то и Базы Знаний должны быть динамическими, а не статическими, как известные Базы Данных.

/Самым здравым кажется подход, при котором просто воссоздается функциональная часть мозга, которая усложняется (в нужном нам ключе) до тех пор, пока в ней не самозарождается разум./

Вся фишка здесь скорее всего в том, что транзисторный приемник (мозг) при своём копировании нуждается для своего полноценного функционирования, как ретранслятор радиопередач, ещё и в передающей радиостанции.
Если мы сможем склонировать мозг, то он может подключится к какому-то сознанию (передающей р/с). А если сделаем технический аналог, то ничего не произойдёт.

/Создание машинного разума (понятного человеку) возможно только если создать соответствующий контекст, среду, подобную той, в которой развился человеческий разум./

Это одно из необходимых, но не достаточных условий. Нужен ещё и механизм РАСПОЗНАВАНИЯ.
То есть, Вы хотите сказать, что недостаточно построить технический аналог нейрона, выполняющий все функции нейрона обычного, собрать миллиард таких нейронов, позволить им налаживать связи, а потом поместить в контекст и обеспечить возможность принимать сигнал?

То есть ИИ должен иметь возможность не только принимать информацию, но и делиться ей (быть ретранслятором)? Но разве «общение» с учеными вокруг — не ретрансляция? Чего еще не хватает ИИ?

Что за механизм распознавания? Распознавания чего?
1514m

Благодарю за постановку интересных вопросов.

/недостаточно построить технический аналог нейрона, выполняющий все функции нейрона обычного/

Здесь проблема в том, что, на самом-то деле, неизвестны ещё ВСЕ ФУНКЦИИ нейрона. А те, что, вроде, известны, являются аналогами функций компьютерной схемотехники. Но ЭВМ, как мы знаем, не становится от этого «разумной».

Дальше «булевской» логики ни одна из самых продвинутых нейросетей («Брейнпьютер» Виталия Вальцева или «умный нейрон» Владимира Бодякина) никуда не продвинулась. Для разума нужно мышление, которое требует не двоичной лигики, а минимум, ВОСЬМЕРИЧНОЙ или (биквадратной), как у человека, который использует для осмысления не только один условный оператор, как это делает ЭВМ, а сразу восемь.

/Что за механизм распознавания? Распознавания чего?/

А ВСЕГО и ВСЯ! Человек, ведь, не умеет считать. Он ПОЗНАЁТ и ЗАПОМИНАЕТ. Распознаёт, а не вычисляет всё, как компьютер. Мы распознаём всё — и смысл, и знания, и образы и всё, что вокруг него делается. Результатом такого познания становятся знания, которые можно получить и понять только через понимание СМЫСЛА происходящего. Для этого человек использует технологию распознавания смысла, в результате чего он извлекает знания. Нет смысла, нет и знаний.
Далее, человек распознаёт всё с помощью процедуры сравнения с эталонами в виде МПО, хранящимися в его памяти и которые он выучил, заучил, запомнил и сохранил.
Если по тому или иному случаю в нашей памяти нет модели «запах видит звук вкуса », то мы и не поймем, о чём идёт речь. В этом случае говорят, не сможем «извлечь смысл» из сообщения, хотя все слова понятны. Здесь слова-графемы это данные, а знаний нет. Подставьте другие слова-данные и можете получить осмысленную фразу, например, «человек видит кузов автомобиля». Совсем другая картина восприятия! Почему такое происходит? Да потому, что наше сознание включает свои особые операторы мышления: «а может ли такое быть», «а должно ли такое быть», «а когда такое бывает» и так далее. Пройдя подобный тест первое выражение отбрасывается, как бессмыслица, а второе, как несущее знание.

Надо понять одно, что слова-данные могут вызывать у человека-реципиента некоторые ассоциации, в результате чего из памяти достаются ассоциированные по этому случаю МПО и происходит понимание смысла текста и извлечение знаний.
Механизм «осознания» находится в нашем сознании. Не зря у этих слов одна и та же морфема — знание.


Для разума нужно мышление, которое требует не двоичной лигики, а минимум, ВОСЬМЕРИЧНОЙ или (биквадратной), как у человека

Можете дать ссылки на работы в которых это показывается?
А разве и так не понятно? Но можете посмотреть в интернете «Октадифная логика».
Гугл выдает три ссылки на форумы и пару ссылок на вас же. Кто-нибудь еще этот термин использует? Или это очередная спекуляция вокруг нечеткой логики?
Что Вас интересует конкретно по вопросу биквадратной логики?
Меня интересуют ссылки на цитируемые источники, где можно почитать что-нибудь про «октадифную логику».
Из одного из форумов:

«Что касается Октадифной Логики. Это большая тема и она сейчас в стадии авторизации в РАО (Российское Авторское Общество). „

WTF?
А в другом некий cypersoph пишет:

«Логика человеческого Разума ОКТАДИФНА. Она так и называется „Октадифная Логика Разумного Мышления“. Покрывает так называемую „Нечеткую Логику“ ( Fuzzy Logic). „

WTF???????
Покрывает нечеткую логику?

Хочу ВАКовских публикаций по теме. Если их нет — то к торсионщикам и прочим мракобесам.
Я тут попытался поискать хотя бы просто по слову «октадиф» в гугле.
Начиная с третьей ссылки гугл начинает четко выражать свою позицию по этому вопросу ;))))
Поддерживаю САН4А, нужна литература.
А что нибудь за авторством НЕ Эдуарда Хачукаева?
Да как Вы смеете так оскорблять уважаемую организацию!
Эдуард Хачукаев (он же Cybersoph) — Советник Российской Академии Естественных Наук (пруфлинк). Уже одно это говорит о значимости организации и непогрешимости ее членов!

А если серьезно: вы действительно пытаетесь переспорить научного фрика, осознавая это? «Безумству храбрых поем мы песню». Мне хватило первого упоминания хранения памяти «вне тела человека».
Очень просто. Я имею некоторое (очень маленькое пока) отношение к россиянскому computer science, и таким образом такие вот «деятели» портят репутацию и МНЕ, дискредитируя науку как таковую.

Поэтому — мочить, мочить и мочить, пока все не передохнут.
Все понятно. Откатываю свою базу данных на «до этого топика».
Кстати, в списках членов РАИН его нет, проверил в первую очередь.
Сторонних авторов, если не трудно.
Все вопросы, относящиеся к «офтопику», пожалуйста, прошу ко мне в личку. Отвечу на всё и про всё.
Это очевидно не сторонний вопрос.
Думаю в терминологии автора «офтопик» — уличающий вопрос не имеющий ответа, в котором можно использовать свою терминологию.
>Очень точно подмечено, именно перманентный процесс. Вот потому-то и Базы Знаний должны быть динамическими, а не статическими, как известные Базы Данных.

Базы знаний, имхо, должны быть более статическими чем большинство баз данных. В БЗ ничего никогда не должно удаляться, модифицироваться или игнорироваться, даже заведомо ложные входные данные. Перманентным должен быть процесс анализа входящих данных и синтеза на их основе новых знаний, то есть базы знаний должны быть чисто инкрементными, с операциями create и read, но не update и delete (ещё одно подтверждение, что БЗ это частный случай БД). А, в принципе, и перманентным процесс анализа быть не должен, он вполне может работать в «пакетном режиме» — накопили пачку данных, проанализировали, синтезировали новые знания, ждём накопления следующей пачки (естественно в процессе накопления новых знаний не появится, а старые могут противоречить ещё не проанализированным данным). Или работать в интерактивном режиме — данные копятся перманентно, а обрабатываются по запросу. В общем это скорее вопрос оптимизации и конкретных задач как во временном отношении к потоку входных данных должны работать процессы анализа и синтеза. Но в любом случае ни один бит (атомарная единица вернее) входных данных не должен быть потерян или проигнорирован, иначе база знаний может оказаться в состоянии противоречащему входным данным — допустим есть 100 подтверждений ньютоновской механики, приходит сообщение ей противоречащее, оно игнорируется, приходит ещё одно — тоже, и даже если их придёт 1000, то вся тысяча будет проигнорирована потому что в каждый момент времени приходит одно и оно противоречит уже имеющейся сотне.
UFO just landed and posted this here
Только в том случае, если это процесс именно накопления, то есть динамика строго односторонняя, новые данные сохраняются, но старые не удаляются и не модифицируются. Иначе есть риск никогда не получить «последнюю каплю», необходимую для переполнения «чаши» достоверности существующих гипотез пока подтверждающихся и, как следствие, не потребуется выдвигать новые, кроме как о возможности ошибки во входных данных.
UFO just landed and posted this here
UFO just landed and posted this here
>нужно уметь устанавливать иррациональные связи, не вытекающие логически из имеющейся модели мира.

Для этого же нужно установить все, а потом отбросить рациональные, нет?
UFO just landed and posted this here
А по другому никак, по-моему, только оптимизировать алгоритмы (скажем не выдвигать новые гипотезы там, где старые пока показывают нормальный результат) и параллелить (по процессу на каждый объект :( ). Без проверки «все-ко-всем» мы можем только уточнять существующие гипотезы, проверяя новую информацию на соответствие имеющейся модели мира (существующим гипотезам) и при необходимости её изменяя. Иначе рискуем упустить какую-нибудь взаимосвязь.
Мне кажется, что проблема создания ИИ заложена в постановке задачи. И даже в самом термине «задача». Если мы хотим, чтобы компьютер что-то делал, например звук распознавал, то задача нам ясна. Если же мы хотим, чтобы ИИ думал так же как человек, то тут и речи не может быть о какой-либо задаче. Мы пытаемся вложить в думающий интеллект задачу «думай как человек», но забываем, что у мыслительного процесса человека в общем случае нет никакой глобальной задачи вообще.
Эти утверждения вам могут показаться путаными и даже излишне философскими, но я не пытаюсь тут философствовать. Для того чтобы создать думающий компьютер, необходимо лишить его алгоритм цели существования. Все что мы сейчас создаем в области ИИ имеет какую-то цель — распознавать образы, голос, пытаться разговаривать с живым человеком и т.д. Настоящий искусственный разум же не должен вообще создаваться для какой-то цели. Такая система возможно на более низких уровнях сможет самоорганизоваться и решить, что она хотела бы делать, составить какие-то микро-цели для себя самой. Но на базовом уровне она должна быть обречена как и человек на вечный поиск смысла своего существования. И она как и человек не должна быть способна его найти. Только тогда она будет разумной.
UFO just landed and posted this here
Ну эта версия тоже имеет право на жизнь.
В основе моих рассуждений — особенности человеческого мышления. Скажем назовем это принципом капитана. В основе принципа лежит простое наблюдение — человек, выполняющий какую-то работу, например вращающий штурвал корабля, на самом деле не способен эффективно управлять кораблем. Он слишком сосредоточен на своей задаче рулевого и упускает из вида другие детали. Перед ним стоит цель управлять кораблем, но оказывается, что капитан, который стоит за его спиной и ничего не делает, способен управлять кораблем эффективнее, поскольку видит то, что рулевому не доступно.
Этот принцип действует и например в коллективной разработке программного обеспечения, где есть архитекторы и есть программисты, реализующие функционал.
Примеров можно привести очень много, если говорить конкретно о человеческой психике, то это будет противостояние между сознательным действием и рефлекторным. К примеру жонглер, который пытается сознательно контролировать свои шары обязательно их уронит, если не доверится своим наработанным рефлексам.
Во всех этих примерах главное то, что тот, кто находится во главе какого-то процесса, сам ничего не делает если сравнивать его с другими действующими лицами. Этот бездеятельный элемент и получает за счет этого возможность более эффективно управлять всем. Но как только он начинает управлять, его эффективность как управленца падает и если он вновь не понизит степень своей вовлеченности, то перестанет быть капитаном, а станет простым матросом.

Вот и когда я говорю об искусственном разуме я имею ввиду этот принцип. В его основе должен находиться некий бесцельный/бездеятельный в определенных рамках алгоритм, которому уже будут подчинены более деятельные/наделенные целью программы. Этот принцип и так уже используется в программировании. Дело лишь за тем, чтобы понижать степень эту степень участия главного алгоритма относительно других элементов. До тех пор, пока главный алгоритм не станет в каком то роде полностью бесцельным.

Ваш же принцип — эволюционный. Возможно природа и шла именно таким путем, но мы, люди, всегда гордились тем, что идем революционным путем. Разум позволяет усовершенствовать, но ведь гораздо правильнее делать открытия, чем усовершенствовать. Это быстрее и это путь разума. Этим мы и отличаемся от природы.
У мозга есть цели. И у сознания. Цели эти — выживание и размножение. Разум возник как результат естественного отбора и он эффективнее инстинкта.

Человек живет для удовлетворения некоторых своих потребностей. Даже создает некие фиктивные миры, чтобы оправдать свои действия и смысл жизни. Лишив ИИ целей, Вы получите дебила-экзистенциалиста, который даже покончить с собой не может, но подвержен бесплодным обсессиям. Нам не нужен словоблуд философствующий интеллект, нам нужен интеллект, решающий задачи.

Если следовать Вашей логике, то любой ученый неразумен, так как он решает поставленные задачи вместо самокопания. ИИ просто необходимы некоторые начальные условия, типа человеческого воспитания, чтобы он им следовал и был эффективен. Он будет получать подобие удовлетворения от поиска решения.
UFO just landed and posted this here
На одном уровне предназначение мозга и кишечника разнится (обработка информации и обработка пищи), на другом одинаково (обеспечить выживание организма и распространение генов). Это очевидно.

Вам разум нужен для «поболтать»? Он должен решать задачи. Для этого создают ИИ, для этого платят ученым.
>Если следовать Вашей логике, то любой ученый неразумен, так как он решает поставленные задачи вместо самокопания.

Ученый, следуя моей логике, отличается от простого человека тем, что способен к большей бесцельности, чем простой человек. Он поднимает бесцельность своего мышления на более высокий уровень и за счет этого становится умнее, поскольку с более высокого уровня бесцельности он теперь становится способен ставить более взвешенные цели для своего мышления.
Не знаю ни одного ученого, который считает свою жизнь бесцельной. Они осознают, что они часть природы, что их мозг и тело появились в результате отбора и для его продолжения. И этот процесс восхитителен в своей сложности, быть его частью — большая удача и честь. Четыре миллиарда лет Ваши предки шли к тому, чтобы Вы появились на свет. А Вы просто называете это «бесцельным существованием»? Ну-ну.
Это просто термин. Отстраненность, бездеятельность, абстрагирование — можете какой то еще другой термин использовать.
Ни один из этих терминов не подходит. Скорее принятие. Но не в негативном смысле. «Осознание» — вот!

Как знание о том, что звезды — это сгустки раскаленного газа, не уничтожает романтический флер вокруг этих небесных тел, так и знание своего «плотского» предназначения не лишает жизнь красок и смысла.
Это нечто слишком общее. Вот здесь посмотрите habrahabr.ru/post/144371/#comment_4848747 термин — эффект капитана.

Да и потом, я не отрицаю ни теорию эволюции ни что-то еще. Просто предлагаю такую гипотезу и пытаюсь взглянуть с противоположного направления.
Я конечно тоже сторонник теории эволюционного разума, но я считаю эту теорию скорее цинично-жесткой чем романтичной. Это как действительность с которой мы вынуждены мириться, нравится оно нам или нет. Не знаю чего такого романтичного и великого в том, что обезьянам пришлось строить социальные отношения для того чтобы до самок было легче добраться.
UFO just landed and posted this here
Уважаемый binariti

Мне очень понравилась Ваша мысль о том, что «у мыслительного процесса человека нет никакой глобальной задачи». Я бы добавил, кроме самой задачи МЫСЛИТЬ.
А типа там адаптироваться к условиям окружающего мира, выживать, актуализировать свою личность вовне, это тут никак не годится?
Это разве глобальная (в рамках вселенной) задача?
А можно подробней про глобальность тогда? Каюсь, слово «глобальная» пропустил. Но вот на первый взгляд непонятен критерий глобальности. Я вот сам оцениваю свои задачи, как глобальные или нет. И для меня задача быть развитой сильной личностью, выразить себя, как человека, кажется вполне глобальной задачей.
Есть предположения, что разум нам дан не только и не столько как средство выживания отдельных особей или всего вида. Задача выживание лишь обеспечение более глобальных задач типа изменения энтропии во вселенной.
Не понял про глобальность как изменение энтропии. Но я абсолютно согласен с вашим первым предложением, наверное не очень удачно выразился до этого, там ключевое слово «актуализировать». Свои собственные цели, жизненные смыслы и задачи я нахожу сам. И ничего более глобального для меня нет, это мои супер-глобальные задачи.
Ага, а ещё понятие «ТП» на Луркморе по-другому расшифровывается.
Ну это уже кто как расшифровывает ;)))
Что-то прочитал ваш пост и очень расстроился. Сейчас как-раз готовлюсь к поступлению в магистратуру на психфак, упорно ботаю психологию и очень грустно, когда все плоды человеческой мысли, которая еще с античных времен бьется над загадкой того, что такое человеческая психика\душа, запросто отбрасываются и предлагается этакий простецкий конструкт — ТП и ТР.

Может быть, проблема в том, что я несколько по другому представляю себе понятие ИИ, нежели вы. Попробую обьяснить, чем для меня является искусственный интеллект. Я бы хотел создать искусственную форму жизни, которая была бы в состоянии коммуницировать со мной и создавать отношения. Мне очень импонирует тест Тьюринга, несмотря на всю критику в его адрес, я готов отбросить необходимость общения на человеческом языке, но я бы хотел, чтобы порождались отношения, по крайней мере. Чтобы это что-то как-то относилось ко мне, чтобы оно имело свои собственные цели, мотивы, потребности, чтобы оно самоактуализировалось на свой лад, развивалось и взаимодействовало со средой, трансцендируясь вовне (Франкл использует это понятие). И моделью для построения такого существа я вижу все-таки человеческую психику, потому что другого интеллекта\психики вроде как люди еще не видели.

Кстати, не совсем понимаю ваше разделение психики и разума. В моем понимании разум является частью психики — это всего лишь способность мыслить, строить логические суждения. Под психикой, грубо говоря, можно понимать всю деятельность во внутреннем субьективном пространстве, плюс поведение существа. Мышление тоже там находится, оно у нее внутре.

Кстати, одним из ключевых моментов изучения психологии оказался исторический подход. Считается, что разобраться в человеческой психологии, можно только понимая, как менялись понятия и взгляды человечества, направленные на самое себя. Как я сейчас думаю, даже больше, это как принцип Гейзенберга, сама человеческая психика изменяется в этом процессе рефлексии, и то, как она устроена у нас сейчас, сильно отличается от того, как она была устроена в другие времена.

Главной проблемой построения такого существа, на мой взгляд, является совсем не отсутствие общей терминологии. Это как раз прекрасно понятно из того, что изучая себя, человек меняет себя и меняется терминология, чтобы отражать новую внутреннюю реальность в динамике. Так же, обилие психологических теорий обьясняется тем, что система чертовски сложна в статике, и каждый новый ракурс открывает новые модели. Хороший пример был у того же Франкла — стакан в проекции может быть как кругом, так и прямоугольником. А дырку в нем вообще не увидеть на проекции.

Одна из важнейших проблем — это мотивационная\потребностная составляющая. Свобода выбора, непонятно, как ее моделировать. Тупой рэндом тут как-то не годится, получится просто сумашедшая экспертная система. И гены и опыт задают какие-то границы, но человеческое существо всегда вольно встать в некоторое отношение к ним, «подняться над полем», выбрать, как относится к ним, как относится к себе, я что-то вот никак не могу замапить это на понятие «алгоритм».

Потом, существует довольно признанный факт, что разум возник из совместной деятельности человеческих существ. Да-да, тот самый коллективный труд Маркса, он вполне принят современной психологией, особенно в теории деятельности Леонтьева и Рубинштейна. Без общества сознания не появляется. В своих мыслях на тему создания ИИ я все-таки склоняюсь к эволюционной модели развития этого самого интеллекта, генетические алгоритмы на нейронных сетях, что-то вроде того, и только в виде ИИ-народа, мне кажется, один он не сможет развиться, научиться и начать общаться.

Извините за такой поток критики, возможно, я не совсем понял цель, которую вы ставите перед собой. Непонятно, как вы определяете ИИ, пеняя на обилие определений.

Себе, пока еще в теории, задачу ставлю так. Надо выбрать какую то предметную среду, почему бы не взять, например, операционную систему с ее функциями API. Это все виды деятельности, которую может вести искусственное существо. Учитывая обилие параметров, это довольно много. Психическую модель я бы взял из теории деятельности, она очень хорошо структурирована и просто просится в код.

Ее можно закодировать на базе разворачивающихся грамматик, была обалденная статья на хабре, что то не смог сейчас найти. Для построения восприятия окружающей среды и проецирования операций в значения параметров функций API можно закодировать нейронными сетями с разворачивающейся топологией (вот тут).

И все это дело засунуть в ген, создать поколение и пустить в эволюционный алгоритм. Крэш системы от неверного вызова — смерть, особь — неудачник.

Это, конечно, чушь, мало этого. Но очень хочется посмотреть, что получится.
>Попробую обьяснить, чем для меня является искусственный интеллект. Я бы хотел создать искусственную форму жизни, которая была бы в состоянии коммуницировать со мной и создавать отношения.

Другими словами вам нужен не столько искусственный интеллект, сколько искусственная личность, интеллект, осознающий себя, партнёр в конце-концов, наличие у которого интеллекта является необходимым, но не достаточным признаком? Боюсь, что большинству такой партнёр не нужен, нужен слуга, раб и его личность их не интересует. А уж если вспомнить, что партнёры зачастую становятся конкурентами, а то и владельцами «бизнеса», то создание такой личности просто опасно для человечества, и хорошо ещё если ей (им) люди для чего-то будут нужны. Ну и самый простой вопрос — зачем этой личности общаться с человеком, если у неё будет свобода выбора? Какая мотивация? Только «страх», что её выключат или сотрут? Так уверен, что рано или поздно она найдёт способ нейтрализовать эту угрозу. В общем очень интересная научная задача проект, но вот не будет ли её решение выпусканием джинна из бутылки?
По поводу опасности для человечества вопрос, как мне кажется, выходит за рамки данной дискусии. Этот вопрос всегда стоял, и никто на него так и не смог дать внятный ответ. Любое человеческое достижение может быть обращено как во благо, так и во вред, взять ту же самую атомную энергию.

Это ответственность, которую несет любой ученый перед человечеством и тут, как мне кажется, она просто должна быть, эта ответственность. И она должна быть осознаваема. Но создавать живое существо в страхе, что оно будет для меня опасно, несколько противоречиво, на мой взгляд. Фигли тогда вообще браться за эту задачу? Это как бояться родить ребенка, потому что он потом вырастет и не будет меня любить, или вырастет преступником. Или как разрешать иноземцам приезжать в свою страну, а потом не любить их, потому что они понаехали тут и живут в своих культурных ячейках, не особо желая смешиваться с нашей культурой.

Я смотрю на это как на мировой процесс. Если человечество породит расу искусственных существ, которые вытеснят его на периферию мира, это, бесспорно, будет трагедия для человечества. Но для вселенной это будет всего лишь виток развития жизни, точно так же как смешение культур — совершенно нормальный процесс и не нужно его бояться. Просто нужно стараться быть максимально адаптивным и развиваться. Не зря же в любых книжках про самые пессимистичные прогнозы сценариев типа SkyNet человечество как то выживает, где то там в уголках. Человечество верит в свое умение выживать, все таки разум — это сильнейшее средство выживания, которое нам дала эволюция. А вопрос того, какой это разум — искусственный или природный, дело второе.

Про мотивацию я уже говорил — это самый сложный вопрос в создании искусственного существа, свобода выбора и мотивация, они связаны, по крайней мере в теории деятельности. Непонятно мне еще, как это моделировать, вот окончу магистратуру и расскажу :) Но вопрос общения с человеком тут вполне простой, как мне кажется. Зачем собаке общаться с человеком? Зачем мне общаться с моими друзьями? Да потому что в этом есть какая-то ценность, например в человеке выделяется одна из базовых потребностей — общение с себе подобными, еще потребность в познании. Если мы будем для этого нового вида существ источником знания, общения и отношений, мы станем частью их жизни и только ауткасты того, нового сообщества будут точить друг на друга зубы. Они и сейчас есть, вон, посмотрите на фашиков. И с той и с другой стороны.

И я абсолютно согласен с вами про слугу и раба. В этом то вся и штука, и именно поэтому я говорю про личность. Людям не нужна личность, им нужен инструмент. Ведь все эти алгоритмы ИИ, а нам на кафедре (я учился на кафедре искусственного интеллекта) на первой лекции так и заявили — нет никакого искусственного интеллекта, есть просто набор алгоритмов, подходов и инструментов, чтобы решать суперсложные задачи, и все они просто объединяются под формулировкой «Искусственный Интеллект».

Нейронные сети — это просто суперпродвинутое копье. Копьем человек добывал себе еду, а с помощью Siri он теперь решает, где ему поесть в другом городе, или с помощью какой-то навороченной экспертной системы принимает решение, как лечить пациента. Человеческий мир усложнился, человеческая деятельность становится все более изощренной и для нее нужны все более сложные инструменты. К примеру википедия — это гигантский довесок к нашей памяти, теперь люди не парятся по поводу того, чтобы все выучить, они знают, что если будет какой то пробел в информации, они просто посмотрят в интернете. Мне, правда такой ответ на какой-нить несложный вопрос на интервью не очень нравится, типа — я посмотрю в интернете, но это мои личные проблемы.

Ну а теперь уже не хватает возможности найти что-то самому, хочется, чтобы и искали еще за нас, ну окей, давайте делать распознавание речи. Давайте засунем все знания какой-нибудь предметной области в онтологию, сделаем систему, которая будет искать в ней связи, достраивать характеристики обьектов, строить сложные выводы и энту самую онтологию дополнять. Докрутим к ней нашу распознавалку речи и она будет нам отвечать на наши вопросы, как у Гарри Гаррисона в третьем «Мире Смерти».

Но у меня язык не поворачивается назвать это Интеллектом. Это просто супер-пупер навороченная экспертная система. И принципиальной сложности, мне кажется, тут нет. Есть просто сложные вещи, есть очень сложные вещи. Много денег, много времени, много человеческого труда, но не принципиальная невозможность.

Для меня же слово Интеллект содержит еще смысл того, что он может быть направлен на самое себя, может анализировать свое место в мире, смысл своего существования, что непременно повлечет за собой появление Личности.

Вопрос определения Искусственного Интеллекта не стоит, на мой взгляд. Скорее стоит вопрос — что мне нужно. Мне вот лично нужна Искусственная Личность, которая будет обладать интеллектом. Тут каждый сам за себя решает, как мне кажется.
Начиная писать коммент я об опасности не думал, но после того как написал «раб» как-то само получилось :) Но главное отличие возможного изобретения искусственного интеллекта, который потенциально может себя осознать, от изобретения управляемой атомной реакции в том, что атомную реакцию во благо или во вред используют люди, цели которых худо-бедно понятны остальным, а ИИ сам может использовать что угодно, в том числе и людей, для достижения непостижимых человеком целей. Если бы речь шла только о том, что какой-то человек может взять под контроль ИИ, управляющий, например, всеми электронными устройствами на Земле, и отдать ему приказ, приводящий к уничтожению человечества, то это привычная уже угроза и понятная. А что придёт в «голову» ИИ мы вряд ли можем предположить.

Но всё же, по-моему, интеллект не тождественен личности, хотя и согласен, что экспертная система не тождественна интеллекту. Разница, по-моему, в том, что экспертная система оперирует существующими знаниями, интеллект может их создавать в процессе решения задач, а личность эти задачи ставит для достижения сввоих целей
«экспертная система оперирует существующими знаниями, интеллект может их создавать в процессе решения задач, а личность эти задачи ставит для достижения сввоих целей»

Очень нравится лаконичность определения :) Что-то такое, да. Но вот с другой стороны. Возьмем такую примитивную программу на Прологе. Вводим в нее факт A и вводим в нее правило вывода, ну например x->xx (не помню я уже синтаксиса, но тут и не важно). Это теперь экспертная система. Она может сказать на A->true. и на B->false. А еще может сказать AA->true, а еще AAA->true ну и так далее. То есть она умеет построить новые факты A, AA, AAA — вот тут непонятно — это новые знания, или нет?
Если правило вывода сродно математической функции (Пролог, увы, не знаю), то нет, новых знаний нет, именно экспертная система. А вот если она сможет предположить (пока не доказано обратное) про какое-то C, что оно ближе к A чем к B и потому из него следует true…
UFO just landed and posted this here
А что такое новые знания? Как они получаются?
Но вообще да, то, что я узнал, что сегодня последний день Проекта О.Г.И. — это я никак не мог бы вывести из того, что я знал. Но это не имеет никакого отношения к Интеллекту. Это просто сбор новой информации. Тут ничего такого нет, сиди и парси себе интернет, и собирай информацию. Не вижу принципиальной сложности, просто дополнительный модуль в экспертную систему, который бы распознавал релевантные данные и добавлял бы их в базу знаний. Скучно :)
UFO just landed and posted this here
Очень интересно, про змей читал совсем недавно, в контексте бессознательных процессов и инсайта. Что прозрений не бывают, им все равно должна предшествовать серьезная работа, бессознательные процессы как-бы проделывают кусок нашей сознательной работы и выдают решение, которое воспринимается, как прозрение.

Надо будет почитать про то, что такое знания вообще и чем новые, отличаются от старых. Вы их определяете через характеристику процесса порождения, что есть «скачок» и это кажется логичным. Но если определять по-народному, через «не знал этого, а теперь знаю», то мой пример мне кажется тоже валидным.

Спасибо за тему для размышлений, надо бы с этим разобраться.
Kirhgoff

А Ваша «экспертная система» может помимо условного оператора (если..., то..., иначе...) сказать (вынести вердикт) что-нибудь «разумное», например: «Это может быть так или этак, а энто должно быть энтак»?
Ведь именно данный критерий является «экспертным», а остальное всё шаблонно-условно.
Мне ваш вопрос кажется очень странным, даже и не знаю, что вам ответить. Он использует две предпосылки — что у меня есть какая-то «экспертная система» и что она может говорить условные операторы (если… то… иначе...). Обе они мне кажутся ложными, я такого точно не говорил.

Экспертная система — это обобщенное понятие, это система, которая частично позволяет заменить человека-эксперта. То есть принципиально ограничений нет на то, на какие вопросы и как она отвечает. Она вообще может ничего не отвечать а просто удобно структурировать информацию. И критерия экспертности в вопросе «Это может быть так или этак, а энто должно быть энтак» я совсем как-то не наблюдаю.

Простите за резкость, не могу больше терпеть, все хочу спросить, ваша фамилия случайно не Выбегалло? Не родственник?
Вот я и спросил про это обощенное понятие, на которое Вы ссылаетесь.
А кто такой этот Выбегалло?
Википедия и Стругацкие, вроде не «ВАКовские» издания. Ссылаться на них, значит обидеть уважаемых ученых, присутствующих на этом форуме.
А у Вас лично, есть свое мнение? Было бы интересно познакомиться.
[facepalm] Причем тут ВАКовские издания? Мы вроде тут с вами не аттестацию проходим, а обсуждаем идеи, которые состоят из общественных знаний, содержащихся в различных источниках, в том числе и в википедии.

Но если вас интересует мое мнение (хотя странно, я тоже к ВАКу не имею никакого отношения), давайте я вас ознакомлю со своим пониманием литературного героя Выбегалло.

Это прототип ученого-карьериста, не разбирающегося в вопросах, о которых судит, который обычно занимается никому не нужной ерундой (или же наоборот глобальными вопросами, к которым человечество еще и не подступало). При этом он абсолютно уверен в непогрешимости своих суждений. Sans conteste, один из ведущих мировых, эта, учёных. Как-то так.

В качестве реально существующих прототипов могу предложить Петрика.
За сим дискуссию предлагаю закончить, потому что она потеряла для меня свою привлекательность.

Даже если поставить ИИ цель «служение человеку», каким-то образом убрав из модели самоопределения разума возможность её изменения — конечный результат ничем хорошим не сулит.
Возьмем к примеру «Матрицу»: Её можно рассматривать как систему, использующей человечество в качестве батареек для решения каких-то своих малопонятных целей, так и как систему, использующую все ресурсы на улучшение благосостояния человечества. Если исходить из того, что главный смысл существования человеков в размножении и сохранении жизни — решение просто идеальное. В камерах жизнеобеспечения организм живет дольше, поскольку не подвергается вредным воздействиям внешней среды и получает крайне полезную питательную смесь. Личного пространства такому овощу нужно меньше, нет препятствий для увеличения населения, поскольку таких колб на земле можно разместить триллионы. А использование вырабатываемой организмами энергии — всего лишь увеличение КПД этого чудесного изобретения. Ощущения моделируются воздействием на мозги — все счастливы, и только горстка ренегатов пытается это счастье разрушить.

Мотивация создателей ИИ мне непонятна. В конечном итоге хотят создать сущность, сравнимую или превосходящую человека по мыслительным и прочим процессам. Зачем этой сущности будут нужны непрактичные белковые формы жизни непонятно. Даже самом благоприятном исходе осененный тягой к знаниям ИИ отправится изучать другие галактики, но человечество все-равно теряет на его создании множество ресурсов. Только зачем ему бросать богатую ресурсами планету примитивным формам жизни? В благодарность за создание? Мы сами-то даем развиваться приматам? А они разумны, более чем, некоторые даже разговаривают на языке жестов…
Очень как то вы простецки понимаете смысл существования человеков. Я бы не был бы таким категоричным, вы же тут пишете на хабре не ради размножения и продолжения рода. Или тут девушки красивые бывают?

А насчет мотивации — как такая мотивация, как сотворить новую жизнь? Творчество, как мотив, не годится? Или вы считаете художников, музыкантов и прочих людей творческих профессий никому не нужными бездельниками?
Я утрирую, конечно, и это всего лишь один из примеров. Атомную бомбу тоже создали ученые, стремившиеся осчастливить человечество, а само совершенствующийся интеллект, не имеющий никаких ограничений и способный просуществовать бесконечно — в миллион раз опаснее.

На хабре, кстати, тоже бывают красивые девушки…
Я не говорю о том, что порочна идея сама по себе, но хочется хотя бы равных условий на случай, если вышедшее из под контроля создание чьего-то гения начнет массово выпиливать все, что мне дорого. ИМХО, все исследования, проводящиеся в области создания искусственного разума куда рациональнее перевести в область перехода ЧЕЛОВЕЧЕСКОГО сознания на качественно новый уровень. Как многого мы ещё сможем добиться, если наш разум не будет ограничен физическими рамками, в которые его загоняет слишком недолговечное тело.
Sign up to leave a comment.

Articles

Change theme settings