Нейронные сети, генетические алгоритмы и прочее… Мифы и реальность. Версия II

    Прежде всего, я хотел бы поблагодарить всех, кто дал свои критические комментарии по первой версии статьи. Мне показалось, что написать версию два, а не просто оставить все как есть, было бы правильной идеей.
     
    Конечно же, искусственный интеллект уже существует!  Если посмотреть заголовки статей в популярных СМИ, названия и слоганы различных научных конференций на эту тему – безусловно это так. Нельзя не поверить, особенно когда очень этого хочется наконец-то оказаться в XXI веке — «настоящем», как это описывалось во всех научно-фантастических романах. Но так ли это? А если нет, то что существует на самом деле. В попытке разобраться в мифах и реалиях была написана эта статья.
     
    Первоначально хотелось начать как-то так: «впервые упоминание термина «Искусственный интеллект» появилось у Д. Мккарти в 1956 году на конференции в Дартмундском университете, основоположниками ИИ следует считать У.Мак-Каллока, У.Питса, Ф.Розенблата» и т.д. Однако, это уже слишком поздно и не совсем отвечает целям статьи, да и википедия опередила с таким началом.

    Анализируя последние «победы» ИИ, а также критические статьи неизбежно приходишь к выводу, что все крутится вокруг нескольких общих особенностей. Одна часть статей критикует невозможность прохождения тестов, а другая полна патетики о «невероятных победах».  При этом игнорируется тот факт, что победы были достигнуты в узкоспециализированных задачах, где основным преимуществом машины была скорость переборов по базе фактов и «умении» видеть закономерности там, где человек просто-напросто быстро устает это делать. Блестящие примеры кластерного анализа в том или ином виде и формирование базы шаблонов-фактов. Всё это следствия, причины же в большинстве случаев или не анализируются совсем, или рассматриваются поверхностно.

    Бесспорно, что на сегодняшний день ИИ можно признать отдельной наукой или, как минимум, отдельной отраслью знаний. Любая наука должна обладать собственной аксиоматикой, определениями, теоремами и гипотезами. И вот здесь и начинается самое интересное. А именно – с определения того, какую же деятельность можно назвать «интеллектуальной» и что можно охарактеризовать как «искусственный интеллект»? Далее необходимо обозначить перечень причин и условий, на основании которых можно или нельзя констатировать факт существования искусственного интеллекта в его полной форме, например, по Серлу. Неопределенность же в этих вопросах и порождает весь тот огромный спектр мифов, которым оброс ИИ. Кроме того, существует целый ряд неплохих статей по истории возникновения ИИ, например, вот или вот. Но все же, немного погрузится в историю стоит еще раз было бы целесообразным.

    Начнем с определения того, что же такое ИИ, попробуем проследить дрейф самого понятия. Некоторые даты являются приблизительными.

    1956 год. Д. Маккарти предлагал, что «под интеллектом в пределах этой науки понимается только вычислительная составляющая способности достигать целей в мире», а вместо понятия программное обеспечение – вычислительные методы.

    1976 год. Гипотеза Ньюэлла-Саймона о том, что способность выполнять символьные вычисления вполне достаточна для того, чтобы стать способным выполнять осмысленные действия. Следовательно, все животные и человек по сути выполняют символьные вычисления. В известной мере это продолжении механицизма Декарта и его Картезианской теории. Все современные исследования строятся именно на этой гипотезе, не смотря на всю ее критику.

    1971-79 год. Эдвард Фейгенбаум создает концепцию экспертных систем, ставшую прототипом всех экспертных систем. По сути, произошел переломный момент, после которого современная тенденция использования статистики как основы обучения окончательно закрепилась в качестве основной. Исследования в области эвристики были окончательно вытеснены на обочину.

    1980 год. Первая развилка. Джон Серл предложил такие понятия как сильный (полный) и слабый ИИ. «…такая программа будет не просто моделью разума; она в буквальном смысле слова сама и будет разумом, в том же смысле, в котором человеческий разум — это разум».

    1981 год. Барр и Файгенбаум определили, что искусственный интеллект— это область информатики, которая занимается разработкой интеллектуальных компьютерных систем, т.е. систем, обладающих возможностями, которые мы традиционно связываем с человеческим разумом, — понимание языка, обучение, способность рассуждать, решать проблемы и т.д.

    1989-1995 год. Возникновение термина «интеллектуальный агент». Примером может послужить работа Рассела и Норвига[1].

    2004 год. Осипову Г.С.[2] принадлежит одно из наиболее точных, с точки зрения автора, определений термина и задач ИИ. Он определил ИИ как набор методов, моделей и программных средств, позволяющих искусственным устройствам реализовать целенаправленное поведение и разумные рассуждения.

    Суммируя все вышесказанное, хочется вспомнить замечание Бертрана Рассела: все что кажется определенным и точным при более пристальном взгляде становится неопределенным. Современное понимание термина ИИ по факту все больше уходит к интерпретации ИИ как программных средств или Интеллектуальных агентов (ИА). Основным предназначением является решение определённого класса задач в тесном переплетении с Big Data как источника фактов для анализа. В качестве примера можно привести задачу перевода. При всей своей кажущейся всеобъемлемости, она ограничена задачами сопоставления, но совершенно не решает задачу ответов на вопросы: «какая гора самая высокая?» или «что делать если…»!

    Таким образом, явно наблюдается дрейф задачи в область узкоспециализированных систем-агентов и о фактическом уходе от задачи построения ИИ-полной модели в сторону специализированных интеллектуальных агентов. Это неплохая новость, так как отодвигает вероятность катастрофы, описанной Ником Бостромом, а само понятие «интеллектуальный» становится простой декорацией.
     
    Что же касается основных этапов, в свое время попавшаяся на глаза хронология неплохо описывает основные этапы становления ИИ, к сожалению автор неизвестен:

    Этап 1 (50–е годы) (Нейрон и нейронные сети)
    Он связан с появлением первых машин последовательного действия, с очень небольшими, по сегодняшним меркам, ресурсными возможностями по памяти, быстродействию и классам решаемых задач. Это были задачи сугубо вычислительного характера, для которых были известны схемы решений и которые можно описать на некотором формальном языке. К этому же классу относятся и задачи на адаптацию. 

    Этап 2 (60-е годы) (Эвристический поиск)
    В «интеллект» машины добавились механизмы поиска, сортировки, простейшие операции по обобщению информации, не зависящие от смысла обрабатываемых данных (в этом месте трудно согласится с автором в полной мере). Это стало новой точкой отсчета в развитии и понимании задач автоматизации деятельности человека. 

     Этап 3 (70-е годы) (Представление знаний)
    учеными была осознана важность знаний (по объему и содержанию) для синтеза интересных алгоритмов решения задач. При этом имелись в виду знания, с которыми математика не умела работать, т.е. опытные знания, не носящие строгого формального характера и описываемые обычно в декларативной форме. Это знания специалистов в различных областях деятельности, врачей, химиков, исследователей и т.п. Такие знания получили название экспертных знаний, и соответственно системы, работающие на основе экспертных знаний, стали называться системами-консультантами или экспертными системами.

    Этап 4 (80-е годы) (Обучающие машины)
    Четвертый этап развития ИИ стал прорывным. С появлением экспертных систем в мире начался принципиально новый этап развития интеллектуальных технологий – эра интеллектуальных систем - консультантов, которые предлагали варианты решений, обосновывали их, способны были к обучению и к развитию, общались с человеком на привычном для него, хотя и ограниченном, естественном языке.

    Этап 5 (90-е годы) (Автоматизированные обрабатывающие центры)
    Усложнение систем связи и решаемых   задач потребовало качественно нового уровня «интеллектуальности» обеспечивающих программных систем, таких систем, как защита от несанкционированного доступа, информационная безопасность ресурсов, защита от нападений, смысловой анализ и поиск информации в сетях и т.п. И новой парадигмой создания перспективных систем защиты всех видов стали интеллектуальные системы. Именно они позволяют создавать гибкие среды, в рамках которых обеспечивается решение всех необходимых задач. 

    Этап 6 (2000-е годы) (Робототехника)
    Область применения роботов достаточно широка и простирается от автономных газонокосилок и пылесосов до современных образцов военной и космической техники. Модели оборудованы навигационной системой и всевозможными периферийными датчиками.
     
    Этап 7 (год 2008) (Сингулярность)
    Создание искусственного интеллекта и самовоспроизводящихся машин, интеграция человека с вычислительными машинами, либо значительное скачкообразное увеличение возможностей человеческого мозга за счёт биотехнологий.

    По некоторым прогнозам, технологическая сингулярность может наступить уже около 2030 года. Сторонники теории технологической сингулярности считают, что, если возникнет принципиально отличный от человеческого разум (постчеловек), дальнейшую судьбу цивилизации невозможно предсказать, опираясь на человеческое (социальное) поведение.

    Вернемся к проблемам и мифам, которые возникли во многом благодаря большому количеству писателей, а также в попытке разных команд разработчиков получить инвестирование их исследований. В целях разоблачения мифов, написано и опубликовано не меньше статей. Примером могут послужить такие статьи как эта или эта, а вот одна из лучших по образности изложения статей и т.д… Писать очередную статью, на первый взгляд – довольно спорное занятие, если не обратить внимание на некоторые общие черты. Общей чертой всех этих работ является констатация того факта, что все они строятся вокруг критики возможностей нейронных сетей, а также того факта, что мы не знаем, как работает мозг, и что строить ИИ не обязательно вокруг идеи невральных моделей. Все это верно, но практически никто из авторов не пытается сформулировать что-же необходимо для решения задачи ИИ.  В рамках настоящей статьи хотелось бы, пусть и условно, но попытаться обозначить задачи, без решения которых невозможно двигаться дальше.
     
    Прежде чем продолжить хотелось бы сделать несколько замечаний.

    Во-первых, исключить разговоры о тайных исследовательских центрах, в которых какие-то силы скрывают истинное положение дел. Создание действительно разумного агента требует разрешения целого ряда философских проблем и разработки на основании этих решений нового математического аппарата, что попросту невозможно скрыть в полном объеме.

                Во-вторых, все дальнейшие рассуждения ни в коем случае не являются неким утверждением о «божественности» или «непознаваемости» человеческой природы. Задача данной статьи показать белые пятна и показать факт излишней оптимистичности заявлений о факте существования ИИ в его полном виде на сегодняшний день.  

    Что же представляют собой существующие технологии? Общий пул технологий, объединенных под общим термином «системы искусственного интеллекта» не так уж и велик. К нему с разной степенью достоверности можно отнести:

    1. Нейронные сети
    2. Генетические алгоритмы
    3. ДСМ-методы и т.д.

    Возможно, что кому-то покажется, что здесь «в одну кучу» свалены совершенно различные технологии. Но это впечатление обманчиво, ибо несмотря на очевидные отличия, они все имею общие черты:

    1. Предполагают обучение системы.
    2. Основа- это база фактов или обучающая выборка, как совокупность образцов в рамках классифицирующих признаков.
    3. Предполагают наличие избыточных конкурирующих вычислений до достижения одним из потоков заданного порога достоверности.
    4. Результатом вычисления являются как правило какие-либо прецеденты из заранее установленного списка.

    Само же обучение характеризуется следующими основными чертами:

    1. Наличие априорных знаний, заданных в виде классифицирующих моделей
    2. Наличие базы образцов для построения «модели мира» по классифицирующим признакам.

    Нейронные сети
     
    Согласно Википедии, да простится ссылка на нее, нейронные сети «представляют собой систему соединённых и взаимодействующих между собой простых процессоров (искусственных нейронов)». Красиво. Существуют различные варианты реализации такие как байесовские сети, рекуррентные сети и т.д… Основная модель работы: база образов-передаточная функция-оптимизатор.

    Наибольшее распространение сегодня получили ограниченные машины Больцмана в многослойном варианте. Многослойность, т.е. глубина необходима для преодоления проблемы «XOR». Кроме того, как показано Хинтоном, рост количества слоев скрытых нейронов позволяет увеличить точность за счет наличия «промежуточных» образов с минимальным отличием в каждом слое. При этом, чем ближе промежуточный слой к выходу, тем выше конкретизация образа.

    Основная цель создания нейронных сетей и вытекающая из этого задача обучения — это избавление от необходимости промежуточных вычислений-выводов при анализе профиля-матрицы входящих сигналов. Данная цель достигается за счет создания базы эталонных профилей, каждому из которых на выходе должен соответствовать единственный нейрон – ячейка результирующей матрицы. Каждому такому нейрону приписывается определенная трактовка-результат.

    Основная проблема как с точки зрения решаемой задачи, так и собственно обучения – это зашумленность поступающих на анализ профилей-матриц возбужденных нейронов входящего слоя. Поэтому одним из основных условий является наличие качественной обучающей выборки. Если обучающая выборка низкого качества, то сильная зашумленность приведет к большому количеству ошибок. Впрочем, и большой размер обучающей выборки может привести к тому же результату.

    В какой-то степени, работу нейронной сети можно сопоставить с работой безусловных рефлексов живых существ[3] со всеми вытекающими недостатками.

    Такой подход отлично работает для задач где отсутствует сильная зашумлённость, четкая априорная база эталонных образов. Основной задачей является выбор наиболее подходящего образа из уже существующей базы знаний. Задачи прогнозирования, в данном случае, будут решаться только путем экстраполяции существующей истории без возможности создания новых сущностей т.е. индукцией с недостаточной дедукцией.

    Кто-то может поспорить что это не так. Но прежде чем отметать вышесказанную мысль необходимо определится в том, что имеется ввиду под термином «новая сущность»? Это еще один экземпляр в рамках существующего пространства классов-векторов выбранной предметной области или создание новых областей-пространств? Теме сравнения чего-либо с чем-либо, что можно сравнивать и что нельзя, проблеме смешения предметных областей будет посвящена одна из следующих статей.

    Основной принцип обучения у человека — это индукция и абдукция. Индукция затруднена хотя бы из-за изначальной постановки задачи – избавится от промежуточных вычислений. Возможное возражение о том, что процессы, связанные с индукцией, могут происходить на этапе обучения — являются слабыми, так как обучение строится на нескольких основополагающих принципах:

    1. Наличие самого факта появления нового профиля и его осмысления (что это не шум) и необходимость стороннему эксперту определить соответствие профиля результату. 
    2. Отсутствие простого и надежного математического аппарата, четко описывающего условия и правила порождения новых измерений, а, следовательно, и классов объектов.
    3. Сама по себе процедура трассировки – это процесс обобщения, поиска новых трасс-маршрутов, пусть и с необходимостью контроля однозначности соответствия профилей и результатов.
    4. Возможные рассуждения об ассоциативных полях не добавляют ничего нового так-как являются всего лишь расширением существующего дедуктивного подхода.

    Генетические алгоритмы

    Согласно все той же Википедии: «Генетический алгоритм (англ. genetic algorithm) — это эвристический алгоритм поиска, используемый для решения задач оптимизации и моделирования путём случайного подбора, комбинирования и вариации искомых параметров с использованием механизмов, аналогичных естественному отбору в природе».

    Существует масса работ таких авторов как Панченко Т.В[4]., Гладкова Л. А., Курейчика В. В[4] и т.д… Основы «генетического подхода» хорошо раскрыты здесь, множество интересных работ, посвященных применению генетических алгоритмов. Например, работа Плешакова И.Ю., Чуприной С.И.[5], статья Иванова В.К. и Манкина П.И.[6], статьи на хабре и ряд других.

    Одним из наиболее важных преимуществ генетических алгоритмов является отсутствие необходимости информации о поведении функции и незначительное влияние возможных разрывов на процессы оптимизации. Как и в случае нейронных сетей, происходит уход от необходимости анализа причинно-следственных связей, путем построения «итогового» образа — целевой функции. В этом смысле, с точки зрения решения анализа текста, поиска генетические задачи решают такие же задачи или очень похожие, что и методы латентно-семантического анализа. При этом, надо отдать должное, в вопросах семантического поиска и индексации текстов генетические алгоритмы имеют гораздо большие перспективы, по сравнению методами латентно-семантического анализа.

    С точки зрения распознавания образов, с очень сильной натяжкой целевую функцию можно сравнить со слоем входных нейронов и с ожиданием максимума как аналога максимизации сигнала нейрона выходного слоя. Хотя правильнее было бы говорить, что генетические алгоритмы используются для повышения эффективности обучения нейронных сетей, но все же не могут рассматриваться как конкуренция нейронными сетям. Задачи разные.

    Общий же недостаток — отсутствие индукционных алгоритмов — присутствует в полной мере.
     
    ДСМ-методы
     
    ДСМ-метод автоматического порождения гипотез, предложенный В.К.Финном [Финн, 1983], представляет собой синтез познавательных процедур индукции, аналогии и абдукции [Финн, 1999]. Он может быть сформулирован в виде системы правил и даже представлен в виде программы на языке логического программирования [Виноградов, 1999], [Виноградов, 2001], [Efimova et al, 2006].[7]

    Условие насыщения будет выполнено, если применение процедуры индукции не приводит к порождению новых гипотез. Проверка на каузальную полноту как раз и представляет собой применение некоторого варианта абдукции. Набор данных и вариант стратегии ДСМ-метода удовлетворяют условию каузальной полноты, если все данные о наличии или отсутствии свойств у объектов объясняются с помощью гипотез о возможных причинах наличия или отсутствия свойств, порожденных с помощью процедуры индукции.

    Если условие каузальной полноты не выполнено, то это является основанием для пополнения базы фактов и/или изменения стратегии ДСМ-метода и/или способа представления данных. Все эти операции выполняются при участии человека. С точки зрения В.К. Финна[8] наиболее перспективным в данном вопросе является дальнейшее развитие именно ДСМ-методов.

    К этому перечню можно было бы добавить пару-тройку технологий, но это не повлияло бы на картину в целом.
     
    Таким образом, сегодня под термином «ИИ» скорее подразумевается подвид технологических (алгоритмических) подходов к решению задач комбинаторики. Основными задачами которого являются достоверное отделение «статически значимых» по своей сути закономерностей и построение на основе статистики образов-объектов, без анализа причинно-следственных связей. Основные направления — это распознавание образов. Под образами можно понимать изображения, звуки, совокупность симптомов болезней и т.д.

    Результатом обучения нейронной сети и т.д. должна быть некая выявленная закономерность, представленная в виде некой матрицы-кластера (вектора). Безусловно, эта матрица или множество может постоянно корректироваться за счет новых примеров, но это не влияет на суть происходящего. В любом случае, выявленное и очищенная от шума множество может быть представлена в виде «отчуждаемой логики», которая представляет собой некий «оптимальный» способ решения задачи. Примером такой области может служить задача автоматической рубрикации текстов, но не сточки зрения разнесения текстов по уже известным рубрикам, а собственно само создание рубрик. Их аннотирование, а также автоматическое построение различного рода онтологий. 

    По мнению большинства специалистов, все эти методы являются не более чем реинкарнациями задач статистики и кластеризации. Следовательно, все современные усилия в области глубокого машинного обучения и т.д. не более чем усилия энтомологов по изучению бабочек. Поиск и описание отличий цвета и формы крыла не дают ни малейшего понимания природы полета.  При этом следует признать, что они весьма полезны с точки зрения распознавании образов как визуальных, так и других подобных объектов, будь то истории болезней или анализ шахматных партий…

    Все это приводит к выводу, что дальнейшие рассуждения в направлении исследований физической или «невральной» модели построения ИИ являются тупиковыми. Все дальнейшие рассуждения необходимо строить на базе логических абстракций таких как определение того, что же такое интеллект, какие признаки, какая «механика» процессов дедукции, индукции, абдукции. Какова логика и математика основных законов логики. Какие логики и математики необходимо, скажем так, «изобрести» для создания ИИ. Что же необходимо для решения ИИ-полной задачи?  Для начала, необходимо определится с термином «интеллектуальный», «интеллект» и какими признаками он должен обладать.
     
    Что же считать интеллектом и тем более искусственным? И здесь начинают возникать первые трудности. Например, считать ли интеллектуальными системы, созданные для решения конкретных задач, обладающие возможности к логическим выводам и самообучению в рамках поля задач. Если же считать ИИ системой, способной к самосознанию и целеформированию, то можно ли считать правильным термин «искусственный»? Ведь в этом случае мы будем иметь дело со вполне самостоятельной личностью, пусть и имеющую другую физическую природу. Все же «искусственный» это не просто рукотворный, а скорее ограниченный искусственными границами. Иначе, в некотором роде все люди являются рукотворными, так как создаются другими людьми.
     
    В соответствии с определением, например, в словаре Ожегова: «ИНТЕЛЛЕКТ, -а, м. Ум (в 1 знач.), мыслительная способность, умственное начало у человека. Высокий и. II прил. интеллектуальный, -ая, -ое. Интеллектуальные способности. Интеллектуальная собственность (охраняемый законом продукт чье-го-н. умственного труда)». По определению Д. Векслера «интеллект – это глобальная способность разумно действовать, рационально мыслить и хорошо справляться с жизненными обстоятельствами». У Канта (нем. Verstand— рассудок) — как способность образования понятий, а разум (нем. Vernunft) -  как способность образования метафизических идей. Это словоупотребление получило распространение в последующей немецкой философии и окончательно закрепилось у Гегеля в его концепции рассудка (И.) и разума.  В соответствии с новой философской энциклопедией «ИНТЕЛЛЕКТ (лат. intellectus — ум, рассудок, разум) — в общем смысле способность мыслить; в гносеологии — способность к опосредованному, абстрактному познанию, включающая в себя такие функции, как сравнение, абстрагирование,  образование понятий, суждение, умозаключение; противостоит непосредственным видам познания — чувственному и интуитивному; в психологии — рациональное, подчиненное законам логики мышление; противостоит нерациональным сферам психики — эмоциям, воображению, воле и т. д.»[9].

    К сожалению, все философские определения в силу своей недостаточной «механистичности» не дают достаточную базу для решения задач построения ИИ.

    С точки зрения понимая задач ИИ, более близкими оказываются определения из биологии и психологи. В большинстве своем они сводятся к тому, что Интеллект — это вид адаптационного поведения, направленного на достижение цели. Достижение целей и адаптация у всех исследователей ставится во главу угла. Анализ механизмов целеуказания является сам по себе темой отдельной стати, поэтому пока ограничимся фактом ее наличия.

    Сточки зрения задач алгоритмизации и построения логик большой интерес представляют работы Джоя Пола Гипфорда, предложившего еще в 1950-х годах кубическую модель структуры интеллекта. Что примечательно, всемирную известность ему принесли исследования, в которых он, на основе использования тестов и факторного анализа, предпринял попытку математического построения модели творческой личности. 
     
     
    Структура интеллекта по Дж. П. Гипфорду.
     
    Отдельно следует выделить А. Тюринга с его работой «Может ли машина мыслить» и машиной-ребенком.

    Встречающиеся в разных работах свойства интеллекта могут быть уже более конкретным и понятным с точки зрения алгоритмов и моделей построения ИИ. Так встреченный список существенных качеств человеческого интеллекта, может быть довольно интересен. К ним относятся:

    •   любопытство — стремление разносторонне познать то или иное явление в существенных отношениях. Это качество ума лежит в основе активной познавательной деятельности;
    •   глубина ума заключается в способности отделять главное от второстепенного, необходимое от случайного;
    •   гибкость и подвижность ума — способность человека широко использовать имеющийся опыт, оперативно исследовать предметы в новых связях и отношениях, преодолевать шаблонность мышления:
    • логичность мышления характеризуется строгой последовательностью рассуждений, учетом всех существенных сторон в исследуемом объекте, всех возможных ею взаимосвязей;
    •   доказательность мышления характеризуется способностью использовать в нужный момент такие факты, закономерности, которые убеждают в правильности суждений и выводов;
    •   критичность мышления предполагает умение строго оценивать результаты мыслительной деятельности, подвергать их критической оценке, отбрасывать неправильное решение, отказываться от начатых действий, если они противоречат требованиям задачи:
    • широта мышления — способность охватить вопрос в целом, не теряя из виду исходных данных соответствующей задачи, видеть многовариантность в решении проблемы.

    Такие свойства как «глубина», «доказательность» и «критичность» понятны и более-менее алгоритмизуемы. С вопросом формализации и алгоритмизации таких свойств как «любопытство», «гибкость и подвижность» все обстоит не так очевидно.
     
    Начинать рассуждения о проблемах математической логики при создании ИИ следовало бы с формализованного представления таких понятий как «ценность», «смысл», «полезность», «этичность» и т.д… Фактически до сих пор отсутствуют решения вопросов формализации смысла, индукции и другие сложные логико-философские вопросы. Например, что такое знание, как оно устроено и как связано с фактами. Как исчислять выводы на основании знаний? Что такое знак и что такое минимальная единица смысла? Как оперировать предикатами более чем первого порядка? К сожалению, современные понимания этих понятий неизбежно сводятся к каким-либо функциям, кластеризации, максимизации или минимизации каких-либо целевых параметров.  При этом желательно дифференцируемость пространства. В действительности же процессы мышления не дифференцированы, а скорее представляют собой нечто похожее на фракталы с инно- и самореференциями. В этом смысле довольно любопытны, например, работы Умберто Матураны с его автопоэзисом[10], Тарасенко В.В.[11] или работы В.Ф. Турчина, которым в 1966 году был разработан язык рекурсивных функций Рефал. Рефал был предназначен для описания языков и разных видов их обработки.

    Как точно подмечено Пантнэмом[12]: «понятия… это не образы и не ментальные репрезентации… а скорее способности и навыки, создающие возможности для оперирования знаками для единства нашего поведения и знаковых систем». А выражаясь языком математики, замечательно выраженное Мандельбротом, мышление имеет аналогию фракталу. Форма фрактала не зависит не от образца или воспроизводимого в итерациях паттерна. Эта форма зависит от характера бесконечных итераций способа преобразований[13].
     
    Оставив в стороне высокие материи, попробуем разобраться хотя бы с такими «базовыми» понятиями как «индукция», «абдукция», «дедукция». Определений всех этих терминов огромное количество, поэтому приведем некоторые и попробуем их прокомментировать. К сожалению, в рамках статьи невозможно подробно рассмотреть эти вопросы, иначе это была бы уже книга. Поэтому, придется ограничится поверхностным обзором некоторых проблем. Анализ таких понятий как «знание», «факт», «знак», тем более сточки зрения алгоритмов, требует отдельной статьи.

    Дедукция– умозаключение от знания большей степени общности к новому знанию меньшей степени общности[14]. С точки зрения алгоритмизации, пожалуй, самое понятное и в полной мере реализованное понятие. Все современные рения в области ИИ, такие как нейронные сети, как раз и реализуют данную логику.
     
    Индукция — умозаключение от знания меньшей степени общности к новому знанию большей степени общности. В математической логике это умозаключение, дающее вероятностное суждение[15].  Базовыми проблемами индукции, сформулированными Юмом еще в 1888 году и в некоторой степени решенные Поппером К. [16] еще/только/уже в 1933 году, были, например, такие: как обосновать веру в то, что будущее будет (в большой мере) таким, же, как и прошлое? Как можно оценить веру в справедливость ожиданий в будущем? Оправдан ли в наших рассуждениях переход от случаев, повторно встречающихся в нашем опыте, к другим случаям, с которыми мы раньше не встречались? Как математически учесть привычку, как неотъемлемую часть процесса индукции?    Казалось бы, для этого существуют такие вещи как Байесовские вероятности т.д… Но если вдуматься, то они совершенно не дают ответа на эти вопросы. Невозможно повторяемость сделать главным фактором в индуктивном выводе и как участь иррациональность поведения? Это только часть проблем. Следовательно, математическая модель, основанная на «классической» статистике, здесь не работает в полной мере…

    Закон абсолютности качества, сформулированный Гегелем и популистски перефразированный Энгельсом как закон перехода количества в качество. Во многом этот закон является уточнением предыдущей темы. Смысл закона в том, что количество наблюдений никак не связано с возникновением новых свойств.  В данном случае Энгельс пошёл на фактическую фальсификацию ради своих идей. Так же, как и проблема индукции на сегодняшний день не имеет математического решения.
       
    Абдукция – познавательная процедура принятия гипотез. Впервые явно выделена Ч.С. Пирсом, который рассматривал абдукцию (абдуктивный вывод) наряду с индукцией и дедукцией. Ч.С. Пирс считал, что, отбирая среди необозримого множества гипотез наиболее существенные, исследователи реализуют «абдукционный инстинкт», без которого невозможно было бы развитие науки[17]. Проблема заключается в том, что на сегодняшний день отсутствует математический аппарат, позволяющий рассчитать порог, да и сами правила принятия гипотез. Как понять, что определенная группа гипотез, объясняющих группы фактов являются «правдоподными»? Пирс считал способность человеческого мозга к таким операциям «абдуктивным инстинктом» человека. Какова математическая модель абдукторного мышления?
     
    Одной из основных причин неудач формализации процессов мышления была сформулирована еще Кантом[18] как проблема «законченности» искусственных систем, в противоположность естественным, которые являются аморфными по своей структуре и логической «незаконченности». Таким образом, все эти понятия довольно сложные и до сих пор четко не сформулированные не только с позиций математической, но и философии как таковой. Без реализации этих проблем невозможно создание Интеллектуальных агентов, способных к решению общих задач. Но на сегодняшний день автору не известны такого рода логики. Несколько более оптимистичным выглядит утверждение Ника Бострома[19] о том, что «…прогресс на этом пути требует скорее технологических решений, чем технологических прорывов…».

    Тем не менее, существует несколько замечательных исследований, таких как работы Финна В.К. в своей работе «Об интеллектуальном анализе данных»,[20] а также в работе [8]. Полный разбор идей Финна потребовал бы не одной статьи, поэтому ограничимся краткой выжимкой.

    Одной из самых важных, на взгляд автора гипотез, является предложенная им логическая абстракция, которую можно было бы назвать структурной моделью любой автоматизированной интеллектуальной системой:
     
    АИИС=(РИС+ПИС+ИНИН)+ПАП,
    где:
    АИИС – автоматизированная интеллектуальная информационная система,
    РИС =(генератор гепотиз+доказатель теорем+вычислитель), Финн В.К. назвал его «Рассуждатель»,
    ПИС – поисково-информационная система,
    ИНИП – интеллектуальный интерфейс (диалог, графика, обучение пользователя работе с системой)
    ПАП – подсистема автоматического пополнения БД из «информационной среды».
     
    АИИС в свою очередь имеет два блока: базу данных-фактов (БД) и базу знаний (БЗ). База данных состоит из объектов с заданной структурой: конечные множества, кортежи, слова, графы и т.д… База знаний состоит: из аксиом, задающих структуру данных (например, из аксиом булевой алгебры, алгебры кортежей…), аксиом связи исходных (для БД) предикатов, которые неявно задают класс решаемых задач (например, задачи распознавания причинных зависимостей).

    Для полноценной реализации полного ИИ по Серлу недостает понимания где должен размещаться такие подсистемы как сознание и вытекающие из этого функции по определению целей существования системы или то, что мы называем «любопытством», где заложить «глубину ума». Без этого невозможна самостоятельная постановка задачи системой. Надо отдать должное Финну, в своих работах он обращает на это внимание, но в рамках данной абстракции не посчитал нужным выделить эти вопросы в отдельный функциональный блок.

    Анализируя компоненты, встает вопрос о необходимости решения огромного спектра математических и аналитических задач. С генерацией гипотез или дедукции все не так плохо, по крайней мере есть вполне рабочие гипотезы. Но вот что касается философско-математических вопросов индукции, абдукции пока полная неясность. Как работать с предикатами высших порядков? Какова общая структура аксиом? Как решать вопросы оперирования предикатов более чем двух трех порядков? Создавать язык программирования или оперировать чем-то похожим на графы и многомерные массивы? Нет понятной математики для работы с ассоциативными полями. Как анализировать конкуренцию выводов в рамках многомерности пространства как ассоциативных связей, так многомерности пространства возможных выводов?  Ведь в каждом из «возможных миров» будет правильным свой вывод… Какова логика и математика проблем вывода количества и качества? Это только незначительная часть вопросов, решение которых еще впереди.
     
    Как и любая научная гипотеза, схема, предложенная Финном не является чем то окончательным. Но на сегодняшний день это, пожалуй, одна из наиболее рабочих гипотез. Анализ каждого из элементов схемы сам по себе достоен отдельной статьи.

    Исследования в области реализации каждого из компонентов, создания высокоэффективной шины обмена данными между этими компонентами могут быть довольно перспективными и увлекательными задачами. В условиях бурного роста SaaS, облачных вычислений создание такого рода систем, построенных путем интеграции компонентов от разных команд, могли бы дать значительный прорыв в данном вопросе. Созданные на таком принципе Интеллектуальные агенты, могли бы действительно научится решать гораздо больший класс задач.

    Последнее замечание, которое хотелось бы сделать касается самого термина «Искусственный интеллект». Было бы справедливым понимать термин ИИ как общее и, скорее, философское понятие. В рамках же практических задач более уместным было бы использование термина «Интеллектуальный агент». Этот термин мог бы дать более четкое понимание ограниченности решения с точки зрения объемов информации, используемых логик, спектров решаемых задач и целеполагания создаваемых систем. Употребление слова «ограниченность» следует понимать не как ущербность, а как понимание границ возможностей и избежать возможной подмены понятий.

    Решение же самих по себе задач ML, создание тензорных процессоров является в лучшем случае не более чем копанием в рамках одного из компонентов модели Финна.
               
    Выводы

    В настоящее время не решена ни одна из проблем логического вывода (дедукция-индукция-абдукция) кроме частичного решения вопросов связанных с дедуктивными выводами. С точки зрения полного ИИ не решена вообще не одна задача. Основная проблема заключается в том, что подавляющее большинство исследований не затрагивают реализацию самой абстракции, хотя бы в понимании Финна, а следовательно носят тупиковый с точки зрения ИИ-полной реализации характер.

    В итоге все основные, из известных на данный момент автору этой статьи, направления мысли представляют собой в терминах Финна В.К. не более чем игры вокруг базы фактов и практически никак не оперируют базами знаний, представляющих собой абстракции как результаты абдукции.
    Так же как по меткому выражению Майкла Джордано о том, что «чрезмерное использование больших данных, вероятно, приведет к катастрофам в сфере анализа, сопоставимым с массовым обрушением мостов», все то же самое скорее всего произойдет и с сегодняшними усилиями в области ИИ.

    Все вышесказанное не является утверждением бесперспективности нейронных сетей или аналогичных технологий. Объем задач и их ценность огромны. Это и помощь в распознавании образов и помощь специалистам в разных областях при анализе данных и незначительных на первый взгляд деталей. Хорошим примером такого применения является помощь ИИ в установке диагнозов.

     Рождение современной математики, конечно же, процесс долгий, затянувшийся на века. Наблюдая современные тенденции, напрашивается неутешительный вывод: все движется по кругу. Философы древней Греции не знали математики и математических формул, оперировали понятиями на уровне образов и «бытовых» понятий. Этого становилось недостаточно для организации более сложных и, самое главное, абстрактных рассуждений, что и привело к рождению математики в ее современном понимании. Современные рассуждения и логика того, что называют «искусственным интеллектом» сегодня проходят тот же путь. И состояние сегодняшнего дня «уводит» обратно к истокам, так как в большей степени базируется на тех же принципах поиска «общих» закономерностей скорее в стиле Пифагора и Евклида. 

    Одной из основных задач математики является поиск логик, позволяющих значительно снизить затраты на расчеты путем вывода компактных и оптимальных закономерностей. Все это послужило толчком для создания сегодняшней математики с ее современными нотациями. Начало же просматривается не ранее XVI века целым рядом ученых таких как Декарт, Лейбниц и т.д. С точки зрения ИИ – мы пока не достигли даже XVII века.

    Рождение математики, способной к индукции и абдукции еще впереди, а взрывной рост интереса к ИИ в основном связан ростом вычислительных возможностей, а не возникновениям новых алгоритмов. Но в результате этого роста все же была достигнута точка, после которой решение большого как по сферам применения, так и исходных данных, но относительно небольшого по аналитической сложности объема задач стала экономически целесообразной. Но это все же экстенсивный путь развития.

    Без решения логико-философских вопросов, без создания новых областей математики, в частности, дальнейшее движение не представляется возможным.
     
    [1] Рассел С. Норвиг П. «Искусственный интеллект» Вильямс, 2007.
    [2] Осипов Г.С. «Методы искусственного интеллекта» Физматлит. 2011
    [3] Барский А.Б. «Логические нейронные сети» М.: Интернет-Университет Информационных Технологий, 2007
    [4] Гладков Л. А., Курейчик В. В., Курейчик В. М. Генетические алгоритмы: Учебное пособие. — 2-е изд. — М: Физматлит, 2006. — С. 320. — ISBN 5-9221-0510-8.
    [5] Плешакова И.Ю., Чуприна С.И. «Генетический алгоритм для улучшения качества семантического поиска по текстам научных публикаций» cyberleninka.ru/article/n/geneticheskiy-algoritm-dlya-uluchsheniya-kachestva-semanticheskogo-poiska-po-tekstam-nauchnyh-publikatsiy
    [6] Иванов В.К. и Манкин П.И. «Реализация генетического алгоритма для эффективного документального тематического поиска» Тверской государственный технический университет
    [7] Аншаков О.М. ОБ ОДНОМ ПОДХОДЕ К ПОРОЖДЕНИЮ ГИПОТЕЗ В ДСМ-МЕТОДЕ
    [8] Финн В.К. Искусственный интеллект. Методология применения, философия. КРАСАНД. 2011
    [9] Новая философская энциклопедия: В 4 тт. М.: Мысль. Под редакцией В. С. Стёпина. 2001.
    [10] Матурана У. Варела Ф. Древо познания. Програсс-традиция, 2001
    [11] Тарасенко В.В. «Фрактальная семиотика. «Слепые пятна», перипетии и узнавания» Либроком. 2012.
    [12] Пантэм Х. Разум, Истина, история. Праксис, 2002
    [13] Тарасенко В.В. «Фрактальная семиотика. «Слепые пятна», перипетии и узнавания» Либроком. 2012 с.30
    [14] Гетманова А.Д. «Логика» «Омега-Л» 2015 с 127.
    [15] Гетманова А.Д. «Логика» «Омега-Л» 2015 с 163.
    [16] Поппер К. Объективное знание. «Эдиториал УРСС» 2002.
    [17] Новая философская энциклопедия
    [18] Кант И. Критика способности суждения
    [19] Бостром Н. «Искусственный интеллект. Этапы. Угрозы. Стратегии» «Манн, Иванов и Фербер» 2016
    [20] Финн В.К. Об интеллектуальном анализе данных. Новости Искусственного интеллекта, №3, 2004
    Share post
    AdBlock has stolen the banner, but banners are not teeth — they will be back

    More
    Ads

    Comments 38

      +1
      Без решения логико-философских вопросов, без создания новых областей математики, в частности, дальнейшее движение не представляется возможным.
      Предлагаю начать с простых вопросов: Какую задачу решает интеллект человеческого типа в природе? Есть ли что-то что решает эту же задачу другими способами? Изолированную ли (уникальную ли) задачу решает интеллект человеческого типа в природе? Какую задачу решает интеллект типа высших млекопитающих в природе? Есть ли что-то что решает эту же задачу другими способами? Изолированную ли (уникальную ли) задачу решает интеллект типа высших млекопитающих в природе? Чем хотябы внешне отличается интеллект человеческого типа от интеллекта типа высших млекопитающих? Существенны ли эти различия? Можно ли обобщить функцию мозга как такового у всех существ?
        0
        В этом вопросе мне очень понравилась работа Матураны.
        0
        Совершенно точно. Такого рода вопросы и лежат в основе понимания того, как строить ИИ.
          +2
          Возможно, имеет смысл добавить небольшое «практическое» описание выводов в более понятной форме. Например, что могут и чего не могут сделать технологии ИИ сейчас и в ближайшем будущем.

          В последнее время появляется много рассуждений, что вот-вот ИИ и роботы уничтожат многие профессии и огромное количество людей останется без работы. При этом большинство участников споров вообще очень слабо представляют, что сейчас скрывается за термином ИИ и какие возможности есть у этих технологий.

          Вот пример такого спора:
          http://itc.ua/news/glava-minfina-ssha-ne-schitaet-chto-robotyi-nesut-ugrozu-chelovecheskoy-ekonomike/
          Я пытался объяснить в комментариях, что текущий ИИ не то же самое, что описывают фантасты, но у меня плохо получилось…
            +1
            На счет понятной формы, не Вы первый кто это заметил. Попробую переформулировать. Пока же могу сказать, что общий вывод такой:
            То, что сейчас понимается под ИИ представляет собой не более чем «продвинутые» статистические модели.
            те из всех проблем, связанных с дедукцией-индукцией-абдукцией в какой-то степени решен только вопрос дедукции.
            С точки зрения полного ИИ и связанных сними вопросов познавательных способностей и, самое главное, способности ставить себе цели самостоятельно — не решен ни один.
              +1
              К сожалению, в таком виде этот вывод понятен в основном тем, кто интересовался AI и что то читал по этой теме. А большинству людей, пусть и технически грамотных, это ни о чем не говорит… (((
            +1
            Для того, чтобы заслуженно называться «человеком разумным» достаточно ли «иметь разум», или необходимо результативно «использовать разум»?

            Возможно ли «жить, не приходя в сознание»?
              0
              Хорошая статья. Основные моменты подмечены хорошо.

              На мой взгляд, интеллект — это способность создавать (находить) алгоритмы решения в ответ на любые задачи.
              Поэтому всё озвученное есть действительно что-то не более чем обработка статистики, несмотря на значительную эффективность последних в узких областях. Хотя признаемся честно, все алгоритмы распознавания изображений (которые мне встречались) ущербны, т.е. падают на неудобной для выборке, а вот человек распознает легко.

              Насчет искусственного… искусственное — это то, что не создано природой. Размножение — это механизм репродукции вида, который функционирует за счет ПРИРОДНЫХ инстинктов с одной стороны, и физиологической возможности передачи информации через ДНК с другой. Поэтому тут ваш комментарий не прокатывает. Вот выращивание из пробирки — это, да, искусственный процесс.
                0
                На счет термина «искусственный» тут Вы конечно правы. Но я хотел подчеркнуть две вещи:
                1. В вопросах обсуждения ИИ я трактовал искусственный не только как продукт размножения, но скорее в трактовке Канта о принципиальном отличии искусственного как законченного и ограниченного. Кроме того, не так долго ждать (условно конечно) возникновения искусственных живых существ. Будет ДНК и будет размножение. И наверное какие-то инстинкты. Биороботы по Чапеку или Херберту. Ведь то, что будет создано генетиками — в некотором роде природное… Граница стирается.
                2. Наличие свободы воли полного ИИ может повлечь опасность или необходимость признания личности. Иначе возникнут коллизии. И тут снова может прийти в помощь Кант с его определением искусственного.

                Хотя, конечно, все намного сложнее. В рамках статьи я не упоминал, например, законы робототехники Азимова. А ведь они преодолеваются. Например как преодолевается чувство самосохранения у человека и тяга к жертвенности или суициду. Когда внешние волевые цепочки по сути подавляют выводы «БИОСа» — инстинктивного вегетативного слоя… Но это уже тема отдельной статьи
                0
                текста слишком много, половину можно выкинуть без ущерба (скорее даже с пользой) для полноты освещения темы.
                Оставив в стороне высокие материи, попробуем разобраться хотя бы с такими «базовыми» понятиями как «знание», «факт», «индукция», «абдукция», «дедукция», «знак».


                и где анонсированные в тексте статьи попытки разобраться с понятиями «знание», «факт», «знак»?
                  0
                  Возможно, что много. Мне кажется это субъективный фактор. А на счёт нераскрытых терминов-спасибо. Забыл убрать. Мне кажетсяэт отдельная тема, тем более с точки зрения программирования и алгоритмов вообще. Планируют дальше раскрыть эту тему.
                • UFO just landed and posted this here
                  • UFO just landed and posted this here
                      0
                      Не понял этого комментария.
                    • UFO just landed and posted this here
                        0
                        Спасибо, эту работу не читал пока.
                      0
                      Большое спасибо за отзыв. Я в некоторой степени знаком с работами Никанорова и Чернышева. Комментировать работу Чернышева не вижу большого смысла. Что касается Никанорова, то безусловно там проделана большая прикладная работа. И ее безусловно стоить изучить, если Вы хотите заниматься этими проблемами. В рамках комментария трудно дать полный ответ. Попробуйте просто положить две книги рядом: Поппера, которого я дал в библиографии и Никанорова. Обратите внимание на два определения, данные у Никанорова: что такое сложная система и что такое концептуальная. Дальше уже детали.
                      • UFO just landed and posted this here
                          0
                          На счет Чернышева, тут все сложнее. У меня, возможно субъективно, сложилось его восприятие как изрядного софистика, в ущерб реального смысла. По крайней мере, из непосредственно прослушанных лекций и дискуссий после них. Не могу его серьезно воспринимать в отличие от Никанорова. У которого действительно интересная теория. Впрочем, не все так просто, особенно в вопросах индукции. Думаю, что было бы интересным написать на эту тему статью, со свои видением его теории. Возможно я навлеку гнев МФТИ :), но, меня, например, смущает его определение «сложной системы» и ряда других. В том числе упомянутые Вами «понятия» и «явления».
                          Насчет эволюции подходов от данных к знаниям все так. Процесс осмысления разницы базов фактов и базы знаний идет давно, но он пока не приобрел математическую стройность. Много эпистемологических и логических вопросов. С альфаГо все не так радужно. Там все же нейронные сети. А порождение гипотез сильно вторичен. Те мы имеем с сильно развитым Интеллектуальным агентом, но не интеллектом как таковым. Тут формулировки Никанорова как никогда верны и уместны, хотя конечно могу в какой-то степени и ошибаться.
                          • UFO just landed and posted this here
                              0
                              Поговорка на самом деле говорит: об ушедших или правда или ничего. Я думаю Честно должно быть. Он прекрасный методолог, теоретик систем. Но с точки зрения философии и тем более философии логики у него упрощения. Понятные и удобные в целях автоматизации. Но! по состоянию на сегодняшний уровень развития математики и математической логики. К определению. Я в его работе «Введение в концептуальное проектирование» нашел встретил определение «сложной системы»:
                              Система называется сложной, если для ее построения и исследования требуется привлечение многих моделей, методов… только в совокупности позволяющих удовлетворить целям исследования" Вот здесь уже и кроется начало моих сомнений. Это, в моем понимании, как минимум «покрывательство» пробелов при постановке условного «Технического задания» на моделирование чего-то. Кроме того, оправдание отсутствия стройной единой модели и наличия «костылей». С точки зрения практической реализации — это рабочий подход. Но это никак не добавляет приближения пониманию сути знания. В противоположность Расселовских именах и Куайновских множествов возможных миров (хотя и не его одного), или рефлексии того же Матураны. Те это все относится к методологии систем, алгоримизации, но никак не ИИ. И здесь он во многих моментах прекрасен. Что касается Чернышова, то это пустота и его не то что некому, а никому не хочется тратить время. Не знаю куда смотрит МФТИ.
                              • UFO just landed and posted this here
                                  0
                                  Та книга, которая попалась мне была 1995 года. Так что да-это она. Я б не сказал, что там очень уж все древнее. Книга на самом деле мне понравилась. То, что я не согласен с чем-то не говорит о ее запутанности. Просто там про методолгию систем на мой взгляд, а не про ИИ и методы. Пономарева не читал. Это упущение. Большое спасибо за наводку. Теслинова читал посвежее, но значительного отличия не увидел.
                                • UFO just landed and posted this here
                                    0
                                    Посеяли сомнение. Возможно, попробую еще раз почитать Чернышева, но уж больно много воды и заимствований. Не книга, а компиляция какая-то. Может быть, был не в настроении.
                                      0
                                      Уф, перечитал Чернышева в надежде, что правда что-то упустил… Долго пытался сформулировать ответ. Боюсь Вас разочаровать, Чернышев — это классический симулякр третьего рода по Бодрийяру. Полная мешанина из Гегеля неомарксизма, материализма и черт знает чего еще. Вспомнился первый курс вуза. Вместе с его формами. Эту схему можно ну хоть как-то оправдать в рамках истмата и тд, но никак по другому. Если честно, то вообще не понимаю причем там название «Смысл». Чернышева надо преподавать, обязательно. Но как классический пример наукообразного мусора. Это чего, я очень боюсь, когда пишу какие-то материалы. Не люблю критику и тем более в столь категорическом стиле, но тут нет других слов.
                                      • UFO just landed and posted this here
                                          0
                                          Согласен. Я с ним познакомился на конференции АСИ по Цифровой трансформации. Выдержал полчаса.
                                    • UFO just landed and posted this here
                                        0
                                        Нет, я не имею ввиду использование языка. Я имею ввиду их рассуждения о референциях, дескрипциях и именах как таковых. Если рассуждать о «естественных» языках, то следует скорее упоминать о картезианстве и тд. Парадокс Рассела не думаю, что может помешать в данном вопросе, это скорее как неопределенность Гейзенберга. На счет аппарата ступеней множеств пока ничего сказать не могу так как, к собственному стыду, пока не знаком в достаточной мере. В настоящее время изучаю с Вашей подачи, за что отдельное спасибо. Как буду готов в достаточной степени — добавлю соответствующий комментарий.
                                        • UFO just landed and posted this here
                                            0
                                            "… А теоретико-множественный и логический формализмы тут помочь вряд ли смогут." Не могу согласится в полной мере, точнее я не согласен, что «логический формализмы» не могут помочь или я неправильно понял. Я как раз и говорю обратно — с них тои надо начинать, с этих самых формализмов. С философии логики.
                                              0
                                              В общем, «идеи» Никанорова -это сектанство какое-то. Надерганные и перефразированные для замутненная сознания идеи Фреге, Поппера, Куайна, изрядно сдобренные марксизмом. Ну например, определение сложной системы как необъяснимой на примере одной модели. Определение слабострукткурированой — пот сути не поставленной задачи, где тупо не было предварительного обследования и т.д.
                                0
                                … И тогда уже мне будет стыдно, потому что это окажется не совсем или совсем неподходящим инструментом для собственно ИИ. — эту фразу я не понял.

                                Что касается концептуального мышления и Никанорова. Пока вот остерегаюсь от каких-то серьезных оценок. Но пока не увидел ничего нового относительно того что знал. Там как-то запутанно все. И я практически все нахожу у более ранних авторов. Но продолжаю смотреть, дабы не выплеснуть с водой ребенка. Но это хорошая тема для статьи о роли и месте системного анализа в задачах создания ИИ. Оно есть, также как у Нейронных сетей. Просто не надо это считать панацеей.
                                На счет нейронных сетей — это своего рода тупик.
                                Статьи «Логика сознания» читал. Интересные материалы и мне тоже нравится. Они отчасти и были той последней каплей, после которой я взялся за перо. Совершенно верно — там нет математики, логики и никак не связано с вопросами эпистемологии как таковой. Собственно Вы верно подметили — отсутствие «математического бэкраунда» за рамками локальных точек и есть центральная проблема ИИ.
                                  0
                                  Целью стати является обозначение поля проблемы и зафиксировать вопросы, которые к сожалению не задаются совсем или крайне редко на фоне восторгов по поводу Нейронных сетей.
                                  Без поиска ответов на них создание ИИ на мой взгляд попросту невозможно. В первую очередь невозможно создание необходимого математического аппарата.
                                  • UFO just landed and posted this here
                                      0
                                      Совершенно верно, все так. Никакие множества не решают вопрос индукции без той самой философии логики и тд.
                                    0

                                    Если бы задача создания ИИ ставилась несколько тысяч лет назад и люди бы задумались над тем, что считать интеллектом, то скорее всего обратили бы внимание на то, что самые умные — это те, кто больше всего помнит текстов наизусть. Соответственно, для них свиток папируса, кусок пергамента и глиняная табличка были бы вполне годными и полноценными реализациями ИИ.
                                    Сто лет назад особо умными считались мастера устного счёта. Для той эпохи карманный калькулятор считался бы прекрасным образцом ИИ.


                                    Это я к тому, что постановка задачи создания ИИ сильно зависит от того, какие конкретно мифы и предрассудки населяют массовое сознание. И ещё от того, к каким чудесам инфотехнологии мы уже привыкли настолько, что перестали воспринимать их как чудо.

                                    Only users with full accounts can post comments. Log in, please.