Как стать автором
Обновить
236
0

Пользователь

Отправить сообщение
> Исследования в этой области ведутся уже 40 лет. Не бредьте.
Исследования в области визуализации сюжета по книгам? Ни разу не видел. Исследования по компьютерной лингвистике? Да, ведутся давно, положительные результаты мы видим каждый день.

> Математическое обоснование — теорема Геделя о неполноте.
Перечитайте все комментарии — ниже уже говорилось, что язык не является формальной системой. Лингвистика, языковедение — ещё может быть, но очень вряд ли (исключения, исключения!). Поэтому теорема Гёделя ну никак тут не катит.

> Вы похоже не понимаете, что если задача решается в частном — это не значит, что она решается в общем, это нужно доказать.
Как раз таки это я понимаю, и поэтому я нигде, ни в статье, ни в комментариях, не утверждал, что возможно построить полноценный ИИ. Наоборот, я утверждаю, что на данный момент нет докозательств, что его построить невозможно.Вы пока тоже не привели ни одного такого докозательства.

> И опять таки, натыкаюсь на неполноту и неформальность большинства положений и необоснованность многих предположений.
Вот это предложение мне особенно нравится: если вы говорите про неформальные системы, то каким боком тут неполнота?

> Попробуйте сначала доказать, что решается задача куда менее сложная. В математике именно так делается — существование решения доказывается. А потом уже машите шашкой с криками о близости ИИ.
В общем-то этому и посвящена статья — решению менее сложных задач, таких как перевод текста, сентиментный анализ и т.д.
Все ваши аргументы сводятся к тому, что наше понимание человеческого мышления абсолютно неточное и неправильное (но при этом вы даже не говорите, как же всё на самом деле), алгоритмы слабы и далеки от задачи (при этом вы пока не показали ни одного серьёзного пробела или принципиальной, математически доказанной невозможности что-то сделать), нет достижений в указанных областях (исследований в этих облостях тоже не проводили, но это для вас, видимо, не аргумент) и т.д. Простите, но я не вижу смысла дальше вести эту беседу. Если вас психологические признаки интересуют мало, и если вам смешно использовать современные методы для построения сложных моделей, то никто и не заставляет вас заниматься данной областью науки.
Спасибо за статью! Она напомнила об одном почти забытом мной направлении искусственного интеллекта — символьных вычислениях. Действительно, семиотика с одной стороны близка к современному состоянию науки о психологии, а с другой стороны довольно просто моделируется компьютерными средствами. Например, некоторое время назад в искусственном интеллекте активно использовался Лисп, и если попробовать переложить описанную в статье модель понимания на этот язык то получаем прямое отображение ментальных0 образов знака в символы, а денотатов — в объекты, связанные с этими символоами. При этом разрешение многозначности происходит аналогично поиску символа в иерархии нейсмпейсов (всё таки, пространство имён — это в первую очередь человеческое, а не компьютерное понятие).
1. Не поверите, но психологи уже давно всех классифицировали и выделили признаки. Внешними признакими занимается НЛП и смежные дисциплины.
2. См. статью, мне кажется, я привёл достаточно примеров таких процедур.
Там выше уже заявляли, что не существует объективных критериев оценки юмора, но исследования в этой области, тем не менее, показали вполне хорошие результаты ;) Я до сих пор не увидел ни одной причины, почему человеческий опыт может быть неформализуем. Да, возможно для данной конкретной задачи на данный момент не существует эффективной модели. Ну так и исследований на тему визуализации текста по книгам я пока не видел. Итак, вопрос к вам: что именно в восприятии человеком внешнего облика героя неформализуемо? В качестве отправной точки можем считать, что у нас уже есть база данных о нескольких десятках людей с признаками их характера, темперамента, шаблонов поведения, актуализации конституции и т.д., плюс соответствующие процедуры для определения этих признаков по текстовому описанию (если, конечно, не в этом, по вашему мнению, основная загвоздка).
Чтож, тогда решите ее.
Задача ананологична игре в шахматы: рассматрите все возможные варианты с учётом «функции полезности», которая будет учитывать все констрейнты, пожелания и возможность дальнейшей модификации.

Как все просто! Вот Вам описание Остапа Бендера
И что вы хотите этим сказать? Что образ не прорисован до деталей, и поэтому компьютер не сможет понять, что именно хотел показать автор? Ну так и человек не сможет в точности повторить в своей голове образ, который имел ввиду автор. Тем не менее на основании предыдущих сведений человек может примерно прикинуть, как выглядит герой. Ну так а кто мешает наделить этими сведениями машину? Кто мешает изучить визуальные образы людей, их поведение, собрать статистику по телодвижениям и т.д? Вы приняли для себя, что это невозможно, и ищете докозательства. А вы попробуйте подойти с другой стороны — подумать, как это можно реализовать. Если есть объективные причины невозможности такой имплементации, то пойдя по второму пути вы их найдёте гораздо быстрее.
Честно говоря, мне уже надоело повторять: если вам не нравится моё определение понимания, предложите своё. А до тех пор я не вижу предмета разговора.
Ммм, ну просвятите нас безграмотных, как же это на самом деле описывает психология, нейрофизиология, теория управления (управления чем, кстати?) и ИИ ;)
Задача составления расписания на практике сложна, но решаема. Так же и с составлением визуального образа из описания. Понятно, что нужна база «опыта», нужны некоторые данные о возрасте той же Наташи и времени, когда происходят события. Очевидно, что такую систему на коленке за вечер не напишешь, но принципиальных причин невозможности создать её за некоторое конечное количество времени, с конечным бюджетом и количеством разработчиков, я не вижу.
Во-первых, «сузить» и «дать определение» — это разные вещи. Во-вторых, я явно ввожу признак, по которому определяю, что B приобрела X. В чём тогда подмена понятий?

Впрочем ладно, если по-вашему мнению я ответил не на тот вопрос, которым задавался автор, не буду вас переубеждать.
Автор первой статьи не дал чёткого определения понимания, но тем не менее изложил свои размышления на эту тему. Примеры, доказывающие его точку зрения, указывали на конкретные задачи. Я ввёл определение понимания как способности решать эти задачи. Ну потому что совсем без определения получается разговор ни о чём, о неком сферическом понимании в вакууме, а другого определения никто так и не предложил. По-моему всё очень логично :)
Так, стоп. Есть система A — человеческий мозг. У него есть свойство X — способность понимать. И есть система B — компьютер. Вопрос в том, может ли B приобрести свойство X аналогично A. Здесь два варианта — X либо определено, либо неопределоно. Я определяю свойство X как способность решать все поставленные задачи (плюс изначальная статья по большей части как раз была посвящена конкретным проблемам). Вы же с таким определением не согласны, оставляя свойство X неопределённым. Но если X неопределено, как можно делать суждения о том, что система B не может приобрести это свойство? Если же вопрос сводится к тому, что такое свойство X (что такое способность понимать), то в рамках IT данный вопрос вообще теряет смысл, и тогда не понятно, чему была посвящена изначальная статья.

По поводу же самого человеческого понимания и «эмулирования понимания снаружи». По сути мозг по большей части работает на тех же принципах. На примере того же языка: когда вы строите предложение, собирая его из слов, вы ориентируетесь на то, как говорят другие. Вы можете сказать «картошка эта не нужна тебе», и с точки зрения русского языка это будет корректно. Однако такой порядок построения предложения практически никто не использует, а используют в основном прямой порядок, и вы на основании статистики по похожим предложениями говорите «эта картошка тебе не нужна». Закодирована данная статистика в байтам компьютера или в состоянии синапсов между нейронами мозга — это уже детали не из разряда важных.
1. Ну если читатель не всегда может понять, какое настроние хотел передать автор, то какие претензии могут быть к компьютеру? Ещё раз повторюсь: в большинстве случаев подобные системы нацелены на моделирование поведения некоторого человека — эксперта или группы экспертов, чьи оценки были использованы для обучения. Если эксперт воспринимает текст не так, как того хотел автор, то и обученная система будет воспринимать его неверно. И тут ещё вопрос, кто — автор текста или эксперт — будут более «объективны» при оценке текста (вспомнить хотя бы обнаружение флирта на экспресс-свидяниях, когда обученный классификатор гораздо точнее определял настроение собеседника).

2. Примерно так же, как распознаётся ирония. «Эта статья такая, да… правильная ;)» — лексически одобрительное предложение, хотя на самом деле автор высказывает в иронической форме своё неодобрение. Маркерами при распознавании иронии в данном случае является смайл, троеточие и форма предложения. Очень часто маркерами являются восклицательное предложения и междометия («О да, это такааая классная статья!»). Ну и пр. и пр. Думаю, для чёрного юмора подберётся не меньше признаков.

3. См. пункт 1.
4. См. пункт 1.
Спасибо, почитаю.
Ну то есть в Вашем понимании критерием является самосознание, а что такое самосознание опять же непонятно, так? Тогда разговор опять же получается ни о чём: я хочу, чтобы у компьютера появилось самосознание. что такое самосознение? а чёрт его знает.
Компьютер изменит своё состояние в соответствии с обучением, то есть в соответствии с набором данных и метками классов, которые ему скормит эксперт. Соответственно, угадывать он будет не то, как данный текст воспримет некий абстрактный человек, а то, как его воспримет эксперт, который обучал классификатор. Так что в данном случае он будет принимать решения именно как человек, отдельно взятая личность. А потом найдётся другой компьютер с другим «социальным обученнием», не согласится с первым и они начнут холиварить!
Ну это как раз умение решать конкретные задачи. Задача, кстати, вполне решаема: найти всех героев и связать их упоминания, найти их описание, создать визуальный образ для каждого героя, определить действия — и вуаля! Работы, конечно, навалом, но в целом ничего принципиально невозможного.
Вообще в большинстве случаев машинное обучение не стремится достигнуть верного результата — оно стремится получить результат, максимально близкий к результату эксперта. Знания эксперта при этом считаются не то, чтобы абсолютно точными, но лучшими возможными. Если даже эксперт не может решить задачу правильно, то чего тогда требовать от машины? (Хотя всё же иногда созданные системы, в силу некоторых причин, обходят по производительности экспертов, чьи знания были использованы.)
Слушайте, я что-то совсем запутался в Вашей логике. Сначала Вы говорите, что компьютер никогда не сможет понимать текст, как его понимает человек. А теперь заявляете, что сначала нужно определить, что такое «интеллект» (и, как следствие, «понимание»). Если термин «понимать» ещё не определён, то как Вы делаете выводы относительно понимания компьютером текста?
Тогда предложите критерий, по которому можно было бы узнать, что компьютер понял данную ему информацию. Вы хотите, чтобы компьютер приобрёл свойство X, но при этом никак не описываете это свойство.

Информация

В рейтинге
Не участвует
Зарегистрирован
Активность