Pull to refresh

Comments 74

Какие самые существенные различия вы видите между интеллектом алгоритмов, реализованных вами, и, например, интеллекта шимпанзе?
У шимпанзе биологические рецепторы получения информации, многогранные, а у нашего псевдоинтеллекта только интернет и клавиатура, т.е. инфопоток, поступающий на наш псевдоинтеллект примитивнее.
Но основные принципы «информационного функционирования» можно считать схожими.
Можно, но мне кажется, что чего-то важного всё равно не хватает. Есть же куча самообучающихся систем, но они все быстро достигают потолка, иначе бы игра Жизнь давно бы уже писала свои комментарии к этой статье.
мне кажется, что чего-то важного всё равно не хватает

— Да, вы правы — не хватает…
— Напишите, чего не хватает лично вам.

Есть же куча самообучающихся систем

— Если бы они действительно были бы самообучающимися, то тогда, да, они бы сейчас комментировали эту статью.
— Если вы знаете такие системы, то приведите примеры, и мы их рассмотрим вместе.
Возможно, что не хватает банально времени — жизни потребовалось 4 миллиарда лет эволюции для появления человека. Сколько там за это время деталей родилось — черт знает.

Что касается систем, то это всякие клеточные автоматы, разного рода симуляции, да даже песочницы типа майнкрафта. Но и они даже до простейших биологических вирусов не дотягивают. А уж компьютерные вирусы так и тем более абсолютно лишены способности эволюционировать.
Возможно, что не хватает банально времени

Мы учтем ваши пожелания при написании следующих статей.

Что касается систем, то это всякие клеточные автоматы

Как по вашему клеточные автоматы демонстрируют самообучение?
Вообще подумал на досуге и решил пару мыслей изложить.

1. Очень хочется поставить знак равенства между самообучением и эволюцией. Очень уж эти две вещи похожи. И модет быть можно эволюционные законы к обучению применить.

2. Вполне вероятно для самообучения машинам не хватает энтропии. Все компьютерные модели слишком мало информации из вне берут.

3. Возможно ИИ придется майнить наподобии биткоина.
1. Эволюция и самообучение — это как мягкое и теплое. Эволюция — это борьба за выживание. Самообучение — лишь один из элементов борьбы.

2. Для самообучения машинам не хватает КАЧЕСТВА сенсоров/анализаторов/каналов поступления данных.

Если бы они действительно были бы самообучающимися, то тогда, да, они бы сейчас комментировали эту статью

Почему? Например, как вы думаете, есть ли задачи, решению которых вы не способны обучится?
логически — нет задач которым нельзя научиться.
практически — есть.
Ибо индивид может не тянуть, т.е. обладать недостаточным интеллектом.
Чёрт, интересно! Всегда была интересна эта тема. Почему-то мне всегда не хватает «умного» поисковика интернетного, который мог бы делать _какой-то_умный_ рекурсивный поиск по сочетаниям слов, отношению этих слов к каким-то областям знаний, мне заранее неизвестных, и в результате возвращать не список документов, примерно подходящих по смыслу, а какую-то квинтэссенцию информации о запросе — ответ на вопрос, а не документы, где ответ нужно самому еще вычитать и понять…
peacemakerv, вы угадали некоторые критерии интеллектуальности «умного поиска», не все конечно, но интрига пропала :)
Надеюсь, что скоро подобные технологии внедрят в промышленном масштабе, и вы будете довольны.
А какую интригу вы имеете ввиду?
alx49, IBM Watson умеет отвечать на ваши вопросы?
На каких языках он умеет отвечать?
Что нужно сделать, чтобы IBM Watson освоил новый язык?
Он способен к самообучению?
Он способен воображать?
Документация тут: www.redbooks.ibm.com/redpapers/pdfs/redp4955-ru.pdf.
Во время телевикторины Jeopardy, IBM Watson как и другие участники слушал вопросы на естественном языке и отвечал так-же.
Что касается самообучения, то он «закончил» мединститут и теперь определяет не хуже, а зачастую и лучше, чем профессиональные врачи.
Естественно, все его достижения имеют оговорки, но в целом IBM Watson пожалуй уже похож на нечто большее, чем слабый ИИ.
Прочтите внимательно вопросы и официальную документацию от IBM.
Попробуйте самостоятельно задать свои вопросы IBM Watson.
«закончил» мединститут — как проходило обучение?

У нас нет задачи вас переубедить.
Если вы оперируете только маркетинговыми статьями от IBM Watson, то значит они действительно на вас подействовали.
«закончил» мединститут — как проходило обучение?

А это не важно, важен результат. А в результате получилась качественная экспертная система.

официальную документацию от IBM.

Если вы оперируете только маркетинговыми статьями от IBM Watson, то значит они действительно на вас подействовали.

А разве в том, что вы называете «официальной документацией» есть описание алгоритмов? Там тоже просто полумаркетинговое описание возможностей системы и не более. Может лучше предоставите пруфы на научные публикации, из которых высделали выводы, что IBM Watson не может считаться текущим state of the art решением в области сильного ИИ? Или ваши представления об этой системе сформированы только 15 страничным буклетом?

У нас нет задачи вас переубедить.

Вы отрицаете интелектуальность IBM Watson, чьи «достижения» широко известны и действительно впечаталяют, при этом вы легко оперируете термином «понимает» в отношении какой-то своей системы… где-то тут возникает противоречия в вашей теории и ваших высказываниях.
Мы задаем вопросы, и используем ту информацию, которую можно проверить, а утверждаете как раз вы.
— Какими источниками вы пользовались для того, чтобы сделать вывод, что IBM Watson это сильный ИИ?
— Вы лично задавали свои вопросы IBM Watson?

Вы сами задали и ответили за нас на все свои вопросы:
получилась качественная экспертная система

Там тоже просто полумаркетинговое описание возможностей системы и не более

ваши представления об этой системе сформированы только 15 страничным буклетом

Вы отрицаете интелектуальность IBM Watson, чьи «достижения» широко известны и действительно впечаталяют

Какими источниками вы пользовались для того, чтобы сделать вывод, что IBM Watson это сильный ИИ?

В каком месте я писал, что IBM Watson является сильным ИИ? По моему, нигде я такого не писал.

Вы лично задавали свои вопросы IBM Watson?

Нет не задавал, как-то не довелось её попробовать.

Мы задаем вопросы, и используем ту информацию, которую можно проверить, а утверждаете как раз вы.

На основе рекламных буклетов, вы делаете выводы о внутренностях системы.
В каком месте я писал, что IBM Watson является сильным ИИ? По моему, нигде я такого не писал.

Вы сказали:
IBM Watson пожалуй уже похож на нечто большее, чем слабый ИИ

из «чего» вы сделали выводы, IBM Watson не может считаться текущим state of the art решением в области сильного ИИ


На основе рекламных буклетов, вы делаете выводы о внутренностях системы.


Мы предлагаем почитать документацию, которая доступна в интернете, и «расскрывает» некоторые аспекты технологии, а также задаем вопросы для того чтобы вы на них для себя ответили и сделали выводы самостоятельно.

Также рекомендуем найти и попробовать IBM WATSON в действии.

Вы однозначно утверждаете, что IBM Watson имеет отношение к Интеллекту(или к ИИ) «сильному или „слабому“, вот нам и интересно на основании чего вы сделали такие выводы.

И еще вопрос для осмысления: „Чем отличается обучение от самообучения?“
«нечто большее, чем слабый ИИ» — это не то же самое, что и «сильный ИИ». Так же, как и «state of the art решением в области сильного ИИ» не гарантирует решения задачи сильного ИИ на данный момент.

Вы однозначно утверждаете, что IBM Watson имеет отношение к Интеллекту(или к ИИ) «сильному или „слабому“, вот нам и интересно на основании чего вы сделали такие выводы.

Да, на основе конкретных «сложно формализуемых» юзкейсов, которые с некоторой эффективностью решает IBM Watson.

Мы предлагаем почитать документацию, которая доступна в интернете, и «расскрывает» некоторые аспекты технологии, а также задаем вопросы для того чтобы вы на них для себя ответили и сделали выводы самостоятельно.

Ну так укажите, какую именно документацию читать, поиск статей на Google scholar релевантных результатов не дает, а тот буклет, на который вы скинули ссылку, не описывает подробностей системы.
Да, на основе конкретных «сложно формализуемых» юзкейсов, которые с некоторой эффективностью решает IBM Watson.

Какими источниками вы пользовались для этого кроме маркетинговых статей?

В интернете десятки и даже сотни статей про IBM WATSON, как часто в них IBM дает ссылки на прототипы или готовые продукты, которые демонстрируют возможности IBM WATSON?

Ну так укажите, какую именно документацию читать, поиск статей на Google scholar релевантных результатов не дает, а тот буклет, на который вы скинули ссылку, не описывает подробностей системы.


Мы не можем отвечать за IBM, но если вы хотите получить ссылки от нас:
ainlconf.ru/materialIBM
developer.ibm.com/watson

А если вы действительно хотите понять технологии, то задайте вопросы представителям IBM.
Какими источниками вы пользовались для этого кроме маркетинговых статей?

Ну да, основываюсь на источниках типа новостей о той-же победе в телевикторине. Нет оснований считать, что IBM врут насчет своих результатов, т.к. репутация им важна.

Мы не можем отвечать за IBM, но если вы хотите получить ссылки от нас:
ainlconf.ru/materialIBM
developer.ibm.com/watson

Вы даете ссылки на документацию разработчика, а не на научные публикации с описанием алгоритмов.
Каждый сам для себя решает на каких источниках основываться, чтобы быть уверенным в том, что он доказывает.
IBM Watson — это не единый цельный «интеллект», а всего лишь набор технических решений и модулей: парсеры, базы данных, алгоритмы, донастраивающиеся под задачу.
«Очеловечивание» его — это выдумка маркетологов IBM, и, как видите, этот маркетинговый приём успешно работает.
Вы ошибаетесь, IBM Watson в Jeopardy получал информацию в письменном виде.
«Watson received the clues as electronic texts at the same moment they were made visible to the human players.»
© en.wikipedia.org/wiki/Watson_(computer)
Матом ругаться обучился.
вы с ним заговорили, а он вас обругал матом?
Почитайте техническую документацию IBM.
Алексей, как вы думаете почему об этом уже говорят несколько лет, а попробовать вам не довелось?
Потому, что не искал возможности? Потому, что не релизят сырой продукт? Или потому, что ругаться матом плохо и его разучили? Потому, что гладиолус? :)

Я не знаю почему.
IBM Watson — это не единый цельный «интеллект», а всего лишь набор технических решений и модулей: парсеры, базы данных, алгоритмы, донастраивающиеся под задачу.
«Очеловечивание» его — это выдумка маркетологов IBM, и, как видите, этот маркетинговый приём успешно работает.
Да, замечу что вы как то слабо определили воображение. Если воображение это способность генерить новые знания на основе предыдущего опыта, то да, ватсон умеет воображать. Посмотрите, какие няшные рецепты блюд он может предложить вам отведать.
— Мы будем рады, если вы нам поможете определить воображение точнее.
— Где мы можем посмотреть на рецепты от Watsona?
Воображением я бы назвал способность обобщать знания, не более. Почитайте это, например. habrahabr.ru/company/ibm/blog/215207

А вообще, я думаю ваше определение ИИ в корне не верно и наивно. ИИ определяется не способностью обобщать (это статистика и ML), а способностью принимать рациональные решения в условия неопределенности и взаимодействия с внешней средой. Канонический рациональный агент.

Даже мы, люди, являемся такими рациональными агентами с серьезными ограничениями в способностях. Частично, решаем это техникой. Но уже сейчас, мы сталкиваемся с тем, что не можем осознать полученные решения, например, это.
а каковы по вашему критерии или хотя бы принципы определения рациональности/иррациональности?
Зависит от целей системы. Чистый пол для пылесоса за минимальное время. Есть что пожрать для человека. Доехать из точки А в точку Б никого не задавив по пути и за приемлемое время. В общем виде существует определенный профит и плата за этот профит. Рациональность — это достижение оптимального баланса между достигнутым профитом и платой за него.
Шутка природы над человеком заключается в том, что пока мы не понимаем что-то — для нас это магия. В том числе и про ИИ — воображение, сознание, аналитическое мышление и прочее филосовское блаблабла. А как только понимаем, что это тонны в общем то понятного, но унылого тервера — то магия развеивается и мы уже не хотим называть это магией. А раз это не магия, то какой же это интеллект!

Человек любит магию.
Погодите, но пылесос сам не может дойти до того что чистый пол это хорошо, танку все равно по какой траектории он доедет из пункта А в пункт Б. Это всего лишь детерминированные Вами задачи во вполне детерминированных Вами условиях.
Изменим условия: как определить рациональность, скажем, симпатической системы? Каковы здесь критерии? Как эти критерии определить?

На счет магии — мы не поддерживаем магию — она ненаучна :) Но мы готовы ее принять и предложить свой вариант ее развенчивания.
пылесос сам не может дойти до того что чистый пол это хорошо

Он получает эти знания через «обучние с учителем».

танку все равно по какой траектории он доедет из пункта А в пункт Б.

Опять таки знания о критериях оптимальности траектории танк получает через «учителя».

Это всего лишь детерминированные Вами задачи во вполне детерминированных Вами условиях.

При абсолютном отсутствии о внешних условиях и человек не может сделать ничего адекватного.
Он получает эти знания через «обучние с учителем».

Опять таки знания о критериях оптимальности траектории танк получает через «учителя».


Да а как определить при этом учителя?
Как он определяет что у танка хватит бензина и что пылесос все почистил?
Каковы его критерии.
Откуда он об этом узнал?

При абсолютном отсутствии о внешних условиях и человек не может сделать ничего адекватного.

Что Вы подразумеваете под сочетанием «отсуствие внешних условий? „
Да а как определить при этом учителя?
Как он определяет что у танка хватит бензина и что пылесос все почистил?
Каковы его критерии.
Откуда он об этом узнал?

Сейчас вы несете уже полную лажу.
На данный момент развития человечества у людей есть некоторый набор знаний об окружающем мире, которые модель ИИ может использовать как априорную информацию.

Что Вы подразумеваете под сочетанием «отсуствие внешних условий? „

Полное отсутствие априорных знаний о внешней среде.
Сейчас вы несете уже полную лажу.
На данный момент развития человечества у людей есть некоторый набор знаний об окружающем мире, которые модель ИИ может использовать как априорную информацию.


Мы пытаемся понять как Вы себе представляете ИИ в контексте пылесоса, учителя и его знаний, которые весьма вероятно являются субъективными.
И пока мы слабо себе представляем представленную Вами модель.
Ну в практической реализации.
Интересно было бы услышать от Вас как такие процессы как учитель и ученик реализуются технически.

Полное отсутствие априорных знаний о внешней среде.

Человек рано или поздно захочет есть и в попытках поиска еды знания появятся.

Как такие процессы могут быть реализованы с Вашей точки зрения?
Мы пытаемся понять как Вы себе представляете ИИ в контексте пылесоса, учителя и его знаний, которые весьма вероятно являются субъективными.
И пока мы слабо себе представляем представленную Вами модель.
Ну в практической реализации.
Интересно было бы услышать от Вас как такие процессы как учитель и ученик реализуются технически.

Также, как он сейчас реализован в умных пылесосах? Свою задачу они выполняют.

Человек рано или поздно захочет есть и в попытках поиска еды знания появятся.

Как такие процессы могут быть реализованы с Вашей точки зрения?

Или он умрет с голоду, если он не умеет добывать еду и инстинкты у него не работают(что и происходит иногда с животными, выращеными в неволе и отпущенными в дикую природу).
Вы исходите из неверных предположений: человеку не может просто так, без каких либо априорных знаний захотеться есть. При отсутствии инстинктов (которые и яввляются априорными знаниями, выработанными в результате эволюции) человек даже не поймет, что он хочет есть. А желание поесть — это сложная причинно-следственная связь между информацией «с датчиков» и «базой знаний». База знаний копилась много времени путем эволюции в какой-то степени методом Монте-Карло…
Также, как он сейчас реализован в умных пылесосах? Свою задачу они выполняют.

Умный пылесос звучит как-то странно. МЫ предполагаем ум другого плана когда говорим про ИИ.
С вашей точки зрения пылесос обладает ИИ.
Т.е. Интеллектом? Или это все же автомат?

Или он умрет с голоду, если он не умеет добывать еду и инстинкты у него не работают(что и происходит иногда с животными, выращеными в неволе и отпущенными в дикую природу).
Вы исходите из неверных предположений: человеку не может просто так, без каких либо априорных знаний захотеться есть. При отсутствии инстинктов (которые и яввляются априорными знаниями, выработанными в результате эволюции) человек даже не поймет, что он хочет есть. А желание поесть — это сложная причинно-следственная связь между информацией «с датчиков» и «базой знаний». База знаний копилась много времени путем эволюции в какой-то степени методом Монте-Карло…


КОль скоро человек эволюционно снабжен оприорными данными, то человек без оных будет не человеком, верно?
Т.е. Понятие «отсуствие оприорных данных» для человека неприменимо. Верно?
Однако, об ИИ.
Как вы себе представляете праткиечскую реализацию самообучения (коль скоро оприорные данные у нас есть). Есть ли какие-то примеры?
Умный пылесос звучит как-то странно. МЫ предполагаем ум другого плана когда говорим про ИИ.
С вашей точки зрения пылесос обладает ИИ.
Т.е. Интеллектом? Или это все же автомат?

В контексте слабого ИИ да, умные пылесос обладает интеллектом.
Что ВЫ можете предлагать, если ВЫ не можете формализовать терминологию.

КОль скоро человек эволюционно снабжен оприорными данными, то человек без оных будет не человеком, верно?
Т.е. Понятие «отсуствие оприорных данных» для человека неприменимо. Верно?

Да, не применимо. Человек без априорных знаний становится животным не интеллектуальным. Более того, в истории были примеры, когда ребенок выростал среди животных и не был способен адаптироваться к жизни среди людей.

Как вы себе представляете праткиечскую реализацию самообучения (коль скоро оприорные данные у нас есть). Есть ли какие-то примеры?

Читайте на unsupervised learning применительно к машиннному обучению. Вполне наглядный пример самообучения.
Умный пылесос звучит как-то странно. МЫ предполагаем ум другого плана когда говорим про ИИ.
С вашей точки зрения пылесос обладает ИИ.


Не нравится мне слова Искусственный и Слабый. Я бы предпочел говорить про интеллект в целом, один сложнее другого.

Уверяю, однажды на марсе будут яблоки земле побывает интеллект, по сравнению с которым вы — пылесос. И да, я считаю все системы, которые автономно в условиях неопределенности достигают целей — интеллектуальными, т.е. с интеллектом. И вас, и пылесос.

Разница — только в сложности.
Конечно не может. Цель кто то задает извне, всегда. Интеллект в том, чтобы достичь цель в неизвестном окружении.

А еще пылесоса можно учить с подкреплением. Например, дать ему колеса и веник и пустить на пол часа в комнату. Если через пол часа не будет чисто — побить палкой. Повторять до сходимости. Есть алгоритмы, которые позволяют ему научиться именно убирать комнату, а не просто ползать по ней или стоять в углу и махать веником. Не напоминает детенышей хомосапиенса?

Симпатической системы? Запросто. Организм должен адекватно функционировать в течении определенного времени. Адекватно — значит органы должны делать то, что они должны делать. Сердце качать кровь так, чтобы её всем хватало с одной стороны и не лопнули трубы от давления с другой. А дальше неопределенность, сейчас кислорода надо мало, и можно качать поменьше, через секунду его надо много и надо качать побольше. А можно заранее начать качать побольше зная, что через минуту надо будет бегать (жим-жим называется). А потом замерзли и чтобы не остыть надо перекрыть сосуды кожи. И т.д. по списку.
Нет, не подходит?

Интеллект — да бывает разный.
Правда мы бы разложили интеллект на качества и определяли его более точно.
Исходя из объема оприорных данных, сложностей факторных цепей, условий определенности-неопределенности.

Пылесос — у него же нету сенсоров… подкрепления или это уже не пылесос. Нет?
А без сенсоров подкрепления не выйдет обеспечить обратную связь.
А если у пылесоса будет собственная обратная связь пусть и с подкреплением, то он должен обладать моделью памяти, адекватной сенсорам. нет?
В итоге получиться не пылесос а некий, ну робот, и, да, он будет более функционален.
Т.е в контексте вот именно пылесоса интеллект не подходит. Разве нет?

Про симпатику — мы бы все же упростили: Мы же говорили про оприорные данные, т.е. углеродный/белковый/газовый и прочие обмены есть.
Его производные — вполне «измеряемые» в рамках организма.
Используя опорные данные симпатика демонстрирует весьма и весьма определенные данные.
Т.е. это не интеллект, это конечный автомат.
И, да с качественной обратной связью.
Но он не решает интеллектуальные задачи, верно?

А что же с ИИ?
Отчасти с Вами можно согласиться, но на элемент обучения, адаптации, определения приоритетов, селекцию, т.е. упорядочивание инфопотока, его факторную формализацию у нас иная точка зрения и мы ее обязательно обсудим позже.

Пока же мы остановимся в рамках некой системы координат, присущей некому ИИ, решение задач в которой имеет прикладное применение.
Пылесос — у него же нету сенсоров

Даже у моего отсталого пылесоса есть сенсор наполнения бака. У роботов-пылесосов сенсоров может быть достаточно много.

Пока же мы остановимся...

Ок, давайте остановимся.
Пылесос — у него же нету сенсоров… подкрепления или это уже не пылесос. Нет?

Нет, в умных пылесосах, таких как производят Rumba, есть лазерный дальномер, на основе которого работат SLAM алгоритм для построения карты квартиры и навигации по ней, а также для объезда препятствий.
В продвинутых моделях есть еще куча всяких сенсоров для измерения уровня пыли в воздухе и т.п.
Если вы не видите разницу между сенсорами и сенсорами подкрепления, то прочтите наш комментарий еще раз более внимательно,

Так как вы самый активный комментатор нашей статьи, предлагаю вам написать свои размышления о ИИ в своей собственной статье, и нашу с вами беседу перенести туда, дабы не разводить «флуд», и не уходить от темы статьи.

В geektimes также есть «Диалоги», все ваши вопросы вы можете написать нам в виде сообщения.
Мы обязательно на них ответим.
Если вы не видите разницу между сенсорами и сенсорами подкрепления, то прочтите наш комментарий еще раз более внимательно


я загуглил термин «сенсор подкрепления», поисковик не выдает релевантных результатов. Может укажете источник, где можно прочитать про этот термин?

А без сенсоров подкрепления не выйдет обеспечить обратную связь.
А если у пылесоса будет собственная обратная связь пусть и с подкреплением, то он должен обладать моделью памяти, адекватной сенсорам. нет?

Просто из определения обратной связи следует, что лазерный дальномер в пылесосе обеспечивает обратную свзяь.
Как сказали умные люди уже давно — интеллекта без возможности изменять мир вокруг себя не существует. Нельзя просто загрузить в систему терабайты текстов и получить умную штуку — нужно, что-бы эта штука умела ошибаться и учиться на собственных ошибках. А в целом — удачи, результаты впечатляющие есть?
ServPonomarev@, Спасибо за пожелание!
В следующей статье расскажем о нашей технологии, способной понимать любой язык и рассуждать на нем.
Не знаю является ли это впечатляющим результатом — решать вам.
В следующей статье расскажем о нашей технологии, способной понимать любой язык и рассуждать на нем.

Звучит как маркетинговое развешивание лапши на уши. А методику для автоматических рассуждений открыли уже давно при помощи алгебры логики и предикатного исчисления. А язык Prolog, который реализует эту методику, существует аж с 1977 года…

з.ы. ну и да, скатываясь к философской стороне вопроса, то термин «понимание» не может существовать в отрыве от формализованного определения для «интеллект».
Напишем чуть менее популярно, дабы не путаться в терминах:
технологии, способной понимать любой язык и рассуждать на нем


Интерактивный лингвистический алгоритм дедуктивного априорного поиска.
или
лингвистически управляемая система псевдомышления, способная осуществлять взаимодействие с человеком посредством текстовых и иных каналов связи"

А методику для автоматических рассуждений открыли уже давно при помощи алгебры логики и предикатного исчисления. А язык Prolog, который реализует эту методику, существует аж с 1977 года…


Приведите пример реализации методики автоматического рассуждения на прологе. Что было написано на нем?
Как определить рациональность в контексте ИИ?
Приведите пример реализации методики автоматического рассуждения на прологе. Что было написано на нем?

Например, системы автоматического доказательства теорем. Как пример, вот статья лохматого 1985 года: link.springer.com/chapter/10.1007%2F3-540-16042-6_7

Напишем чуть менее популярно, дабы не путаться в терминах:
технологии, способной понимать любой язык и рассуждать на нем

Как-то вы лихо оперируете терминами «понимать» и «рассуждать». Может для начала введете формальное определение этих терминов?

Как определить рациональность в контексте ИИ?

Так-же, как и в теории игр/теории принятия решений и т.п., т.е. как оптимальную последовательность действий для достижения наилучшего ожидаемого результата, не? И вы вообще к чему это спросили?_
Например, системы автоматического доказательства теорем. Как пример, вот статья лохматого 1985 года: link.springer.com/chapter/10.1007%2F3-540-16042-6_7


А как это связано с автоматическим рассуждением, например, на русском языке?

Как-то вы лихо оперируете терминами «понимать» и «рассуждать». Может для начала введете формальное определение этих терминов?

Да вы правы, термины не были определены в статье и ввести их в комментариях не представляется возможным. это тема для следующей статьи, мы об этом и написали:
В следующей статье расскажем о нашей технологии, способной понимать любой язык и рассуждать на нем.


Так-же, как и в теории игр/теории принятия решений и т.п., т.е. как оптимальную последовательность действий для достижения наилучшего ожидаемого результата, не?


А как определить с точки зрения рациональности наилучший ожидаемый результат?
А как это связано с автоматическим рассуждением, например, на русском языке?

А какая разница на каком языке записывать рассуждения? Формализуйте по тому же принципу русский и будет рассуждение на русском.
Вот, например, решение задачи Эйнштейна на Прологе, которое вполне можно считать рассуждением на русском языке на заданную тему.

Да вы правы, термины не были определены в статье и ввести их в комментариях не представляется возможным. это тема для следующей статьи, мы об этом и написали:
В следующей статье расскажем о нашей технологии, способной понимать любой язык и рассуждать на нем.

Ну, если «поля этой тетради слишком малы, чтобы вместить определение», то можете скинуть ссылки на свои научные публикации, например в рамках AAAI, с описанием ваших алгоритмов и методов. А то как-то слишком вы смахиваете на псевдоученого-шарлатана, которой критикует все уже существующие, и выдающие некоторые адекватные результаты, системы, попутно расхваливая свою тайную технологию, которой никто не видел и никто о ней не слышал.
А какая разница на каком языке записывать рассуждения? Формализуйте по тому же принципу русский и будет рассуждение на русском.


Т.е. для вас пролог — это инструмент рассуждений на русском языке?

которой критикует все уже существующие.


А разве мы критиковали?
Мы дали материал для размышления и задали вопросы — решать вам.

А то как-то слишком вы смахиваете на псевдоученого-шарлатана


Ну шарлатаны могут быть где угодно (в том же AAAI). Мы уверены, что люди, ориентирующиеся в теме, и так представляют о чем мы пишем, и о чем напишем. Мы исходим из того, что людям нужны не статьи, а прикладные решения, о чем мы и собираемся здесь говорить.
Вы не согласны?
Т.е. для вас пролог — это инструмент рассуждений на русском языке?

Где я это указывал? Пролог — это язык логического программирования.

А разве мы критиковали?
Мы дали материал для размышления и задали вопросы — решать вам.

От того, что вы в конце предложений ставите знаки вопроса, контекст и смысл этих предложений не меняется.

Ну шарлатаны могут быть где угодно (в том же AAAI).

Могут, но там, в отличие от поста на хабре/гиктаймся, нельзя опубликоваться без рецензии от нескольких авторитетных людей из области. Т.ч. шарлатану опубликоваться на «серьезной» конференции значительно сложнее, чем на медиа-ресурсе.

Мы уверены, что люди, ориентирующиеся в теме, и так представляют о чем мы пишем, и о чем напишем.

Если вы пишете для тех, кто все уже понимает, то зачем вообще ваш пост?

Мы исходим из того, что людям нужны не статьи, а прикладные решения, о чем мы и собираемся здесь говорить.

Ну т.е. у вас нет никаких публикаций на тему вашей системы, которая, в отличие от того же IBM Watson, умеет рассуждать на любом языке? Ну ок, всё с вами тогда понятно…
Т.е. для вас пролог — это инструмент рассуждений на русском языке?

Где я это указывал? Пролог — это язык логического программирования.

ранее вы писали:…
А какая разница на каком языке записывать рассуждения? Формализуйте по тому же принципу русский и будет рассуждение на русском.

это как то связано с прологом? Какова связь??
Мы хотим понять действительно ли принцип формализации на прологе идентичен, формализации на естественном русском языке?

Если вы пишете для тех, кто все уже понимает, то зачем вообще ваш пост?

А вы полагаете, что мы «Америку» открыли?
Мы считаем, что не все понимают — от того и пишем.

Интересна ваша позиция по проблематике ИИ в контексте коммуникации человека с машиной на естественном языке.

Ну т.е. у вас нет никаких публикаций на тему вашей системы, которая, в отличие от того же IBM Watson, умеет рассуждать на любом языке? Ну ок, всё с вами тогда понятно…


У вас есть всегда право выбора, что читать, кому доверять, на каком основании принимать решения.

На основании чего вы обычно принимаете решения, что считать интеллектом?
— Маркетинг, общественное мнение.
— Научная обоснованность.
— Прототип — продукт, который вы можете оценить.

Или предложите свои критерии.
это как то связано с прологом? Какова связь??
Мы хотим понять действительно ли принцип формализации на прологе идентичен, формализации на естественном русском языке?

Для русского языка есть лингвистическая модель, используя которую и проводят семантический анализ текстов и какой-то осмысленный вывод. Эту модель вполне можно формализовать в терминах языка Пролог (т.к. он является тьюринг полным), т.ч. не вижу существенных проблем в реализации продукционной системы для рассуждений на русском языке.

На основании чего вы обычно принимаете решения, что считать интеллектом?
— Маркетинг, общественное мнение.
— Научная обоснованность.
— Прототип — продукт, который вы можете оценить.


Научная обоснованность + описание подхода достаточное, для его повторения.
IBM WATSON подходит под ваши критерии?
По IBM Watson я по крайней мере имею наглядные результаты и список статей, с которых можно начинать изучение этой системы. И речь не о IBM Watson, а о вашей системе. IBM ведь не заявляют, что их система может понимать и рассуждать на любом языке…
Список релевантных публикаций по IBM Watson
Chu-Carroll, J.; Czuba, K.; Prager, J. M.; and Ittycheriah, A. 2003. Two Heads Are Better Than One in Question-Answering. Paper presented at the Human Language Technology Conference, Edmonton, Canada, 27 May–1 June.

Dredze, M.; Crammer, K.; and Pereira, F. 2008. Confidence-Weighted Linear Classification. In Proceedings of the Twenty-Fifth International Conference on Machine Learning (ICML). Princeton, NJ: International Machine Learning Society.

Dupee, M. 1998. How to Get on Jeopardy!… and Win: Valuable Information from a Champion. Secaucus, NJ: Citadel Press.

Ferrucci, D., and Lally, A. 2004. UIMA: An Architectural Approach to Unstructured Information Processing in the Corporate Research Environment. Natural Langage Engineering 10(3–4): 327–348.

Ferrucci, D.; Nyberg, E.; Allan, J.; Barker, K.; Brown, E.; Chu-Carroll, J.; Ciccolo, A.; Duboue, P.; Fan, J.; Gondek, D.; Hovy, E.; Katz, B.; Lally, A.; McCord, M.; Morarescu, P.; Murdock, W.; Porter, B.; Prager, J.; Strzalkowski, T.; Welty, W.; and Zadrozny, W. 2009. Towards the Open Advancement of Question Answer Systems. IBM Technical Report RC24789, Yorktown Heights, NY.

Herbrich, R.; Graepel, T.; and Obermayer, K. 2000. Large Margin Rank Boundaries for Ordinal Regression. In Advances in Large Margin Classifiers, 115–132. Linköping, Sweden: Liu E-Press.

Hermjakob, U.; Hovy, E. H.; and Lin, C. 2000. Knowledge-Based Question Answering. In Proceedings of the Sixth World Multiconference on Systems, Cybernetics, and Informatics (SCI-2002). Winter Garden, FL: International Institute of Informatics and Systemics.

Hsu, F.-H. 2002. Behind Deep Blue: Building the Computer That Defeated the World Chess Champion. Princeton, NJ: Princeton University Press.

Jacobs, R.; Jordan, M. I.; Nowlan. S. J.; and Hinton, G. E. 1991. Adaptive Mixtures of Local Experts. Neural Computation 3(1): 79-–87.

Joachims, T. 2002. Optimizing Search Engines Using Clickthrough Data. In Proceedings of the Thirteenth ACM Conference on Knowledge Discovery and Data Mining (KDD). New York: Association for Computing Machinery.

Ko, J.; Nyberg, E.; and Luo Si, L. 2007. A Probabilistic Graphical Model for Joint Answer Ranking in Question Answering. In Proceedings of the 30th Annual International ACM SIGIR Conference, 343–350. New York: Association for Computing Machinery.

Lenat, D. B. 1995. Cyc: A Large-Scale Investment in Knowledge Infrastructure. Communications of the ACM 38(11): 33–38.

Maybury, Mark, ed. 2004. New Directions in Question-Answering. Menlo Park, CA: AAAI Press.

McCord, M. C. 1990. Slot Grammar: A System for Simpler Construction of Practical Natural Language Grammars. In Natural Language and Logic: International Scientific Symposium. Lecture Notes in Computer Science 459. Berlin: Springer Verlag.

Miller, G. A. 1995. WordNet: A Lexical Database for English. Communications of the ACM 38(11): 39–41.

Moldovan, D.; Clark, C.; Harabagiu, S.; and Maiorano, S. 2003. COGEX: A Logic Prover for Question Answering. Paper presented at the Human Language Technology Conference, Edmonton, Canada, 27 May–1 June…

Paritosh, P., and Forbus, K. 2005. Analysis of Strategic Knowledge in Back of the Envelope Reasoning. In Proceedings of the 20th AAAI Conference on Artificial Intelligence (AAAI-05). Menlo Park, CA: AAAI Press.

Prager, J. M.; Chu-Carroll, J.; and Czuba, K. 2004. A Multi-Strategy, Multi-Question Approach to Question Answering. In New Directions in Question-Answering, ed. M. Maybury. Menlo Park, CA: AAAI Press.

Simmons, R. F. 1970. Natural Language Question-Answering Systems: 1969. Communications of the ACM 13(1): 15–30

Smith T. F., and Waterman M. S. 1981. Identification of Common Molecular Subsequences. Journal of Molecular Biology 147(1): 195–197.

Strzalkowski, T., and Harabagiu, S., eds. 2006. Advances in Open-Domain Question-Answering. Berlin: Springer.

Voorhees, E. M., and Dang, H. T. 2005. Overview of the TREC 2005 Question Answering Track. In Proceedings of the Fourteenth Text Retrieval Conference. Gaithersburg, MD: National Institute of Standards and Technology.

Wolpert, D. H. 1992. Stacked Generalization. Neural Networks 5(2): 241–259.
Для русского языка есть лингвистическая модель, используя которую и проводят семантический анализ текстов и какой-то осмысленный вывод. Эту модель вполне можно формализовать в терминах языка Пролог (т.к. он является тьюринг полным), т.ч. не вижу существенных проблем в реализации продукционной системы для рассуждений на русском языке.


Звучит вполне правдоподобно. А подскажите пожалуйста различные примеры реализации лингвистической системы на прологе, если это так просто.
И прокомментируйте почему по вашему мнению такие простые реализации на прологе до сих пор не реализованы.
Я не говорил, что фрмализовать лингвистическую модель просто, но это возможно.
Вот к примеру способ составления простых фраз на английском языке: www.cpp.edu/~jrfisher/www/prolog_tutorial/7_2.html

И прокомментируйте почему по вашему мнению такие простые реализации на прологе до сих пор не реализованы.

Уже не раз упоминавшийся тут IBM Watson использует Prolog для процессинга естественного языка. Вот список статей, описывающих подобные системы:
articles
[1] Michael A. Covington. Natural Language Processing for Prolog Programmers.
Prentice Hall, 1994.
[2] David Ferrucci, Eric Brown, Jennifer Chu-Carroll, James Fan, David Gondek,
Aditya A. Kalyanpur, Adam Lally, J. William Murdock, Eric Nyberg, John Prager,
Nico Schlaefer, and Chris Welty. Building Watson: An Overview of the DeepQA
Project. AI Magazine, 31(3), 2010.
3
[3] Adam Lally, John Prager, Michael McCord, Branimir Boguraev, Siddharth Patwardhan,
James Fan, Paul Fodor, and Jennifer Chu-Carroll. Question Analysis:
How Watson Reads a Clue. IBM Journal of Research and Development, submitted.
[4] Michael McCord, Branimir Boguraev, John Prager,, and J. William Murdock.
Parsing and Semantic Analysis in DeepQA. IBM Journal of Research and Development,
submitted.
[5] Michael C. McCord. Using Slots and Modifiers in Logic Grammars for Natural
Language. Artificial Intelligence, 18(3):327–367, 1982.
[6] Leon Sterling and Ehud Y. Shapiro. The Art of Prolog — Advanced Programming
Techniques. MIT Press, 2 edition, 1993.
Предлагаю вам написать свои размышления о прологе в своей собственной статье об ИИ:
— Думаю всем будет интересно почитать обзор приведенных вами статей и понять как IBM Watson использует Prolog.
— Предлагаем в этой статье также поразмыслить о том как создать лингвистическую модель на основе пролога, чтобы она могла размышлять на любом языке.

Мы обязательно подключимся к обсуждению, зададим вопросы и выскажем наше мнение, если оно вам будет интересно.
Вот для Android есть приложение CamFind, определение предмета по фото, работающее на полтора порядка удивительнее, чем Гугловый Googles.
Он каким-то неспешный последовательным процессом анализирует фото и потом выдает тип\класс, к которому можно отнести предмет, цвет и т.д. и довольно-таки правильно…
Стоит ещё понимать, что за интеллектом человека стоят как минимум десятки тысяч лет коллективного опыта.

Очень показательный пример — дети Маугли. Сам рассказ «Маугли» основан на реальных феноменах (хотя сам рассказ «фантастичен» в некоторых аспектах). Существует несколько зафиксированных и хорошо описанных случаев, когда находили детей маугли. Так вот, в зависимости от возраста, обычно эти дети — очень слабо социализировались, им тяжело давался язык и прямоходение и многие из них вообще не смогли вписаться в человеческую культуру.

Собственно это иллюстрация к тому, что наш интеллект — очень во многом строится на культурном слое. Все дети (кроме маугли) находятся в очень сильном и во многом типичном информационном потоке. Потоке в котором все окружающие подталкивают тебя учиться речи, учиться управлять своей физиологией, учиться говорить и понимать речь.
И наоборот, вне этого потока — физиологически дети могут вырасти (будучи воспитанными животными), но не научиться говорить, или ходить на двух ногах.
ИЧСХ, поэтом, после прохождения определенных периодов развития — научить их говорить/ходить и т.п. — крайне затруднительно. Хотя при этом, они в определенных областях развиты даже лучше, чем обычные люди. Например бегают на четвереньках сравнимо по скорости с бегом на двух ногах.
В целом, за 40 тыс. лет мозг не сильно изменился. У некоторых предков человека, по объему, мозг вообще был больше, чем сейчас. Но в целом, объем мозга не коррелирует с уровнем интеллекта. Среди гениальных людей он варьировался довольно сильно. Т.е. большой мозг =! большой ум или сильный интеллект.

Как мне кажется, «железо», т.е. сам мозг, у нас уже давно был способен на очень многое. Научный прогресс и развитие интеллекта, собственно, не упиралось в возможности нашего мозга. Они копились вместе с опытом, с развитием культурных механизмов (речь, письмо, знания).

Поэтому, вполне возможно, что в скором времени создание ИИ будет уже не столько вопросом улучшения железа (вычислительных мощностей), сколько — тем какие алгоритмы в него закладывать и каким образом.
Sign up to leave a comment.

Articles