Pull to refresh

Comments 145

Мое мнение следующее: как только компьютер начнет понимать и воспринимать текст так же, как и человек, произойдет нечто подобное, что произошло в «Судном дне» Кэмерона или в «Вирусе». Человек играет с огнем.
Да, лучше поесть борща, посмотреть ТВ и лечь спать.
Ну да, и так до 21 декабря 2012. А там дальше будет видно…
Здравствуйте, я пишу из будущего, на дворе 2013 год. Я еле как в руинах нашел датацентр, где располагались сервера habrahabr.ru, и написал сюда в надежде что кто-либо прочтет и узнает что он не единственный выживший. К сожалению никто не верил в 21 декабря 2012 года и я теперь теряю надежду найти выживших людей…
Вывод не бесспорный. Вы говорите, что компьютеры никогда не будут понимать текст, как понимаем его мы, потому что существующим алгоритмам для решения этой задачи потребуется очень большой объем памяти. Вы не допускаете возможности появления других алгоритмов? Или вычислительных систем, также использующих квантовые эффекты, которые, возможно, используются в человеческом мозгу?

Более того, а чем плох ИИ, устроенный несколько иначе, нежели устроены мы?

Я подозреваю, что на самом деле вопрос заключается не в объемах памяти, а в том, является ли мозг машиной. Если является, то можно создать аналогичную ей (вырастить в пробирке). Если же имеет место божественная составляющая, то, вероятно, не может.
Отвечу фантасту — «42».
Поясните, пожалуйста )
смотрите кино «Автостопом по галактике» по книге Дугласа Адамса
читайте книгу, а не смотрите кино. кино суть лишь чужая интерпретация того, что в книге. и, если следовать логике статьи, кто знает — верная ли?
Не скажите. В создании сценария фильма Дуглас Адамс лично участвовал.
Ну теперь все ясно. Спасибо за развернутый ответ. Произведения такого уровня, равно как и Звездные войны я воспринимаю как испражнение больных фантазией лжегениев. Сказки для детей.
Вы говорите так, как будто «фантазия», «сказки» и «дети» — это что-то очень плохое. Может, Вам и Кэрролл не нравится?
Почему сказки — это плохо? Я, например, вырос на русских народных сказках. И это — прекрасно. Кэрролла не воспринимаю, равно как и Дугласа Адамса. Почему я должен подстраиваться под всех? Насколько я понял, личное мнение тут не воспринимается, более того — подавляется. Нужно мыслить как все. Тогда будет уважение и почет. Хотелось бы уважать мнение большинства, но это напоминает сказку о голом короле. goo.gl/qnQY0
Словечки вроде «испражнения» и «больных» обычно не воспринимаются как просто личное мнение. Вы уж не обижайтесь на такую щепетильность тех, кто Вас читает, а то, я смотрю, Вы себя уже затравленным почувствовали.
Если не воспринимаете Кэролла — следует подучить матан.
Это ответ на главный вопрос жизни, вселенной и всего такого. Читать нужно.
Дуглас Адамс «Путеводитель для путешествующих автостопом по галактике»
Обновление комментариев не помогло(
Причем именно что читать. В фильме пропущено очень многое :)
и добавлена куча ненужной отсебятины
Прекрасный рассказ. Рассказ-анекдот, люблю такие.
Топик из разряда холиварных. Стороны две: «Верующие» и «Не верующие». Со всеми присущими им особенностями.

Хотя правильный ответ: «Не знаю».
Мне кажется ответ «не знаю» настолько же правильный, насколько и бесполезный.
Намного лучше ответ: «Провожу исследования и пытаюсь разобраться».
Интересная заметка, согласен в том, что компьтеры не смогут понимать текст так, как его понимает человек. Потому что это просто разные системы
Мне кажется само применение слова «понимает текст» некорректно в отношении компьютера-не-искусственного-интеллекта. Да, считайте меня цифровым романтиком, но я думаю со временем компьютер сможет сделать с текстом что угодно — перевести, выполнить инструкции, проверить грамматику и даже предложить переписать ваше письмо родителям более благозвучно.

Но сам процесс «понимания» все равно останется за рамками интересов компьютера, поскольку у компьютера нет никаких интересов, что, собственно, и отличает его от человека. Ладно, будем откровенны, от большинства людей.

Все проблемы, кроме юмора, для компьютера решаемы в контексте поставленной для него задачи. Да, для многих слов есть несколько вариантов перевода в зависимости от, например, эпохи. Но если эта задача разрешима для человека, то она может быть формализирована. Алгоритм сможет определить начало и конец текста, поискать характерные слова, обороты и словосочетания а также поискать информацию об авторе и на основании этих данных сделать предположение, к какой эпохе относится данный текст.

Фишка в том, что язык имеет огромный, но конечный набор слов и словосочетаний. Вопрос только в оттачивании алгоритмов и количестве вручную заданных исключений.
Набор слов и словосочетаний в языке не конечен! Естественный язык — открытая система: одни слова приходят, другие уходят. Если мы будем учить компьютер понимать обыденную речь и язык художественной литературы, встает еще проблема окказионального авторского словоупотребления.
Как в таком случае алгоритмы отточить?
Верно, что не конечный, но довольно консервативный. Так что сейчас точим алгоритмы на размеченных корпусах текстов, это вполне работоспособно.
Функция логарифм тоже неограниченная, но растет настолько медленно, что в практических приложениях ее считают ограниченной.
Вот у Лема есть пример языка, менявшегося каждый день. Вот там эта задачка потруднее будет.
Для размеченных корпусов текстов — согласен! А вот разработка алгоритмов для понимания языка вообще является, по моему мнению, пока что неразрешимой задачей.
А языки, меняющиеся каждый день, существуют не только в художественном мире Лема, но и в действительности. Лингвистам известны примеры бесписьменных языков, которые (как раз по причине отсутствия письменной фиксации и каких-либо норм) развивались так, что новое поколение говорящих уже переставало понимать предыдущее.
«По первому предложению этой статьи определить, в каких отношениях находится автор с девушкой.»
Затейник :)
UFO just landed and posted this here
Только прочитав ваш комментарий, смог наконец задаться правильным для понимания скрытого смысла вопросом: «а как же еще она могла смотреть на потолок, если не откидывалась при этом на спинку стула?». И вот теперь я, кажется, смог пройти тест Тьюринга. Спасибо.
Внезапно, моя цепочка мыслей была:
вопрос о понимании текста компьютером — работа — пустые вопросы, глядя в потолок — значит не в офисе — значит дома — раз работает дома, и рядом есть кто-то еще — значит скорее всего отношения достаточно близкие — раз девушка-переводчик, значит не член семьи — значит либо близкий друг, либо девушка, которая девушка

Другая ветка:
вопрос о понимании текста компьютером — задача понимания текста — компьютером — ленивый переводчик — как все задолбали лениться.

Вот эта самая другая ветка была подтекстом, который я понял сначала. Потом была первая ветка(после указания в тексте). И уже только сейчас я прочитал этот комментарий.
ИМХО — современные проблемы компьютерной семиотики находятся на грани решения. Семантические инструменты медленно, но верно вползают в жизнь, за ними неизбежно придут большие объемы структуризированных и формализованных знаний (и неважно, что структура у них будет кривая, а формализмы будут радикально отличаться — из формальных данных можно получать другие формальные данные, если нужная информация в них вообще есть).

Как только научат по нормальному понимать и наладят взаимодействие в 2-х различающихся контекстах — произойдет большой «БУМ!!», число этих областей возрастет неимоверно, в компы быстро-быстро перекидают все, что под руку попадет и они будут понимать наши тексты лучше, чем мы сами. Просто потому, что передача сведений у них возможна копированием, а не скучным, нудным и очень долгим обучением.

По поводу «невозможно, ибо разные системы» — так ведь раньше между телефоном и арифмометром тоже было мало общего — а нынешний средний смартфон по своим возможностям превосходит 2 первых моих компьютера вместе взятых.
Наверное соглашусь. За последние несколько лет качество перевода того же самого Гугла выросло очень серьезно. И пусть это, возможно, функция накопления правок и корректив человеческих переводчиков, это же ведь сродни тому, как мы поправляем детей: «Правильно сказать вот так, а не так как ты сказал, тебя могут неверно понять» и т.п.
Мы сами его обучим, а он-таки захватит мир.
Качество перевода того же Гугла не выросло. Увеличилась словарная база. Самое большее, на что способен переводчик Гугл — это перевод отдельных слов и словосочетаний, а также очень простых предложений. Переводить сложные предложения, учитывает при этом зависимость значения от контекста, ни один компьютерный переводчик пока не может. Кроме того, эта задача вряд ли разрешима. Важным свойством естественного языка является многозначность: нюансы значений слов меняют значения в зависимости от контекста. Мы все это понимаем интуитивно. Но вряд ли можно описать зависимость оттенков значения от контекста в виде системы правил. А отсюда следует, что научить компьютер понимать тексты невозможно.
Обоснуйте, почему указать правилами для одного слова несколько разных определений в зависимости от контекста — это сложная задача? Я не вижу тут никаких принципиальных барьеров.
Хотя бы потому, что количество контекстов, в которых может быть употреблено слово, по сути бесконечно. Описать все потенциальные связи некоторого слова с другими словами практически невозможно. Еще в 19 веке немецкий философ Фридрих Даниэль Эрнст Шлейрмахер сформулировал так называемый принцип герменевтического круга, согласно которому понимание целого зависит от понимания частей. Вспомните, как Вы переводите иноязычные тексты со словарем: Вы находите незнакомое слово в словаре (там, как правило, указано несколько его значений), затем проверяете, насколько оно вписывается в систему смысловых взаимосвязей переводимого текста; если не вписывается, то продолжаете поиск дальше. Каждый текст по-своему уникален, и все возможные смысловые связи между словами зафиксировать и описать просто-напросто невозможно. Далее: понимание языковых выражений предполагает наличие у участников коммуникации так называемых фоновых знаний. Если Вы читали в оригинале произведения авторов 18 или 19 века, то Вам наверняка приходилось обращаться не только к словарям, но и к различным историческим источникам, рассказывающим о жизни людей в ту эпоху — ведь иначе многие моменты в тексте останутся неясными. Можно ли создать базу знаний на все случаи жизни? На сегодняшний день ответ будет отрицательным. И еще один момент: понимание включает в себя внерациональный момент. Автор топика приводит пример с пониманием юмора, которое не может быть смоделировано при помощи машины. А в обыденном общени очень многое основано именно на эмоциях и отсылках к личным ассоциациям. Эти вещи тоже при помощи компьютера не моделируются.
ну вот, прямо предвосхищаете отдельные аргументы!..
понимание целого зависит от понимания частей
Это верно отчасти — потому что целое задает несколько ключевых контекстов, в рамках которых и понимаются части. Кроме сугубо технических (то есть специально нацеленных на однозначность) текстов, практически все сообщения имеют несколько слоев-контекстов. Понять разумом все из них, наверное, не могут даже люди на это нацеленные — так их много и настолько глубоко они могут проникать. Но заставить машину видеть несколько ключевых, по-моему, вполне возможно. А далее только дело техники — первые шахматные программы тоже играли на уровне новичка.
иначе многие моменты в тексте останутся неясными
Самое ироничное, что тут нужно знать, что искать прежде, чем искать. Отдельные контексты могут быть утеряны, другие известны только узкому кругу лиц — здесь уже вопрос не интерпретации сообщения, но его полноты.
пониманием юмора, которое не может быть смоделировано при помощи машины
С чего бы это юмор стал иррациональным? Он как раз очень «разбираем» — просто он отсылает к ассоциациям и случаям, диссонирующим, противоречивым с «формальным» контекстом фразы. И эти «диссонирующие темы» вполне можно подбирать — ведь известны же диссонансные звучания в музыке (важно: их восприятие тоже менялось со временем — что в одну эпоху было диссонансом, то в следующую могло становится консонансом и наоборот).
Как описать и представить в машинопонятном виде все возможные контексты и взаимосвязи между ними? На сегодняшний момент это неразрешимая задача.

Насчет юмора — он отсылает не только к ассоциациям и случаям. В понимании юмора есть внерациональный момент (внерациональный=немоделируемый с помощью машины). Кроме того, юмор отсылает к многообразным культурным контекстам, которые и людям-то не сразу понятны (вспомним классический английский юмор или габровские анекдоты — лично Вы понимаете, когда там надо смеяться и почему?). Как описать все эти отсылки к культурным контекстам в машинопонятном виде?
Как описать и представить в машинопонятном виде все возможные контексты и взаимосвязи между ними? На сегодняшний момент это неразрешимая задача.
все — действительно невозможно. Но! Кроме того, еще и никому не нужно. Люди отслеживают до 5-6 контекстов в реальном времени, при глубоком анализе до пары десятков (цифры взяты почти с потолка — даже не слышал про подобные или близкие к тому исследования, потому опираюсь на интроспекцию). Это, к слову, хорошо описывает, когда увлекшись обсуждением одного вопроса, разговор уходит в сторону и теряется его нить.
>>>>Семантические инструменты медленно, но верно вползают в жизнь, за ними неизбежно придут большие объемы структуризированных и формализованных знаний (и неважно, что структура у них будет кривая, а формализмы будут радикально отличаться — из формальных данных можно получать другие формальные данные, если нужная информация в них вообще есть).>>>>>
Тем не менее, говорить о серьезных результатах, достигнутых с помощью этих самых семантических инструментов, еще рано. Кроме того, естественный язык вряд ли можно считать формализованной системой в классическом смысле этого слова. Описать все возможные семантические отношения между элементами естественного языка вряд ли возможно.
>>>Как только научат по нормальному понимать и наладят взаимодействие в 2-х различающихся контекстах — произойдет большой «БУМ!!», число этих областей возрастет неимоверно, в компы быстро-быстро перекидают все, что под руку попадет и они будут понимать наши тексты лучше, чем мы сами. >>>>
Как это может произойти? Пока никто не может дать ответа на этот вопрос.

… естественный язык вряд ли можно считать формализованной системой в классическом смысле этого слова
она не формализованная, но формализируемая (динамическая, смногосмысловая — но формализуемая в принципе). Подробности готовлю в статью, как выложу — отпишу.

Как это может произойти?
А как в 40-х годах кто-то мог сказать про принципы работы современных смартфонов? Никак, только предположить, и то очень-очень грубо. Притом базовые технологии так же существовали (компьютеры, телефония, радио).
Нужен более высокий уровень технологии и его эмерджентные проявления. Отдельные проявления в кучку собираю, в вышеупомянутой разрабатываемой статье оно будет.
Согласен, что формализируемая — но формализируемая с трудом и не до конца. Лингвисты в этом направлении ведут интересную работу, но ее результаты свидетельствуют скорее о невозможности полной формализации.
А статьи жду. С удовольствием приму участие в ее обсуждении.
Никогда не говори «никогда»

Человек рождается только с несколькими инстинктами. Всё остальные знания — он приобретает. Так же и компьютер может обучиться…
Человеку в его нынешнем виде не менее 50 тысяч лет. Мозгу живого организма в разы и порядки больше. Компьютеру — ну пусть 70. Человеческий мозг и компьютер явно не одного уровня соперники (в споре, кто кого). Автор в своем высказывании скорее прав.
Вот только возможности компьютеров непрерывно растут и когда-нибудь они вполне могут сравняться и даже превзойти возможности человеческого мозга.
В твоем высказывании, прости, слабое место в том, что возможности человеческого мозга самим человеком совершенно не определены. Так, кое-как, очень условно нащупываются, но еще много неизвестного. Поэтому трудно наметить веху, когда же компьютеры сравняются с живым мозгом.
На хабре частенько встречаются посты в стиле «Распознавание капчи нейросетью». По сути это практически то же самое, только нейронов там не десятки миллиардов, а намного меньше.
Если когда-нибудь создатут сетью в 100 миллиардов виртуальных нейронов и начнут обучать — возможности этой системы должны оказаться сопоставимыми с возможностями мозга.

Конечно, оценивать чисто вычислительные способности(то, что на поверхности) довольно глупо. Человек плохо умножает трёхзначные числа, но в то же время мозг управляет движениями всех мышц тела и сохраняет равновесие в вертикальном состоянии в любой момент — а это довольно сложная задача.
Ну может быть да, возможно и обучат. Это, конечно, труд просто колоссальный, я не знаю равных такому объему труда в человеческой истории. Но возможно все, да.

Вот ты верно говоришь, что человек плохо работает с трехзначными числами. Ниже написал, что это потому, что эти числа ни к чему в реальной жизни. (Вторя тебе опять же) в жизни нужно, например, при обнаружении малейших помех в дыхательных путях живенько их прочистить. И организм издает чих. Вот этой действительно важно и нужно, и с этим все ок.
Ну да, в эволюции и естественном отборе способность к точному счёту выше определённых чисел никогда не являлась определяющим фактором :)
Но именно за счёт того, что компьютерная сеть будет запоминать намного быстрее, она, думаю и обучаться будет быстрее.
Должен заметить, что нейронная сеть — это просто непротиворечивая модель головного мозга, основанная на формализации процесса принятия решений. Она охватывает далеко не все аспекты деятельности головного мозга именно потому, что все аспекты его деятельности неизвестны. То есть процессы творческого мышления, абстрактного мышления, мотивации изучения (напрямую не связанного с жизнеобеспечением) еще не изучены (поправьте меня, если ошибаюсь), и творчески мыслить, а так же обучаться вне ранее заложенной программы, нейросеть не будет.
И если сеть из 100 миллиардов нейронов начнут обучать, то, возможно, получится универсальный решатель. Который сможет быстро решать поставленные перед ним задачи. И на долю человека выпадет эти самые задачи ставить.
Как сказано в фильме «Восстание планеты паркурщиков»: Вы знаете о мозге всё. Кроме того, как он работает.
(Возможно один) я в этой теме вижу большую и забавную рекурсию: человеческий мозг хочет создать объект, равный себе по возможностям. Для этого мозг пользуется своими возможностями. О которых владеет лишь обрывочными сведениями. X хочет сделать Y=X, использует для этого себя, но знает себя слабо.
Помойму у нас так вся наука построена
конечно человек компьютеру не соперник — это системы на разных основаниях и принципах.
В своей области компьютеры переплюнули человечество (т.е. не отдельно взятого индивида, а всю совокупность особей) — считать, как это может делать даже обычный офисный носитель ворда/экселя никому не дано.
Учитывая большое пространство для роста, я скорее ставлю на компьютеры.
Полагаю, что на какой-то очень давней стадии развития живой мозг плюнул на развитие своих калькуляционных способностей, потому что в настоящем мире они бесполезны. Это если вообще такое развитие рассматривалось, как стоящее того. Гораздо более полезными оказывались другие «методологии» вроде паттернового устройства памяти, вроде создания внутри себя такой сущности как «сознание» (да, только у человека, про наличие его у животных неизвестно.). И многих других.
Даже круче: вообще без инстинктов. Человек всему учится.
Тезис о том, что знание языка является полностью приобретенным, уже неоднократно ставился под сомнение: посмотрите работы Н. Хомского, а из последних наиболее известных книг на эту тему — «Язык как инстинкт» С. Пинкера. Эти авторы считают, что человек обладает врожденной базой, благодаря которой становится возможным овладение языком.
Судите сами: (1)на глубинном уровне все языки похожи между собой; (2)человек овладевает родным языком за рекордно короткий срок: в возрасте 4-5 лет ребенок в состоянии выразить на языке любую мысль (многие взрослые за столь короткий срок иностранным языком овладеть не в состоянии); (3) если человек по каким-то причинам не смог овладеть языком до окончания т.н. сенситивного периода (т.е. до 6 лет), то потом он либо не овладевает языком вообще, либо овладевает с трудом.
Выскажу мысль, которая более естественна, на мой взгляд, чем предположение Хомского (которого я уважаю хотя бы за работающие компиляторы )): «языки имеют общим наличие смысла в них». То есть, человек, изучая язык, проецирует на него конструкции смысла, учится переводить с «внутреннего» на «внешний». Естественно, что любой язык, предназначенный для передачи сообщений, обязан иметь конструкции для передачи смысла сообщения. А вот обратное верным быть не обязано — смысл может выражаться не как простое сообщение (хороший пример — «опыт». Он исключительно приобретается, его невозможно передать через сообщение).
Ставить при этом во главу угла «язык» (а, по-моему, Хомский так и сделал, что вполне простительно — это все же финал его работ, на них есть след всей жизни, занятой изучением и формализацией языков) — несколько опрометчиво. Хотя бы потому, что языки обладают неизменным свойством линейности — как система, позволяющая передавать сообщение через разные последовательности (звуков, жестов, знаков, мимики и так далее) — а вот «смысл» линейным быть не обязан, да и не является им, это сетевая структура.
Вопрос к Вам: что Вы понимаете под смыслом? Какое определение смысла Вы бы дали?
Дабы не было заморочек со смыслами смысла, предпочитаю такую формулировку: «смысл — это то, что позволяет переводить на другой язык (в том числе со «сложного» на «простой») и комментировать сообщение».
Может ли «китайская комната» определить, в каких отношениях автор поста находится с девушкой из первой фразы? Внешне это будет выглядеть так, будто может. Но на самом-то деле?
Соглашусь с вами. Даже если компьютер будет оперировать информацией так как будто он понимает ее смысл не факт что он действительно понимает.
В общем-то, это вопрос о том, что такое понимание. И даже шире — что такое сознание.
А почему нет? Китайская комната содержит понимание. Только оно не у оператора комнаты, а является функцией книги с промежуточными записями. Так же как и у человека понимание — функция состояния связей в мозгу, но ни один нейрон, ни одна связь не обладают по-отдельности «квантом понимания».
Смысл заметки в том, что раз не все люди понимают, то значит и компьютер не понимает. Вполне очевидно. Никакого противоречия. Но делать из этого вывод, что компьютер никогда не поймет текст, как-то странно. Как можно понять непонятный текст. Даже если человек не может. Вдруг это вообще не текст.
Ну так надо определить, что это «не текст» и идти дальше. Люди это могут. Именно люди, а не отдельно взятый человек. Ведь если текст неизвестен всем людям, то это и не текст. А человек с такими данными делает две вещи или уничтожает, или сохраняет для дальнейшего (в будущем) анализа — потому что мы знаем что не совершенны и знаем что есть прогресс и, что может быть потом, это расшифруют.
Я слышал, что Google отличается бессмысленный текст (раньше марковские цепочки использовали часто) от нормального, даже не понимая смысл, просто как-то рассчитывает его ненастоящесть. То есть, кажется, что эта проблема уже решена. Может быть осталось только немного улучшить задав процент «непонятности», чтобы оставить на будущее для «расшифровки».
а текст на незнакомом языке — текст? К примеру, я не знаю слов, не могу определить структуру предложения — где подлежащее, сказуемое и пр., просто потому что не знаю, какой частью речи является то или иное слово (например в английском допустим только один правильный порядок слов, а в русском возможность перестановки частей предложения намного шире). Так что является ли набор слов текстом, зависит и от тезауруса того, кто этот текст пытается воспринимать
Ну я же написал — Люди, а не отдельно взятый человек.

И потом, у вас уже есть представление о «незнакомом языке», как минимум вы знаете, что они есть. Как максимум вы даже можете себе представить их тексты, хоть и не понять. Значит какой-то анализ вы уже сделали и способны отличить шум от текста.
сначала определимся, что такое текст. Наука определяет текст как связную последовательность знаков (слов). Но мне кажется более важным то, что это должна быть осмысленная последовательность слов, несущая некоторую информацию. К примеру, «петр свиной лопата огород уран» — не текст, несмотря на то, что мы с вами понимаем значение входящих в него слов, потому что никакой полезной информации из него извлечь нелзя. А "博客有许多种类。种类不只是根据内容,同時也根据编写博客的方法區分。" — текст. Только на китайском. И для китайца он понятен и несет смысл. Для меня или другого человека, не знающего китайский — нет, и я не могу сказать текст это или просто последовательность закорючек, которые даже не являются символами какого-либо алфавита. Стало быть восприятие смысла текста напрямую зависит от текущих знаний воспринимающей его сущности. Что вобщем-то и было сказано в топике
А если текст написан на незнакомом языке незнакомой письменностью? А ведь это реальное жизненная ситуация; археологам, например, приходится иногда сталкиваться с подобным? Вспомним знаменитый Фестский диск: у многих исследователей были сомнения относительного того, что символы, нанесенные на нем, образуют текст. Проблему отличения текста от не-текста с помощью компьютера на настоящий момент вряд ли возможно решить.
Заявлять однозначно не нужно, что компьютеры понимать язык не будут, так как это пока не понятно самому человеку, как это происходит в мозге. Но как минимум это возможно при понимании механизмов функционирования мозга. И будущая такая машина скорее всего будет обладать не набором алгоритмов на все случаи жизни ( в том числе на «понимание» языка), а алгоритмом обучения, сходным с тем, что присутствует в мозге.
На счет алгоритмов обучения: необходимо будет поместить компьютер в схожую для человека среду для того, чтобы он мог обучиться по схожему принципу — детсад, школа, круг общения. И то, наверняка, возникнут проблемы. Потому что в развитии ребенка не малую составляющую играют гены. Опосредованно доказано, что знания предыдущих поколений передаются, поэтому маленькие пигмеи менее склонны к обучению, чем европейцы.

Насколько я знаю все попытки моделирования мозга были обречены, получался некоторый черный ящик, который вроде что-то делал, а вроде и ничего полезного.

На мой взгляд гораздо проще в будущем будет клонировать мозг некоторого образованного человека с накопленными знаниями. Если это будет теоретически возможно, то определенно возникнет вопрос гуманизма. Ведь это будет тот же человек с желаниями, эмоциями, в общем голова профессора Дойля :)

Поэтому гораздо гуманнее и проще сейчас развивать проблемно ориентированные алгоритмы. Алгоритм распознавания кошек, технического перевода, определения лиц на фотографиях и т.п.
Опосредованно доказано, что знания предыдущих поколений передаются


Откуда вы это взяли? Похоже на бред.
Да нет, не совсем бред. Передача по крайней мере некоторой информации генетическим способом доказано. С процессами запоминания тесно связана мРНК, матричная РНК. В ней хранится по крайней мере часть того, что помнит человек. А структура мРНК закодирована в геноме. Таким образом передаются по крайней мере способности к определенным видам обучения, в частности к абстрактному мышлению и, как следствие, к обучению математики. Конечно, механизмы такой передачи точно неизвестны и вызывают много споров, но само существование передачи информации такого рода больших споров не вызывает.

Передача знаний не означает передачи буквальной информации о том, где лежит ваше любимое порно, например. Скорее это можно сравнить с сохранением состояния нейронов нейросети после некоторого времени обучения. Конкретной информации это состояние не хранит, но позволяет продолжить обучение с последней точки сохранения, а не с самого начала.
Даже в Wiki написано и это правда:
Ма́тричная рибонуклеи́новая кислота́ — РНК, содержащая информацию о первичной структуре (аминокислотной последовательности) белков. мРНК синтезируется на основе ДНК в ходе транскрипции, после чего, в свою очередь, используется в ходе трансляции как матрица для синтеза белков.

А информация, накопленная за время жизни и способности — это вообще разные вещи.
Примерно с полгода назад где-то проскакивала заметка, что какие-то живые существа (достаточно простые, кажется) передают приобретенные во время жизни изменения потомству. Это конечно никакие не знания, но все равно сенсация. Скорее всего очень мало клеток. А у человека изменения в одной клетке (или даже во множестве) потомству не передаются, потому что не затрагивают половые клетки, которые воспроизводятся постоянно. То есть как раз механизм защиты от передачи приобретенных признаков. Скорее всего связано с болезнями.
К сожалению источник не назову, придется или поверить, или погуглить :)
Это на идеи Лысенко смахивает.
Тоже думал, что если баранам пилить рога, то когда-нибудь появятся бараны без рогов.
Можно хоть какую-нибудь информацию о том, где заметку искать?

Ну не слышал я ни о каких средствах для изменения ДНК в клетках организмов.
Вот у одноклеточных просто — малейшая мутация сразу передаётся потомкам.
Не смог найти ту заметку, но по запросу нашел много по запросу «наследование приобретенных признаков». Вот например: «Недавно открыто еще несколько способов передачи по наследству приобретенных признаков. Эти способы не связаны с изменениями самого „текста“, записанного в структуре молекул ДНК, то есть с мутациями. Поэтому такую наследственность называют „эпигенетической“, или „надгенетической“. www.evolbiol.ru/neolamarck.htm
UFO just landed and posted this here
«клонировать мозг некоторого образованного человека с накопленными знаниями» задача не проще, чем смоделировать мозг. Нервная система человека представляет собой адаптивную систему, и ее состояние в любой момент времени определяется не только начальным состоянием, заложенным в генах, но и историей воздействия внешней среды. Поэтому можно клонировать только мозг в его начальном состоянии, что применительно к задаче бессмысленно
Самое интересное, что мозг — тоже черный ящик, который вроде что-то делает, а вроде и ничего полезного.
Последнее предложение очень верное. Действительно, «понимать» текст в том смысле, как его понимает человек, компьютеры видимо в ближайшее столетие не смогут. Во всяком случае компьютеры, которые мы знаем сейчас.

А вот переводить его с достаточной степенью точности, думаю, смогут уже в ближайшее десятилетие.
Перевод напрямую зависит от качества понимания смысла текста.
Интересно узнать о наработках гугла на эту тему. Уверен, они уже давным давно научились на каком-то зачаточном уровне понимать смысл текста.
Знаете, многие современные фантасты вводят понятие так называемой "точки сингулярности". Во многом то что вы тут пишите является продолжением дискуссии на тему «а достижима ли сингулярность в принципе» и «может ли машина мыслить».
Кстати, почитайте «Сумму Технологий» Лема, там многое из того, что вы тут писали рассматривалось…

UFO just landed and posted this here
Я думаю, что Лем всё-таки опередил своё время и даже сам не понял того как он это сделал. Если почитать его более поздние философские рассуждения то там всё гораздо более простое и приземленное. До тех высот он уже не смог добраться. Хотя для своего времени(когда он писал), оно выглядело хорошо. Но проходило пять лет и было понятно, что это достаточно пустые рассуждения.
А сумма технологий… Она безусловно опередила не только своё время.
Буквально месяц назад ходили новости о разработке MIT, позволившей компьютеру обучиться игре прочитав инструкцию. Вот статья на 3dnews.

Конечно, инструкция — не литературный текст с огромным количеством возможных интерпретаций, но тем не менее.
Фишка в том что многие люди читая текст понимают его одинаково, по крайней мере насколько можно судить об этом. И как статья наглядно демонстрирует можно, получив какую-то информацию, понимать данный текст. Следовательно понимание не зависит от конкретного интерпретатора, но от его состояния. Следовательно есть некое подмножество свойств интерпретатора, значение которых позволяет «понимать». А следовательно даже имея черный ящик, можно составить некую зависимость входящих подмножеств и и получить суррогатное «понимание» в виде выходных значений.

Другое дело что, хотя множества явно конечные, их размер или зависимости, достаточно большие что бы сделать решение «в лоб» трудным. И неудачи с «семантическим вебом» множества стартапов и даже Гугла показывают что задача пока не решена.
Фишка-то как раз обратная — все люди понимают текст по-разному. А те люди, которые понимают текст примерно одинаково, называются — одного культурного бэкграунда, или слоя. Собственно, если бы все люди понимали текст одинаково, не было бы культур, стран, наций, границ, войн и т.д. и т.п. Поэтому, если удастся создать компьютер приближающийся по глубине понятия текста к человеческому, то мы просто получим ещё одного Васю, или Джона, или Вонга.
Эээ, типа сказать нечего, а хочется?

Не важно что по-разному, важно что некоторые одинаково.
Васи для многих задач более чем достаточно.

найдете хотя бы двух человек, которые поймут текст 100% одинаково? Не фразу «НЕ ВХОДИТЬ», а какой-нибудь более-менее крупный кусок текста. Проведите эксперимент на ближайших имеющихся. Тогда Вам будет что сказать :)

А для решения многих (скольких?), достаточно и не Васи, а обученной обезъяны.
да найду. Существуют достаточно большие области знаний где правильно сформулированный текст однозначен.

обезьяна не умеет переводит, а вот троллить видимо умеет.
о, да, «определенные области знаний», «правильно сформулированный текст»! Какие еще ограничения введем? Инструкцию к стиральной машине компьютер уже переводит лучше, чем живые китайцы-переводчики. Автор топика не зря же привел цитату из художественного произведения для примера?
То, что в мозгу используются квантовые эффекты, больше похоже на бред. Просто в мозгу очень много нейронов (порядка сотни миллионов?), которые связаны большим количеством связей.

Если в мозгу 100 млн. нейронов (и гораздо большее число связей между ними), и каждый из них, допустим, работает на частоте 5 Гц, то такая сеть обрабатывает ежесекундно 500 Мбит информации. Понятно, что наши примитивные алгоритмы анализа текста, подходящие к решению «в лоб» не могут сравниться с мозгом.

Человек воспримнимает текст по ассоциативному принципу — каждое слово распознанное вызывает ответную реакцию памяти и появление множества связанных образов. Но нет никаких причин думать, что невозможно создать аналогичную электронную схему.
Со временем либо придумают более совершенные алгоритмы, либо кремниевый эмулятор нейронной сети и тогда откроются совсем другие возможности. Я даже думаю, что правильно спроектированная схема окажется в разы совершенней мозга — представьте, например, 100 млн. кремниевых нейронов, работающих на частоте 1 Ггц. Это разум такой силы, которой нет ни у одного из живущих людей.
По поводу квантовых эффектов в мозге,

Их существование возможно, и главный кандидат — тубулин. Он состоит из молекул-димеров, которые могут находиться в спутанном состоянии двух пространственных укладок. Об этом можно почитать в книге Quantum Aspects of Life. Правда она еще не переведена на русский.
Я вам больше скажу — около 150 миллиардов нейронов.
Количество связей, наверное, ещё больше как минимум на порядок.

Это просто невероятная машина.
Вот если повторят такую нейросеть, а сознания не будет — тогда можно и о квантовых эффектам задуматься, но я не думаю, что они участвуют.
А как можно определить появление сознания у внешней системы? Я могу лишь утверждать, что сознание есть у меня. За других людей — не знаю, возможно часть из них сознания не имеет.
ЕМНИП, количество связей между нейронами оценивается числом 10^120.
При общем количестве атомов во вселенной 10^108
Зависит от метода расчета. Видел обе цифры
Не встречал. Сейчас вбил в гугле — попался неверный расчёт через размер.
Расчет через барионную плотность, дающий 10^80 (частиц, кстати, не атомов) тоже нельзя считать безупречным. Вообще не проверял цифры. Просто улыбнуло число 10^120
Ну вполне себе такой стандарт для оценки порядка (атомов-атомов, их же по эквиваленту массы считают). Насчёт 10120, конечно же, солидарен.
Да, когда читал, тоже так подумал. Вообще, в книжке («Тогда придёт электронный джентльмен») автор сначала рассказал про число «гугол» — 10^100. Про оцениваемое число атомов во вселенной, 10^80. И потом про это число. Хотя тогда я был маленьким и для меня все три числа были малопредставимы. Я и сейчас в общем-то тоже себе их мало представляю.
Вытягивал с Google Books одну старую редкую статью и решил вбить название этой книги (короткий поиск во время нашего обсуждения показал, что в сети её вроде бы нет) — самой её не оказалось и там, но всплыло упоминание в одном из номеров журнала «Наука и жизнь». Открыл сейчас этот номер (Наука и жизнь, 1988, №11, стр. 33) — в нём одна из глав книги, причём как раз нужная. 10120 приведено там для другого примера, для нейронной сети же число ещё больше, и намного, хотя явно оно не указано. Но это, конечно же, не число связей, а что-то вроде числа состояний.

Можете освежить в памяти — вытянул страницу: стр. 35.
Ага. Спасибо. Действительно, немного ошибся.
Число приводится по памяти из книги «Тогда придёт электронный джентльмен» Юрия Чиркова.
Тогда совет. Если это действительно написано в книге — сожгите ее. Это ересь
Тут просто небольшая путаница, в книге немного о другом написано. Если интересно, можете посмотреть мой ответ Doktor Gradus'у выше .
Нет, это неверно. Вроде бы у нейронов бывает максимум несколько тысяч ответвлений дендритов — и то, вряд ли они все используются, и вряд ли нейрон обработает такое количество сигналов и вряд ли там есть столько синапсов для них, так что число связей можно легко посчитать, умножив число нейронов на 10-20.
Один я прочитал что «Первым Николай распечатал письмо от Sony»?
Я сначала подумал, что бедняга взломал PlayStation, и потому получи письмо от Sony, которое он и распечатал на принтере.
Утверждение о невозможности понимания текста машиной спорно. Мозг строит связи и машина строит связи. Если научить компьютер строить связи эффективно и затем обучить на достаточном объеме информации для определения контекста, понимание текста станет возможным. Причем, полагаю, английский текст компьютеру понять легче, хотябы потому, что английский язык семантически проще, не флективен и по нему решена проблема построения полного тезауруса (если ничего не путаю). Так что я бы не был категоричен на этот счет.
В сериале «Квантовый скачок» был такой компьютер. Даже шутить умел. Т.е. про это сняли кино еще в 1989г. :-)
Под компьютером я подразумеваю не абстрактный искусственный интеллект, а именно вычислительное устройство, выполняющее некий вычислительный процесс
Тогда под человеческим разумом следует понимать сеть взаимосвязанных химико-электрическими процессами нервных клеток, а не абстрактное сознание, способное к восприятию действительности.
Рассмотрим фразу ...
Всего лишь пример использования омонима в предложении. С чего Вы взяли, что такие стилистические конструкции не распознаются?
Понимание умолчаний
Здесь Вы сами себе противоречите, приводя в пример то, что даже среди людей возникают различное понимание словесной информации. Сделать на этом основании какие-либо выводы о машинном восприятии невозможно.
Понимание метафор
Метафоры предназначены для формирования более полного образа описываемого объекта или явления. Если понимание рассматривать именно в контексте формирования образа (а так обычно и происходит), то никаких дополнительных проблем метафоры не создают
Понимание юмора
Требует наличия эмоций. Сам по себе юмор в тексте редко несет полезную для формирования образа информацию, сообщая в основном отношение автора к поднимаемой теме или связан с попыткой увеличить интерес читателя. А для понимания отношения автора машине (как и человеку) не нужно обладать чувством юмора, достаточно проанализировать использованные слова и обороты.
Из описанных задач первые две могут быть решены машиной, третья и четвертая — нет (на текущий момент), поскольку требует наличия определенного социального опыта, пятая и шестая нет, поскольку не относится к пониманию текста как таковому, а требует наличия творческих способностей. И ни одна из приведенных задач (за исключением, пожалуй, пятой) не имеет существенной практической значимости.
> По тексту определить идеологию автора (правая/левая).
> Проанализировав текст, вывести ':)', если текст велелый и ':(', если текст грусный.
> По первому предложению этой статьи определить, в каких отношениях находится автор с девушкой.

Ни одно из этих трёх заданий применительно к статье выполнить не смог. Я плохой ИИ?
Мне всегда забавно читать такие тексты. С одной стороны вроде как о конкретных вещах, а с другой ни о чем. С одной стороны, есть конкретные задачи, вроде выделения ключевых слов, определения тематики текста, морфологического и синтаксического анализа, определения тональности текста. С другой — пафосные словеса о понимании текста. Это при том, что _открытых_ материалов по анализу текстов, исследованию языка много.

По крайней мере в конкретных задачах есть постановка задачи и можно анализировать ошибки. А в пространных рассуждениях — ну да, можно высказать свое мнение. Но никакого критерия оценки правильности нету.

> По тексту определить идеологию автора (правая/левая).
Весьма вероятно, что это решается на уровне ключевых слов/тематики.

> Проанализировав текст, вывести ':)', если текст велелый и ':(', если текст грусный.
Это задача определения тональности текста. По-английски, это называется sentiment analysis.

UFO just landed and posted this here
UFO just landed and posted this here
На самом деле, все описанные вами проблемы худо бедно решаемы в рамках комп. лингвистики:
— выделение метафор
— определение сарказма
— анализ сентиментов и мнений
— комп. перевод
— генерация текста
Каждая из задач постоянно исследуется. В целом, проблема понимания текста компьютером хоть медленно, но решается.
Что же касается компьютеров в современном смысле этого слова, то можно с уверенностью утверждать, что понимать текст они не будут никогда.

А я могу с уверенностью сказать только одно — если системы, способные понимать текст, и будут когда-нибудь разработаны, то уж точно не теми людьми, которые придерживаются подобных убеждений.
Рассмотрим фразу: «Первым Николай распечатал письмо от Сони». Как в этом случае понимать слово «Сони»? Это Соня или Sony Corporation?
Да, в человеческой речи подтекстов и непрямых фраз масса: ирония, гипербола, жаргон, диалекты и т. п. С вами согласен, и в данном случае автор как нельзя прав.
Автор неправ, ибо неверно поставил вопрос. В статье и ваше приведенной мысли можно легко заменить без потери смысла все вхождения слова «компьютер» на слово «человек» и получится вывод «человек не способен понимать текст. Лингвистическая неопределенность присутствует независимо от механизма, изучающего текст, а значит понимания в смысле автора не существует вообще.
Ничего личного, но сдается мне, что как раз в случае вашего комментария как раз «человек и не способен понимать текст».
А в случае Вашего комментария налицо эффект ложного «понимания» без углубления в суть вопроса. Если Вы думаете, что автор первый, кто поставил вопрос об анализе семантики текстов на естественном языке — ошибаетесь. Рассматривались и метафоры, и гиперболы, и жаргоны, и много чего еще. С позиций формальной грамматики, семиотики, многозначных логик и т.д. Выводы автора беспочвенны, так как сама постановка вопроса не имеет смысла.
Соглашусь, что на сегодняшний день и вопрос и выводы бессмысленны.
В общем, да. «Мысль изреченная есть ложь» — известная цитата, с которой согласны практически все лингвисты. Это значит, что вне огромного контекста большинство нетривиальных высказываний может быть проинтерпретировано различными способами.
Я просто не понимаю формулировку вопроса.
Что значит «компьютер понимать текст так же, как человек»?

Компьютер не живет. Он не добывает себе сам пропитания. Он не привязан к комфорту и т.п.
Если интерпритировать компьютер, как человека, который бы мог помогать тебе в определенной области, так, как если бы это делал человек, используя для запросов человеческую речь, то вот, пожалуйста Ютинет. Да, там есть еще много над чем работать. Например он понимает лишь товары из тех что они продают, но это уже «понимать текст так же, как консультант этого магазина».
Компьютер «понимать» текст так же как человек не может. И человек «понимать» текст как человек не может. Изменение образа окружающего мира зависит от наличия объективной необходимости в этом изменении. Нередки случаи, когда персонаж N думает, что понимает какое-то высказывание только потому, что у него нет объективной необходимости его применять, и, следовательно, убедится в несоответствии его образа действительности. Поэтому сама постановка вопроса не имеет смысла
Искусственный интеллект — это современный философский камень. Сейчас превратить свинец в золото в принципе возможно, но это нецелесообразно. Так, мне кажется, будет и с искусственным интеллектом. Когда его создание станет возможным, во-первых, тут же пропадет ареол таинственности, и многие просто потеряют к этой теме интерес; во-вторых, почти наверняка это будет настолько сложно, что в этом не будет никакого практического смысла. И уж точно это не будет компьютер, это будет принципиально иная технология.
Одна девушка-переводчица, задумчиво глядя в потолок...

Я пошляк.
Как в анекдоте: «я всегда о ней думаю».
Вот ещё в тему: Талоны на электронную почту и SMS
image
Sign up to leave a comment.

Articles