Pull to refresh

Comments 358

Если вы будете разбивать большие абзацы на более короткие, это значительно облегчит при прочтении восприятие заложенной в тексте мысли. Добавление пары подходящих по смыслу иллюстраций также будет очень полезной диверсификацией идеи автора в различные знаковые системы.

Длинные монотонные абзацы символьной информации является барьером при передаче продуктов вашей психической деятельности читателям.
Надеюсь вы сейчас про белковых читателей… Или нет..?
О других мне неизвестно :)
Спасибо за критику! Дебют всё-таки :).
Как я понимаю, автор имел ввиду то, что ИИ не является человеком, то есть не умеет интерпретировать знаки, порожденные одним человеком как результат внутренних переживаний, обратно в те ощущения, которые свойственны человеку. Проще говоря, у ИИ нет эмоций и ощущений, а множество текстов и прочих знаков порождены именно для этого. Однако непонятно, в чем собственно проблема. Как известно, ИИ благополучно учится у человека порождению взаимосвязанных знаков, которые вызывают у людей необходимые эмоции. Более того, в отличие от людей, которые могут генерировать только частные знаковые системы, не всегда эффективные для передачи эмоций другим людям, ИИ может, обучаясь множеству знаковых систем от разных людей, порождать наиболее универсальные конструкции, которые максимально эффективно воспринимается множеством людей. В частности, ИИ неплохо конструирует хитовую музыку. Собственно, весь смысл ИИ состоит в том, что, не повторяя психическую деятельность людей, он порождает знаки, воспринимаемые людьми именно за счет того, что люди во многом одинаковы (за счет того, что физически похоже устроены и учатся друг у друга) и одинаково воспринимают определенные знаки.

Я также не уверен, что приведенные автором примеры восполнения недостающей инфрмации являются нерешаемой задачей для ИИ.
ИИ нет подобных продуктов, поэтому распознанные знаки ни с чем не увязываются, ничто не кодируют

Это как бы неправда. ИИ, очевидно, увязывает распознанные знаки с чем-то, иначе это нельзя было бы называть распознаванием.


Автопилот под управлением ИИ, наезжая на препятствие на дороге, ничего не поймет, ничего не почувствует, не задумается, не расстроится, не обрадуется, не испугается, не будет никакой рефлексии.

Почему же? Обратная связь в ИИ вполне существует.


ИИ не может оценить качество распознанного образа, т.к. нет обратной связи со стороны мышления и других психических процессов с целью исправления ошибок распознавания.

Может. Для банальной задачи классификации система машинного обучения способна отдавать вероятность принадлежности к конкретному классу — вот вам и оценка качества.


Для ИИ же все три слова в предложении отсутствуют в словаре русского языка. Домысливания, «подгонки» под какой-либо понятный, известный смысл нет

Вы хотя бы в Яндекс пробовали вбить ваше предложение? Есть системы, которые восстанавливают искаженную информацию.


ИИ на такое неспособен, т.к. у него нет точки зрения.

И это неправда. В частности, это хорошо видно на системах автоматического субтитрования, которые поправляют предыдущее предложение по ходу поступления новых слов.


у ИИ знаки ни с чем не могут быть увязаны

Что значит "не могут"? Вы говорите о принципиальной невозможности? Но на чем вы это основываете?

Я думаю, что здесь имелась ввиду дискретность знаковых систем и их обработки. В мозгу человека происходят процессы, описываемые действительными числами, но люди при общении используют дискретные языки. Для людей это нормально, ведь они похожи и могут правильно связать знаки с соответствующими непрерывными процессами в мозгу. А для машин нельзя использовать только знаковые системы, обязательно нужно дополнять (нейронками наверное, в которых действительные числа).

Ну то есть людям можно использовать "процессы, описываемые действительными числами", а потом выражать их в знаковой системе, а потом обратно запускать "процесс, описываемый", а компьютерам — нельзя? Почему?

Та тоже можно. Но для этого там должен происходить такой процесс. Он и происходит, если есть нейронки, или что-то такое. Я сам до конца не понимаю автора, но по-моему он о том, что одних только знаковых систем недостаточно.

Ну так и происходит. Среди алгоритмов машинного обучения не работающих с действительными числами — меньшинство.

он о том, что одних только знаковых систем недостаточно.
Именно. Они хороши. Я не представляю, как бы вёл эту дискуссию без такой сложной знаковой системы как «русский письменный язык», но эта переписка, использование этой знаковой системы не отвечает на вопрос, как я мыслю, и как повторить подобное мышление.
ИИ, очевидно, увязывает распознанные знаки с чем-то, иначе это нельзя было бы называть распознаванием.

А с чем именно увязывает? Вот простой пример: может ли ИИ отличить живого кота от изображения кота, в том смысле, чтобы сказать, что этот кот — настоящий, а этот — нарисованный? Вот пример: В Китае система по распознаванию лиц приняла фото девушки на автобусе за реального человека и оштрафовала её за нарушение ПДД.
Распознавание для ИИ (сейчас во всяком случае) — это отличить букву «А» от буквы «Б», не более того. Что стоит за буквами «А» и «Б» — ИИ недоступно для понимания.

это хорошо видно на системах автоматического субтитрования

я лично работаю с такой системой на youtube, мой опыт в двух словах — слабо и непредсказуемо. Почему? Потому что упираемся в обозначенные в статье барьеры.

о принципиальной невозможности?

Не думаю, что это принципиально невозможно, но пока, да, невозможно. Думаю, прорыв возможен не через анализ знаковых систем, а через изучение анатомии и физиологии, и то не факт.
А с чем именно увязывает?

С тем, что необходимо в задаче.


Вот простой пример: может ли ИИ отличить живого кота от изображения кота, в том смысле, чтобы сказать, что этот кот — настоящий, а этот — нарисованный?

Соответствующим образом обученный ИИ — может.


Распознавание для ИИ (сейчас во всяком случае) — это отличить букву «А» от буквы «Б», не более того. Что стоит за буквами «А» и «Б» — ИИ недоступно для понимания.

Знаете, музыканты тоже отличают ноту "соль" от ноты "ля", но никто не может сказать, "что стоит за нотами".


Собственно, дело в том, что вы не можете дать такое определение "понимания", которое бы с одной стороны не выполнялось той или иной системой ИИ, а с другой — не было бы изначально человекоцентрично.


я лично работаю с такой системой на youtube, мой опыт в двух словах — слабо и непредсказуемо.

Ну так дети тоже "слабо и непредсказуемо" пишут. Будем делать вывод, что люди неспособны писать?


Думаю, прорыв возможен не через анализ знаковых систем, а через изучение анатомии и физиологии

А прорыв в строительстве автомобилей возможен через изучение физиологии лошадей, вероятно.

Знаете, музыканты тоже отличают ноту «соль» от ноты «ля», но никто не может сказать, «что стоит за нотами».
За нотами стоит музыка — сложная знаковая система, с помощью которой люди передают свои эмоции, переживания и иные продукты психической деятельности. Разным людям нравится разная музыка, состоящая из разных нот и законов, их связывающих. А какая музыка нравится компьютеру? Что он чувствует, когда «сочиняет» и исполняет музыку? Я могу описать свои ощущения. В статье приведено два примера возможного описания ощущений «красности» и «грусти».

вы не можете дать такое определение «понимания», которое бы с одной стороны не выполнялось той или иной системой ИИ, а с другой — не было бы изначально человекоцентрично.
Это как раз объяснимо и не противоречит тезисам в статье. Всё, что делает человек, — «антропоцентрично». Мы не может действовать за рамками возможностей нашего вида. По-моему, это банально и не требует объяснений. Впрочем, если Вам интересен более развёрнутый ответ, я могу объяснить, почему это банально.

Ну так дети тоже «слабо и непредсказуемо» пишут. Будем делать вывод, что люди неспособны писать?
Вы искренне считаете, что дети и компьютеры делают одни и те же ошибки по своей природе вещей, по тому, что это за ошибки, по, если так можно выразиться, качеству этих ошибок? И ещё момент, не знаю откуда взявшийся: почему-то часто прибегают к сравнению ИИ с интеллектом детей. С какой целью это делается? При этом при разработке приложений ставятся амбициозные задачи превзойти возможности взрослого профессионального человека, имеющего образование и опыт, например, переводчика или водителя, но при этом, чуть что, сразу: «Ну так дети тоже „слабо и непредсказуемо“ пишут». А еще и машины плохо водят, да?

А прорыв в строительстве автомобилей возможен через изучение физиологии лошадей, вероятно.
Зачем же передёргивать? Впрочем, отчасти да :), если принять, что автомобиль и лошадь — это инструменты для совершения работы. Не зря до сих пор существует термин «лошадиная сила». Ну и главное — изобретённым автомобилем управляет человек. До сих пор человек разрабатывал системы, работающие под его управлением. Начиная с середины XX века у человечества почему-то возникло ощущение, что он способен создать систему, как минимум равную ему или превосходящую его по скорости и качеству в анализе информации и принятии решений. При этом сам человек не знает, как он анализирует информацию и принимает решение. Более того, если я правильно уловил Вашу основную мысль, нам и не надо знать, как устроены и функционируем мы сами. Если серьёзно, текущий подход к решению задач ИИ — распознавание образом на базе анализа миллионов изображений, поиск смысла текстов на базе word2vec — я бы осмелился назвать наивным подходом, романтикой чистой воды. Еще чуть-чуть, подсоберём статистики и переводчиков можно увольнять.
За нотами стоит музыка — сложная знаковая система, с помощью которой люди передают свои эмоции, переживания и иные продукты психической деятельности.

Неа. Музыка — это музыка, а ноты — это ноты. Говорить, что за нотами стоит музыка — это то же самое, что говорить, что за буквами стоит литература (очевидно, нет). Между нотами и музыкой нет взаимной зависимости, можно иметь ноты без музыки, можно иметь музыку без нот.


И это как раз подтверждает, что нет понимания "что стоит за нотами". Нота — символ, в который каждый вкладывает то, что ему хочется.


Всё, что делает человек, — «антропоцентрично».

Антропоцентрично (да и то не всегда), но не антропоморфно. Проблема антропоцентричного определения мышления в том, что оно делает невозможным нечеловеческое мышление.


Вы искренне считаете, что дети и компьютеры делают одни и те же ошибки по своей природе вещей

Я искренне считаю, что делать по наличию ошибок вывод о невозможности — необснованно.


При этом при разработке приложений ставятся амбициозные задачи превзойти возможности взрослого профессионального человека, имеющего образование и опыт

Ну да. В конкретной узкой области. То, что взрослые профессиональные музыканты пользуются тюнерами, показывает, что это возможно.


При этом сам человек не знает, как он анализирует информацию и принимает решение.

Люди много веков успешно пишут музыку, но до сих пор никто не может объективно объяснить, почему музыка воздействует на человека так или иначе. Это никому не мешает.


Более того, если я правильно уловил Вашу основную мысль, нам и не надо знать, как устроены и функционируем мы сами.

Я просто отделяю физиологию от методов анализа и принятия решений.

Неа. Музыка — это музыка, а ноты — это ноты.
Музыка — это сложная знаковая система для передачи продуктов психических процессов. Передавать можно, что угодно, хоть цифры клавиатуры телефона. Но обычно музыка используется для передачи настроения, чувств, эмоций. Нота — это знак этой знаковой системы. Знаки увязаны синтаксисом, иначе это была бы не музыка, а какофония. Есть консонантные и диссонансные интервалы. Есть размер и еще много вещей, которым люди профессионально учатся. Но всё это — всего лишь инструмент для передачи чего-го, что важно какому-то конкретному человеку. И если найдется хотя бы ещё один человек, который сможет знаки-ноты декодировать и связать со своим чем-то важным, то такая музыка ему понравится. А что важно для компьютера? Что с помощью нот он сможет закодировать?

Проблема антропоцентричного определения мышления в том, что оно делает невозможным нечеловеческое мышление.
Не вижу здесь проблемы. Или мы хотим научится думать, как собака или инопланетянин? Пока обмена знаками хватало. Если собака лает, я не знаю, что у неё в голове, но знака «лай» мне достаточно для принятия решения. Если инопланетяне стреляют в меня из лазера, надо: 1) уклониться, спастись, а потом 2) думать, что делать дальше, как их победить, как перехитрить и выжить самому.

Я искренне считаю, что делать по наличию ошибок вывод о невозможности — необснованно.
В статье используется слово «пока». Я не утверждаю, что это никогда не будет возможно. Я лишь выразил своё отношение к текущему положению дел.

тюнерами, показывает, что это возможно
В тюнерах не используются технологии ИИ. Там всё проще, возможно, именно поэтому они и работают :)

Люди много веков успешно пишут музыку, но до сих пор никто не может объективно объяснить, почему музыка воздействует на человека так или иначе. Это никому не мешает.
Но люди знают, что они чувствуют, когда сочиняют и слушают музыку. И могут выразить свои знания, ощущения, возможно, даже какие-то мысли с помощью музыки. А что чувствует программа?

Я просто отделяю физиологию от методов анализа и принятия решений.
Вы голодны. Какой приоритет принятия решений: сначала поесть или посмотреть телевизор?
Музыка — это сложная знаковая система для передачи продуктов психических процессов.

Йеп. Но это не отвечает на вопрос "что стоит за нотой "соль"".


Не вижу здесь проблемы. Или мы хотим научится думать, как собака или инопланетянин?

Я не знаю, чего хотите вы. Я знаю, что до тех пор, пока мы говорим, что мышление принципиально присуще человеку, компьютерное мышление невозможно по определению.


В тюнерах не используются технологии ИИ.

Ну то есть давайте заменим термин "ИИ" на термин "логистическая регрессия" — и вы сразу допустите, что система на основе этого алгоритма может делать классификацию счетов не хуже человека?


Но люди знают, что они чувствуют, когда сочиняют и слушают музыку

Не обязательно. И еще более не обязательно они знают, что почувствуют другие. И уж точно никто не знает, почему они это чувствуют. Это, однако, не мешает сочинять музыку. Но почему-то незнание того, как человек принимает решения, должно мешать другим системам принимать решения.


Какой приоритет принятия решений: сначала поесть или посмотреть телевизор?

Вот я голоден, но переписываюсь с вами.


Ну и да, вы путаете метод принятия решения с входными данными для принятия решения.

Ну то есть давайте заменим термин «ИИ» на термин «логистическая регрессия»
Приведите марку/модель такого тюнера, почитаю, интересно. Пока таких не встречал.

Не обязательно.
Если кто-то (человек) или что-то (компьютер) не знает, что он делает, результат получается соответствующий. И как подтверждение — неадекватные действия неадекватных людей и примеры работы текущих систем ИИ.

Вот я голоден, но переписываюсь с вами.
А программа так умеет? Т.е. принимать нерациональные или непредсказуемые решения? Я Вам подскажу: нет, потому что программы создают люди с целью как можно рациональнее решать задачи, в них фантазии и иррациональность изначально не закладываются.

Ну и да, вы путаете метод принятия решения с входными данными для принятия решения.
А можно поконкретнее.
Приведите марку/модель такого тюнера, почитаю, интересно. Пока таких не встречал.

Я не об этом. Вы говорите, что тюнеры работают, потому что они простые. Я не понимаю, как наличие или отсутствие шильдика "ИИ" меняет суть: есть система, превосходящая человека в решении конкретной задачи.


Если кто-то (человек) или что-то (компьютер) не знает, что он делает, результат получается соответствующий.

Эм. Что такое "знать, что делать" применительно к сочинению музыки?


Т.е. принимать нерациональные или непредсказуемые решения?

Во-первых, мое решение рационально. Во-вторых, да, программы умеют принимать непредсказуемые решения.


А можно поконкретнее.

То, надо мне поесть или нет, можно определить алгоритмически, вообще не привязываясь к физиологии моего мозга. Входные данные — моя физиология, но метод принятия решения — формальный алгоритм, который может быть выражен в любой решающей системе.

То, надо мне поесть или нет, можно определить алгоритмически, вообще не привязываясь к физиологии моего мозга. Входные данные — моя физиология, но метод принятия решения — формальный алгоритм, который может быть выражен в любой решающей системе.
Пока примером интеллектуального решателя является только головной мозг, а он на 150 % привязан к работе всего организма его хозяина. Я правильно понял, что Вы искренне верите, что формальный алгоритм сможет быть решателем? Почему до сих этого не произошло?
Я правильно понял, что Вы искренне верите, что формальный алгоритм сможет быть решателем?

Ну да.


Почему до сих этого не произошло?

Чего не произошло? Решатели уже есть.

Ну да.
Точка зрения понятна, спасибо.

Решатели уже есть.
Приведите пример хороших решателей. Я тоже могу «решать» уравнения квантовой механики или «сочинять» музыку. Только, думаю, людям в этом разбирающимся это будет, мягко говоря, неинтересно.
Приведите пример хороших решателей.

SVM.

UFO landed and left these words here
А тут товарищ утверждает, но физиология нам не нужна. Он правда сам скорее всего пользуется нейросетями, которые подсмотрели у людей. Парадокс однако.
А что чувствует программа?

А, да, еще важный момент. Одно из качеств, отделяющих профессионального композитора от любителя — умение писать музыку о тех эмоциях, которых она сама не ощущает. Нам заказали написать музыку на коронацию — мы пишем пафосно и радостно. Мы знает, что вот такой-то набор средств вызывает ощущение пафоса и радости — мы его и применяем. Мы знаем, что вот такой-то набор средств приемлем (например, такая-то доля и такие-то положения диссонансов) — мы придерживаемся этой практики.


По большому счету, это все опять сводится к китайской комнате и ее критике.

К сожалению, Вы опять запутались. Здесь другое. Профессиональное создание музыки на заказ — это не только эмоциональное состояние, но и мышление. Я естественно не могу сказать за человека, но сомневаюсь, что человек, пишущий музыку, совсем ничего не чувствует. Он же не робот :) Научите компьютер мыслить, чувствовать, и таки-да, я доверю ему написание музыки. Тут выше был комментарий про то, как «ИИ неплохо конструирует хитовую музыку», я просто ещё не успел на него ответить. Что-то где-то уловили, да, запрограммировали, тут нужная гамма, там нужная тональность, но слушать это больше минуты невозможно, несерьёзно это, игрушки. И вообще, Вы можете мне сказать, почему ИИ до сих только в игры играет? Правда интересно. Ну там шахматы, го, арканоид. Где серьёзные жизненные приложения?

опять сводится к китайской комнате
Почему тогда нет реально ощутимых успехов?
Я естественно не могу сказать за человека, но сомневаюсь, что человек, пишущий музыку, совсем ничего не чувствует. Он же не робот

У вас опять циклическое определение. "Я сомневаюсь, что человек, пишущий музыку, совсем ничего не чувствует, потому что он не робот", и при этом "робот не может писать музыку, потому что он ничего не чувствует". Так вот, я вам скажу честно: я сильно больше одного раза писал музыку, когда единственным ощущением от этого процесса было удовлетворение от решения задачи.


Где серьёзные жизненные приложения?

А что такое "серьезное жизненное приложение"? Возможность глухому англоговорящему говорить с китайцем, когда приложение на телефоне понимает английскую речь глухого (поверьте, человеку это очень сложно), потом озвучивает ее по-китайски, потом воспринимает китайский и воспроизводит его в тексте на экране — это достаточно серьезное жизненное приложение? Автоматическое субтитрование конференции в реальном времени на пять, что ли, языков — это серьезное жизненное приложение?


Почему тогда нет реально ощутимых успехов?

Вопрос ваших критериев "реально ощутимых успехов".

я сильно больше одного раза писал музыку, когда единственным ощущением от этого процесса было удовлетворение от решения задачи.
Так Вы этим только подтверждаете тезисы статьи. У Вас есть эмоции, мотивация — психические процессы, которые сподвигли Вас на интеллектуальную деятельность. Да, написание музыки, получение удовольствия, эмоции — это естественно тоже интеллектуальная деятельность. Или Вы под интеллектом понимаете исключительно решателя задач? Тогда тем более почему он до сих пор не создан, если ему не нужна всякая чепуха вроде эмоций и удовольствия?

Вопрос ваших критериев «реально ощутимых успехов».
Мне кажется это очевидным. Надёжные практические приложения для пользы людей, которые можно продавать и зарабатывать (в капитализме всё-таки живём). Пример: письменный перевод текстов с одного языка на другой. Результат работы человека-переводчика можно продать. Результат работы гугл-переводчика? Машина-автопилот может, перемещаясь по улицам любого реального города, доставить пассажиров и груз? А машина с человеком-водителем может. Вот и ответы. Элементарно, Ватсон. Как только люди получат безопасные, надежные, экономически-эффективные решения, удовлетворяющие их потребностям, я первым сниму шляпу. Я сам жду этого с нетерпением, и даже готов бы заниматься, но увиденные мною барьеры не позволяют мне потратить время на мой взгляд тупиковую деятельность. Вроде всё, что создаёт человек, направлено на удовлетворение этих критериев, нет? Но почему-то именно сфера ИИ окутана ореолом романтики, чаяний и т.п. моментов, так свойственных людям. Люди, особенно учёные, любят мечтать, фантазировать, искать жизнь на Марсе, ну Вы поняли :). Конкретные задачи неплохо бы решать: как выхлопные газы от автомобилей уменьшить. Может ИИ такую задачу решить?
Так Вы этим только подтверждаете тезисы статьи.

Не, не подтверждаю. Удовлетворение от решения задач — это обычное обратное подкрепление, котрое используется в машинном обучении.


Тогда тем более почему он до сих пор не создан, если ему не нужна всякая чепуха вроде эмоций и удовольствия?

А почему универсальная теория вселенной еще не создана? Ей тоже не нужна всякая чепуха вроде эмоций и удовольствия.


Надёжные практические приложения для пользы людей, которые можно продавать и зарабатывать

А, так этого добра навалом. Анализ аномалий, категоризация, кластеризация, распознавание образов, распознавание речи — уже здесь.


Результат работы человека-переводчика можно продать. Результат работы гугл-переводчика?

Ну да. В Евросоюзе давно используется для перевода законов. Да ладно, Евросоюз: я ежедневно вижу, как коллеги им пользуются для разных задач.

Удовлетворение от решения задач — это обычное обратное подкрепление
Я всегда хотел спросить у специалистов в области ML: вы правда в это верите? Вот прям искренне, в глубине души, верите в то, что «Удовлетворение от решения задач — это обычное обратное подкрепление»?

А почему универсальная теория вселенной еще не создана?
Так там никто хайпа в виде чемпионатов по го и не разводит. Тихо себе работают, что-то пытаются там на коллайдере воссоздать. Ну бывают журналистские сенсации, не более. Так где ж их нет. А тут ведь прям «впаривают». Разработали голосового помощника. Да этой программе до голосового помощника как мне до луны пешком.

А, так этого добра навалом. Анализ аномалий, категоризация, кластеризация, распознавание образов, распознавание речи — уже здесь.
Именно поэтому в Китае робот выставил штраф фотографии. Я тут ссылку приводил, Вы смотрели? Это, по-вашему, — хороший пример практического использования? Я тут на днях тестировал как раз распознавание образов от очень и очень известной компании. Ввожу фотку с людьми, пересекающими (!) улицу. Читаю описание распознанного: люди идут вдоль улицы. Это — катастрофическая ошибка. Вдоль и поперёк — такая ошибка может стоить жизни.

как коллеги им пользуются для разных задач
Я им тоже пользуюсь. Но когда мне понадобится перевод, я обращусь в бюро переводов.
Вы так и не привели ни одного примера, соответствующего критериям надёжности, безопасности и коммерческой пригодности.
Вот прям искренне, в глубине души, верите в то, что «Удовлетворение от решения задач — это обычное обратное подкрепление»?

Я верю в то, что это достаточная модель.


Это, по-вашему, — хороший пример практического использования?

Это хороший пример ошибки. Люди тоже ошибаются.


Вы так и не привели ни одного примера, соответствующего критериям надёжности, безопасности и коммерческой пригодности.

А, вот и аргумент истинного шотландца. Я не собираюсь подбирать примеры так, чтобы они соответствовали вашим (постоянно повышающимся) критериям.

Я верю в то, что это достаточная модель.
Ок, понятно.

Это хороший пример ошибки. Люди тоже ошибаются.
Люди несут ответственность за свои ошибки. ИИ или его разработчики несут ответственность за ошибки ИИ?

вашим
У Вас другие критерии надёжности, безопасности, экономической эффективности? Какие же они? И да, если не хотите приводить примеров, не приводите, но и не требуйте примеров на свои вопросы от меня, так будет хотя бы честно ;)
Люди несут ответственность за свои ошибки.

Или не несут, а несут совершенно другие люди. Или вовсе организации.


ИИ или его разработчики несут ответственность за ошибки ИИ?

Определите, что значит "нести ответственность".


У Вас другие критерии надёжности, безопасности, экономической эффективности? Какие же они?

Ну так я написал рядом: для конкретной задачи надежным считается такой алгоритм, который ошибается не более одного раза из двадцати (а экономически эффективным — такой, который делает не менее половины предсказаний). Ну а требования к безопасности такие же, как к обычному ПО.

Определите, что значит «нести ответственность».
Машина-автопилот сбила человека по вине водителя, кого привлекут к ответственности? В случае с водителем-человеком привлекут человека.

ошибается не более одного раза из двадцати (а экономически эффективным — такой, который делает не менее половины предсказаний
Неубедительно, откуда такие цифры? Т.е. если система ошибается макс в половине случаев, она уже эффективна? Я бы не купил такую систему :/. Я бы бесплатно монетку подбрасывал, чтобы получать хотя бы 50/50.
Машина-автопилот сбила человека по вине водителя, кого привлекут к ответственности?

Сейчас — компанию-производитель (насколько мне известно). У закона просто нет способов воздействия на автопилот.


Неубедительно, откуда такие цифры?

Из расчета потраченного времени.


Т.е. если система ошибается макс в половине случаев, она уже эффективна?

Нет, система эффективна, если для 100 проходящих объектов она делает суждение о 50 (об остальных она не делает суждения, оставляя их оператору-человеку), и из этих 50 — 48 правильные. В нашем, повторюсь, конкретном случае.

Вы так и не привели ни одного примера, соответствующего критериям надёжности, безопасности и коммерческой пригодности.

Мы вот тут для себя делали прототип системы классификации, так вот, там критерий успешности был очень простой: одна ошибка на двадцать предсказаний. Ну и что, вполне достижимое значение, даже на "традиционных" алгоритмах.


Stay tuned for GA announcement, что называется.

Stay tuned for GA announcement, что называется.
Дык в процессе. Всё пугаете :)
Вот простой пример: может ли ИИ отличить живого кота от изображения кота, в том смысле, чтобы сказать, что этот кот — настоящий, а этот — нарисованный?


Думается, у человека с этим тоже проблемы могут быть. Вы отличите, например, профессиональный 3d рендер интерьера комнаты от натурной съемки?
Можно пример, ссылку? Я не знаю, что такое
профессиональный 3d рендер интерьера комнаты
. И потом, пример искусственен. Я про обычные фото и изображение обычного кота.
UFO landed and left these words here
Без понятия. А в чём суть вопроса?
UFO landed and left these words here
Так соль в том, что мне это и не надо :) У человека нет кодировок. Будучи написанными на стене, для меня все эти буквы русский, а для француза — французские, а для китайца — китайские. Когда я говорил, что без понятия, я имел в виду, что не знаю, какая из них какому алфавиту принадлежит. Давайте я приму решение: здесь изображены несколько (лень считать) латинских букв «ка».
UFO landed and left these words here
От этого кто-то «умер»? В чём практическая польза распознавания букв «ка»?
UFO landed and left these words here
Перечитал ещё раз.
Пиксели в этих символах отличаются, а вы их не заметили.
Значит, эти пиксели несущественны, т.е. не мешают мне распознать эти символы как буквы «ка». Вот если бы среди них была буква «А», а я этого не заметил, вот это было бы странно.
UFO landed and left these words here
А как ИИ отличает живого человека от его фотографии? Надо или не надо отличать фото человека на баннере от живого человека на дороге? Любой человек делает это на раз.
image

это фотография реальных объектов, как вы считаете?

а насчет искусственности примера: я думаю, неплохой художник вполне может нарисовать муху на стене, которую кому-нибудь захочется прихлопнуть. Помню, аватарки такие были в моде, когда кажется что по экрану мошка ползает и рука тянется смахнуть, а это гифка нарисованная.

Разве человеку не присуще то, что мы обычно называем «обманом зрения»?
Подумал-подумал и принял решение: картинка нарисованная. А с мухой, да, было прикольно :)
Собственно, весь смысл ИИ состоит в том, что, не повторяя психическую деятельность людей, он порождает знаки, воспринимаемые людьми именно за счет того, что люди во многом одинаковы (за счет того, что физически похоже устроены и учатся друг у друга) и одинаково воспринимают определенные знаки.

Не уверен, что это возможно. Как может что-то, не способное на психическую деятельность, порождать знаки, как раз и существующие, чтобы указывать на результаты такой деятельности? Это похоже на неупорядоченную стрельбу с закрытыми глазами в лесу в надежде попасть хоть во что-то или в кого-то, вместо того, чтобы осмысленно выискивать добычу и целиться в неё.
Как раз сейчас в такой фазе развития ИИ мы и находимся: компьютерная программа по заложенному человеком-программистом алгоритму выдает знаки, не несущие для самой программы никакого смысла, в надежде, что для нас эти знаки обретут смысл. Результаты такого подхода мы наблюдаем каждый день: translate.google.com/?source=gtx_c#view=home&op=translate&sl=ru&tl=en&text=%D0%9A%D0%BE%D0%BB%D1%8F%20%D0%BF%D1%80%D0%B8%D0%B1%D1%83%D1%85%D0%BD%D1%83%D0%BB.
Как может что-то, не способное на психическую деятельность, порождать знаки, как раз и существующие, чтобы указывать на результаты такой деятельности?

Ну давайте разберемся. Математика и логические системы — это знаковые системы? Зачем существуют составляющие их знаки?

Несомненно. Как зачем? Фразу «я найду площадь пола этой комнаты, представив пол математической моделью прямоугольника и перемножив длину на ширину» я заменяю короткой и, что называется, crystal clear формулой S=ab. Четыре знака и работает для любого прямоугольника на плоскости, красота! Математика — это одна из самых крутых знаковых систем, которую мы только изобрели. Но т.к. математика — знаковая система, она позволяет работать только с моделями реального мира, но не с самими объектами. Выразить мысль (т.е. уже результат мышления) о наблюдении за реальными объектами с помощью математики можно, выразить сами объекты — нельзя. Запишите формулу мыслительного процесса. Пускай это будут сложнейшие системы дифференциальных уравнений или какие-то численные методы. Но их нет, во всяком случае, я о такой математике не слышал. Есть попытка — логика, но уже у Аристотеля видны противоречия. Проще говоря, не используем мы ту математическую логику, которую изобрели, в реальной жизни.
Фразу «я найду площадь пола этой комнаты, представив пол математической моделью прямоугольника и перемножив длину на ширину» я заменяю короткой и, что называется, crystal clear формулой S=ab.

Является ли это "результатом психической деятельности"?

Конечно :) Давайте разберёмся в терминологии. Постановка и решение задачи — это мышление. А мышление — это один из психических процессов.

При этом компьютеры — неспособные, по вашему утверждению, к психической деятельности — способны решать математические задачи. Порождать те самые "знаки" — в данном случае, цифры. Или вы хотите мне сказать, когда компьютер отвечает на вопрос "какова средняя сумма сделки за прошедший месяц" — это не решение математической задачи?

Здесь принципиальная разница, разве Вы не видите? Компьютер «решает» задачу согласно заложенной в него человеком (!) программе. Сам бы он до этого додумался? А мы сами изобрели математику, сами. Компьютер сам ничего не изобретает, не решает и не порождает по своему усмотрению какие-либо знаки, он действует строго по заложенному в него алгоритму. Сам он начнёт подавать какие-то знаки, когда у него появятся мысли, мотивация и т.п. вещи, как у человека, да хотя бы как у дождевого червя — ждём результатов эксперимента OpenWorm. Компьютер — это инструмент, а мыслит человек. Лучшее, что мы придумали для вычислителей, — алгоритмы. Но у меня нет уверенности, что наше мышление только алгоритмично. Точнее, может показаться, что какие-то действия мы выполняем по алгоритму, а какие-то описать трудно или даже невозможно. Простейший пример. Перечислите все слова, которые вы знаете. Каков алгоритм решения этой задачи? То-то. А компьютер изначально создавался для решения алгоритмических задач, и эту задачу он решит за секунды, показав на экране весь свой словарь из файлика или памяти. Между интеллектом человека и тем, что сейчас называется ИИ, не то, что пропасть, там сингулярность.
Здесь принципиальная разница, разве Вы не видите? Компьютер «решает» задачу согласно заложенной в него человеком (!) программе.

Школьник тоже решает задачу согласно заложенной в него учителем программе.


Сам бы он до этого додумался?

Додумался бы школьник (да и взрослый, чего уж) до метода решения квадратных уравнений?


Компьютер сам ничего не изобретает, не решает и не порождает по своему усмотрению какие-либо знаки, он действует строго по заложенному в него алгоритму.

Докажите, что это утверждение неверно для человека.


Простейший пример. Перечислите все слова, которые вы знаете. Каков алгоритм решения этой задачи? То-то. А компьютер изначально создавался для решения алгоритмических задач, и эту задачу он решит за секунды, показав на экране весь свой словарь из файлика или памяти.

Это, простите, пример чего? Пример того, что человек справляется с рядом задач хуже компьютера?


Но мы удалились от темы. Изначально вы утверждали, что "что-то, не способное на психическую деятельность, [неспособно] порождать знаки, как раз и существующие, чтобы указывать на результаты такой деятельности". На примере решения математических задач видно, что это утверждение неверно: компьютер получил знаки на входе, выдал другие знаки на выходе.


Ну либо у вас другое определение "порождения знаков", но вы им с нами пока не поделились.

Додумался бы школьник (да и взрослый, чего уж) до метода решения квадратных уравнений?
Интересный вопрос, кстати. Я думаю, что да, если есть соответствующая база (арифметика и методы решения уравнений первой степени), много времени и мотивация (например, перевезти школьника на необитаемый остров и заявить, что обратно он не вернётся, пока не найдёт решение).

А я думаю, что не каждый.

Но и нельзя сказать, что никто.
Тут вопрос в проценте. А именно, типично ли для человека решить такую задачу. Если больше половины испытуемых осилит, можно считать, что типично. (я ставлю на то, что больше половины осилит).
Думаю, нет, не додумался бы. Как говорится, хоть убей, но не полетит. Тут главное — не передёргивать во всех смыслах :) Путь развития науки — это долгий, сложный и тернистый путь. Квадратные уравнения пробовали решать ещё в Древнем Египте и Греции, формулу вывели в средние века. Может, помните такие фамилии как Виет, Кардано, Декарт и прочие средневековые зачинатели матанализа. Хотя матанализ зачинал ещё Евклид. Многие математики во всём мире решали эту задачу и в итоге решили. Аминь.
Думаю, нет, не додумался бы. Как говорится, хоть убей, но не полетит
Тогда в рассматриваемом смысле школьник не отличается от «тупого ИИ». Ведь
мы сами изобрели математику, сами. Компьютер сам ничего не изобретает, не решает и не порождает по своему усмотрению какие-либо знаки
до метода решения квадратных уравнений
Почитайте историю вопроса. Да, математики прошлого, гениальные люди нашли способ решать квадратные уравнения. Они именно что в ходе процесса мышления, мысля, делая умозаключения, смогли решить эту задачу.

Это, простите, пример чего? Пример того, что человек справляется с рядом задач хуже компьютера?
Нет, человек перестал считать в уме после изобретения абака, если не раньше, и тем самым превзошёл свои же невооружённые арифметические способности. Это пример того, что на существующих алгоритмических вычислительных системах невозможно решить все или даже часть задач, которые решает мышление, но при этом делаются попытки именно на таких системах воссоздать ИИ. Или переводчики и чат-боты работают на каких-то новых компьютерах? Расскажите, если знаете.
Почитайте историю вопроса. Да, математики прошлого, гениальные люди нашли способ решать квадратные уравнения.

Это не отвечает на вопрос про любого человека.


Это пример того, что на существующих алгоритмических вычислительных системах невозможно решить все или даже часть задач, которые решает мышление

Не вижу, каким образом ваш пример это показывает.

Напишите программу, которая, зная все слова, какие есть в словаре, не может их перечислить в цикле, также, как не можете Вы. При этом при предъявлении слова Вы однозначно можете дать ответ, знаете ли вы это слово или видите в первый раз. Вот пример работы человеческого мышления. Напишите программу, моделирующую такую работу.

Вашей задаче удовлетворяет любой лексический фильтр со стеммером. В частности, он узнает слово "окна", хотя в его словаре есть только слово "окно".


(Да зачем так усложнять, даже хэш-таблица удовлетворяет этому условию. И, кстати, человек тоже будет давать ложные срабатывания, как и хэш-таблица, поэтому в тестах на знание слов есть специальные проверки.)

Честно говоря, вообще Вас не понял. Хэш-таблица, ложные срабатывания у человека. О чём Вы? Вот пример такого сеанса.
— semipro, назови все слова, какие знаешь.
— Эм… чайник, лыжи, ноут. Больше нет мыслей. Могу назвать слов двадцать, все — не могу, потому что сам не знаю, что знаю.
— А почему именно эти слова?
— Понятия не имею, просто пришли в голову.
Вот пример такого сеанса.

Этот пример не соответствует задаче выше. Но не суть. Написать программу, которая имитирует ваш сеанс — еще легче.

Почему не соответствует? Задача: назвать все слова, которые Вы знаете. Я начал называть. Мог бы продолжить. Я не знаю, сколько мне нужно времени, чтобы назвать все слова, которые я знаю. И у меня нет алгоритма, который за конечное время извлечёт из моей памяти все эти слова.
Почему не соответствует? Задача: назвать все слова, которые Вы знаете.

Потому что задача была озвучена вот так:


"Напишите программу, которая, зная все слова, какие есть в словаре, не может их перечислить в цикле [...]
При этом при предъявлении слова Вы однозначно можете дать ответ, знаете ли вы это слово или видите в первый раз. [...] Напишите программу, моделирующую такую работу."


Ну то есть надо написать программу, которая может ответить, знает ли она конкретное слово, но при этом не может перечислить все слова, которые она знает. Тривиально.

def get_definition(word):
  return definitions.get(stemmer.stem(word))
Нет, не засчитывается. С чего Вы взяли, что я буду перечислять основы слов вместо самих слов? Более того мне нужно применять усилия, вспоминать грамматику русского языка, чтобы выделять основы. Не годится. Я ведь могу просто так и парадигмы (о наличии которых неподготовленный человек не подозревает) перечислять. Как в анекдоте, где человек не знал, что всю жизнь разговаривает прозой.
Кстати сюда же ещё одно не понятно на чём основанное наивное упрощение ИИ в отношении анализа естественных языков — почему-то считается, что слова, даже если у них одна основа/корень, несут одинаковый смысл. Это далеко не всегда так.
С чего Вы взяли, что я буду перечислять основы слов вместо самих слов

Ни с чего. Я, собственно, вообще не делал никаких допущений о том, что будете делать вы. В моем коде нет никакого перечисления.


почему-то считается, что слова, даже если у них одна основа/корень, несут одинаковый смысл

Я не знаю, кем так считается, лично я в своих разработках учитываю полисемию.

Ни с чего. Я, собственно, вообще не делал никаких допущений о том, что будете делать вы. В моем коде нет никакого перечисления.
Я попросил создать программу, которая бы эмулировала поведение человека (в данном случае — называние слов). Не думаю, что обычный человек знает/помнит из школы, что такое основа слова.

Я не знаю, кем так считается, лично я в своих разработках учитываю полисемию.
А лично я не использую, и не знаю, кому бы она помогла. Может, не везёт просто :) Как думаете? И опыт коллег из других отделов, стран и континентов почему-то тоже отрицательный. В частности, LSA не работает.
И что, Вы доказали, что методики, основанные на полисемии, это — пример интеллекта. Я дам Вам пример интеллекта: человек, в зависимости от задачи может либо учитывать, либо не учитывать полисемию и самое главное — решать поставленную задачу. Специалисты ИИ почему-то считают правильным подходом использовать полисемию. Откуда эти упрощения? Кто решил, что «is going» и «is gone» говорят об одном и том же. Это очень грубое упрощение. Если бы это было так, в английском языке не было бы активного и пассивного залогов.
Я попросил создать программу, которая бы эмулировала поведение человека (в данном случае — называние слов).

Подождите. Вы просили программу, которая может ответить на вопрос, знает она слово, или нет. Эта программа отвечает ровно на этот вопрос. При этом она не способна перечислить все слова, для которых она ответит на этот вопрос положительно — это было второе условие вашей задачи. Всё.


И что, Вы доказали, что методики, основанные на полисемии, это — пример интеллекта.

А, что? Расшифруйте ваше утверждение, пожалуйста, я его не понимаю.


Специалисты ИИ почему-то считают правильным подходом использовать полисемию.

Какие "специалисты ИИ считают правильным использовать полисемию", и что такое "использовать полисемию"?


Кто решил, что «is going» и «is gone» говорят об одном и том же.

А кто-то решил? Для меня это новость.

Подождите. Вы просили программу
Стоп. Вот мой пост:
Напишите программу, которая, зная все слова, какие есть в словаре, не может их перечислить в цикле, также, как не можете Вы. При этом при предъявлении слова Вы однозначно можете дать ответ, знаете ли вы это слово или видите в первый раз.
Единственно, на счёт цикла я неправильно выразился — не в цикле, а за конечное время. На пальцах: у меня/Вас/нас в голове хранятся слова русского языка (словарь в голове человека), и я/Вы/мы несомненно их знаем, т.к. пользуемся ими либо когда говорим, либо когда читаем, назовите/перечислите все эти слова, время пошло. То, что сегодняшний компьютер может распечатать любой файл, — тривиально, это и так понятно, его для этого и создавали. Можно ли создать программу для компьютера, которая бы моделировала такое поведение, как описано выше?

Какие «специалисты ИИ считают правильным использовать полисемию», и что такое «использовать полисемию»?
Так Ваше же:
лично я в своих разработках учитываю полисемию

А кто-то решил? Для меня это новость.
Мне это тоже кажется странным, но вот в вики в статье про Lemmatisation чёрным по белому написано: «Lemmatisation (or lemmatization) in linguistics is the process of grouping together the inflected forms of a word so they can be analysed as a single item, identified by the word's lemma, or dictionary form… For example, in English, the verb 'to walk' may appear as 'walk', 'walked', 'walks', 'walking'… Lemmatisation is closely related to stemming… The word „walk“ is the base form for word „walking“, and hence this is matched in both stemming and lemmatisation.»
Я не против этих процессов, но почему они являются частью анализа в компьютерной лингвистике? Почему компьютерная лингвистика, тоже разрекламированная как ИИ, допускает отбрасывание морфем, допускает такую потерю информации?
Можно ли создать программу для компьютера, которая бы моделировала такое поведение, как описано выше?

Да, она выше. Могу вот, специально для вас, сделать маленькую доработку:


def get_definition(word):
  return definitions.get(word)
    or definitions.get(stemmer.stem(word))

Так Ваше же:

(а) я не называю себя "специалистом ИИ"
(б) я не говорю, что "использовать полисемию правильно"
(ц) я написал, что я учитываю полисемию


Я не против этих процессов, но почему они являются частью анализа в компьютерной лингвистике?

Я так понимаю, вас не смущает, что в статье, которую вы же упоминаете, написано, что лемматизация используется в лингвистике (без слова "компьютерная"), и указано, зачем? Ну так вот, в компьютерной для того же: чтобы сгруппировать слова вместе.


Почему компьютерная лингвистика, тоже разрекламированная как ИИ, допускает отбрасывание морфем, допускает такую потерю информации?

Эмм. А кто вам сказал, что информация теряется? Никто же не мешает использовать результат лемматизации как дополнительный признак, а не замещающий.


Более того, в NLP есть и более смешные решения, навроде того, когда результатом разбора предложения является функциональная структура (которая как раз частично и содержится в флексиях во флективных языках), нормализованные слова и то, как получить конкретную форму из нормальной. Иными словами, "went" из "I went" превращается в "V: go (active, past simple)".

stemmer.stem(word)
Почему опять основы слов вместо самих слов?

я написал, что я учитываю полисемию
Вы опять цепляетесь за слова. Давайте по делу.

используется в лингвистике (без слова «компьютерная»)
А пример Вашего кода со стеммером — это лингвистика или компьютерная лингвистика? ;)

Иными словами, «went» из «I went» превращается в «V: go (active, past simple)».
Я ж не против, думаю, никто не против того, что это здорово, что мы а) развиваем лингвистику, б) выделили части речи и в) что-то там пытаемся на этот счёт придумать. Но это — изучение знаковой системы английского языка и возвращает нас к тезису статьи о том, что (цитирую):
Знаковые системы – это средство кодирования и передачи наших мыслей, поэтому нам фактически ничего не остается, как изучать первые. Других способов в гуманитарных науках – лингвистике, психологии, социологии и смежных с ними – попросту нет.

Временам глагола Perfect английского языка не соответствует ни одно время глагола в русском языке. Чтобы научиться правильно переводить Perfect, требуется основательная теоретическая подготовка, опыт переводов, понимание контекста, жизненный опыт в конце концов, и только после этого возможен хороший качественный перевод с одного языка на другой. Но при этом NLP, называя себя технологией ИИ, считает, что достаточно сопоставить корпусы, посчитать какие-то вероятности, векторы, и, вуаля, перевод готов. Это слишком наивный подход. И результаты такого подхода мы наблюдаем. Технологии традиционного машинного перевода также не справились с задачей пока.
Почему опять основы слов вместо самих слов?

Патамучта. Это решение не нарушает ни одного условия вашей задачи.


Вы опять цепляетесь за слова. Давайте по делу.

А это как раз по делу. Одно дело учитывать наличие явление, другое — всегда его (явление) использовать.


А пример Вашего кода со стеммером — это лингвистика или компьютерная лингвистика?

Ни то, ни другое. Просто весьма наивная программа.


Чтобы научиться правильно переводить Perfect, требуется основательная теоретическая подготовка, опыт переводов, понимание контекста, жизненный опыт в конце концов, и только после этого возможен хороший качественный перевод с одного языка на другой.

А откуда внезапно взялся перевод?.. Я каким-то образом говорил, что эта разметка используется для перевода?


Но при этом NLP, называя себя технологией ИИ, считает, что достаточно сопоставить корпусы, посчитать какие-то вероятности, векторы, и, вуаля, перевод готов.

Опять-таки: кто именно это утверждает, и почему его мнение меня должно как-то волновать? NLP — это вообще технология, она не может ничего считать.

Это решение не нарушает ни одного условия вашей задачи.
Нарушает. Моя тёща не знает, что такое основа слов, но начать перечислять слова она может хоть сейчас.

Ну и прекрасно. Моя программа никак не требует, чтобы ваша теща знала что-то про основы слов.


Покажите мне, какой пункт из изначального условия эта программа нарушает. Причем сразу, чтобы было понятно, с конкретным входом и выходом программы.

Я просил слова, например, русского языка. Основа слова — это не слово.

Вы просили "дать ответ, знаете ли вы это слово или видите в первый раз". Я слегка это модифицировал, чтобы возвращалось определение слова (потому что так обычно делают в тестах на словарный запас), но сделать из этого ответ "да/нет", понятное дело, тривиально.

UFO landed and left these words here
Нет, перечитайте постановку задачи ещё раз. Не прочитать словарь, а назвать все слова «из головы». Напишите программу, которая бы это делала.
UFO landed and left these words here
Так и для машины невозможно составить такую программу.
Так об этом и толкуем, что алгоритмические системы вроде компьютера не способны решать такие задачи.

человек… спокойно могут прочитать сам словарь.
какой именно словарь человек может прочитать: бумажный или который у него в голове хранится?

сразу видно вы и строчки кода не написали.
Да что там кода, я и латинский алфавит-то не знаю, ага. Спасибо за переход на личности.
UFO landed and left these words here
Вижу свои слова. В чём противоречие? Давайте задачу попроще. Сколько слов русского языка Вы знаете?

Я не вижу ни одного отличия человека от сложной машины
Это очень сильное и смелое утверждение. Главный вопрос: когда (если вообще) будет создана такая сложная машина?
UFO landed and left these words here
Хорошо. Но давайте оставаться в рамках статьи. Статья о барьерах знаковых систем, с помощью которых сейчас пытаются создать ИИ, в частности с помощью такой знаковой системы как математика.
А вот Вам кстати и пример различия между человеком и машиной. Компьютер может вести такую многочасовую дискуссию с человеком? Мне интересно, и не хочется останавливаться. Я благодарен всем оппонентам. С ботами я больше минуты не выдерживаю. Один раз общался минут 15 и то по концовке выявил паттерн в ответах: как только с моей стороны было вопросительное местоимение, сразу шла заглушка-огрызание в стиле «какая разница кто/какой/сколько...?» Ну типа бе-бе-бе сам дурак :)
UFO landed and left these words here
Моё мнение такое. Сегодня ИИ — это набор технологий, алгоритмов, методов и т.п. по обработке информации, имеющий ряд достоинств и недостатков, как и любая технология. Изобретателем и конечным пользователем этих технологий является человек. Это мнение я озвучил в статье.
Повторю тезисы ещё раз. Несмотря на все достижения ИИ, существуют, на мной взгляд, объективные барьеры, два из которых я привёл в статье, не позволяющие эти технологии назвать интеллектом. Калькулятор — это устройство по обработке информации, но это устройство не пример интеллекта. Человек, знающий что он делает, и нажимающий кнопки на калькуляторе, — пример интеллекта. Обезьяна, хаотично нажимающая на кнопки, — не пример интеллекта. Все помнят «мартышку и очки»? Так это когда ещё классик уловил суть разумной деятельности.
У устройств, на которых эти технологии применяются, нет психических процессов, схожих с человеческими. По этой причине результат работы таких систем весьма далёк от ожидаемых человеком результатов.
Мне тут пишут, что ИИ возможен на чистом формализме и изучать физиологию человека нет нужды. При этом сам этот товарищ используется свой живой биологический головной мозг, а приложения, которые он создаёт, предназначены для опять же живых людей. Но почему-то эти факты во внимание не берутся. Если бы Вы разрабатывали системы взаимодействия между камнями, я бы не ставил таких требований на наличие психики, потому что камень — это неживая природа, и насколько нам известно, у него нет психики как у человека и животных. Я здесь хочу подчеркнуть, что не вся живая природа обладает психикой. У амёбы тоже нет психики. Психика — это процессы и продукты так называемой высшей нервной деятельности, присущей человеку и высшим животным вроде собаки или слона.
Коль скоро мы разрабатываем технологию для взаимодействия с человеком, а именно его сознанием, его разумом, нам это нужно брать во внимание. Возможно, протокол взаимодействия между амёбами или камнями и можно описать с помощью логистической регрессии. Для моделирования интеллекта людей нужна, мягко говоря, не табличка синусов, а что-то гораздо более сложное. Как моделировать интеллект человека — вопрос открытый. Но уверен, что текущие технологии под собирательным названием ИИ — не есть модель интеллекта человека. Иначе они бы работали, как работает интеллект человека. Были бы правы и ошибались там, где прав и ошибается человек. Психический здоровый человек не может увидеть в небе слона, а ИИ может. Это не просто ошибка, это — концептуальная ошибка. Человек-пользователь, взаимодействующий с такой системой, делает вывод что система «не в уме», что она не понимает, не работает, в итоге разочаровывается в такой системе: товарищи, расходимся, ИИ нет, нас обманули.
Поэтому либо признайте, что это — ещё не интеллект, либо уберите слово «интеллект» из названия этих технологий, и всё встанет на свои места. Скажите просто: мы разработали алгоритм предсказания выхода Y от входа X, плюсы такие, минусы такие, тут работает, а тут не работает. Синоптики всю жизнь предсказывают погоду, но они не называют это интеллектом. К чему этот хайп, что теперь ИИ готов заменить бухгалтера?
UFO landed and left these words here
Калькулятор это низкий уровень
А с какого устройства начинается интеллект? Мне тут человек писал, что
Компьютер вот прям своей материнской платой чувствует, что питание кончается?
Ну да. Там есть датчик, датчик шлет сигнал.
Т.е. если есть датчик, то этого уже достаточно, чтобы чувствовать? А мне кажется, тут интеллектом и не пахнет, а есть простой алгоритм, запрограммированный человеком: если уровень питания меньше n %, то показать надпись на экране. Это — порядок действий, заложенный инженером, направленный на то, чтобы — внимание (!) — человек, работающий с этим компьютер, увидев такую надпись, понял, о чём она, и предпринял соответствующие действия. Здесь — интеллект автора алгоритма и интеллект пользователя. Об интеллекте машины тут говорить не приходится.
Теперь о чувствах. Мне показалось, что специалисты ИИ очень упрощённо и механистически понимают жизнедеятельность человека. Датчик принял сигнал, значит это — уже чувство? Да, нет. Чувство — это продукт осмысления информации, полученной от датчиков. Вашу кожу ежесекундно ударяют миллиарды молекул воздуха, но Вы этого не чувствуете. Датчики вроде на месте, а чувства осязания нет. Почему? А потому что мозг эту информацию отфильтровывает и не пропускает в кору — туда, где происходит осмысление взаимодействия со средой.

А что с того, что систему собрали люди?
Никто и не против. Но люди создают далёкие от совершенства вещи. Объясните, почему неустойчиво работающие вещи претензионно называют интеллектом?
UFO landed and left these words here
А Вы владеете какой-то методологией? Поделитесь, пожалуйста.
Не прочитать словарь, а назвать все слова «из головы». Напишите программу, которая бы это делала.
Несложно сделать имитацию, если заранее задаться такой целью. Мы снова приходим к вопросу, а ваш сосед, если его попросить назвать «слова из головы», действительно назовёт их из головы, или сымитирует это, воспользовавшись неизвестным вам алгоритмом? На основании чего вы дадите ответ на предыдущий вопрос?
Мы играем без подсказок, заглянуть ему некуда. Всё, что он скажет, будет результатом именно его мыслительных процессов. Даже если он будет хитрить, это будет результат его «хитрения». Ну если конечно, он не обладает телепатией, и кто-то не надиктовывает ему слова. Давайте без паранормальных явлений. Просто обычный диалог двух людей. Какое, например, у Вас слово будет первым? Я, например, пытаюсь играть по словарю. Пускай будет «абажур».
То есть, можно бота натаскать на эту игру, бот будет отвечать невпопад разными словами, и вас это устроит?
Думаю, да. Но есть момент. Бота будет программировать человек, а он не знает, каким образом человек извлекает слова из памяти, поэтому смею предположить, решение будет основано на генераторе случайных чисел. А мы точно слова случайно из памяти извлекаем, когда играем в эту игру?
Можно проанализировать 100.000 партий живых людей, играющих в эту игру, и составить статистические закономерности, какой следующее слово обычно идёт за предыдущим, какие слова чаще используют те или иные социальные группы, и генератор случайных чисел запрограммировать не на равномерное распределение, а ровно на такое, которое показывали люди в исследованных играх.
Давайте. А потом придёт 100.001-й человек и сломает систему, назвав слово не по статистике.
Но вы не сможете определить, что новый игрок играет по другой модели, не построив у себя в голове модель на 100.000 сеансов. Такого расколоть может только машина с большей памятью, чем машина, против которой она играет.
UFO landed and left these words here
Давайте сделаем, я не против. Сделаете? Пришлёте работающую программу? Позволите ещё раз поменять правила игры? Теперь после каждого слова я хочу, чтобы участник придумывал объяснение, почему было названо то или иное слово. Пускай это даже будет враньём. Например: я сказал слово «абажур», потому что так зовут моего кота (хотя кота у меня на самом деле нет, или так зовут не моего кота).
Чтобы сделать, нет никаких принципиальных сложностей. Это просто дорого. Месяцы работы команды специалистов. Если бы гугл заинтересовался, и это по каким-то причинам дало ему сильный пиар, он бы без проблем потратил на это ресурсы.
сильный пиар
Похоже, это ключевые слова в отрасли ИИ, спасибо, что Вы их сами озвучили.
UFO landed and left these words here
Они не пиарщики, к ним вопросов нет. Ограничения и ошибки признают. А судя по комментариям здесь, ИИшники не признают ни ограничений, ни ошибок.
UFO landed and left these words here
Есть. Какое это имеет отношение к озвученным мною барьерам?
UFO landed and left these words here
Об этом и статья :). Знаковые системы не позволяют изучать мысли — только слова, которыми делается попытка их выразить. Я рад, что поднял вопрос на уровне Гёделя. Возьму с полки пирожок.
UFO landed and left these words here
Понятия не имею. На данном этапе человек != машина. Вы спросите, почему я так считаю. Исключительно из личного опыта. Ничего голословного, только факты моей работы с технологиями ИИ. У меня абсолютно нет никаких намерений в чём-то уличить или как-то опорочить ИИ, кто я такой для этого? У меня просто свой опыт на этот счёт, не более.
Пускай это прозвучит наивно, но человек мне представляется настолько сложной системой, что о доскональном его изучении даже говорить не приходится. Я немного знаком с работой нейробиолога, д.м.н К.Анохина. Он как раз пытается понять процессы в мозгу, изучая непосредственно мозг. Но те задачи, какие он ставит, кажутся фантастически-амбициозными. Всё впереди и очень нескоро. Впрочем, прогнозы — вещь неблагодарная.
UFO landed and left these words here
Никакие. Невозможно нарушить законы физики. Единственным условно известным случаем нарушения законов физики является Большой взрыв, когда не выполнялись такие законы физики как закон сохранения энергии. После «переходных процессов» законы не нарушались, всё более-менее стабильно. Ну там частицы всё время превращаются в друг друга, но речь же не об этом?
UFO landed and left these words here
Невозможно нарушить законы физики
Следовательно человек есть сложная машина
Я не берусь комментировать эту логическую цепочку, это к Аристотелю :).
UFO landed and left these words here
Ок, и коньяку захватим ;)
ИИ не знает, что такое страх

не способное на психическую деятельность

Условности без ясных определений. Вам кажется, что ИИ не способен, а ваш сосед — способен. Но посмотрите на него внимательно — вы уверены? Все его действия и слова — это результат мистической "психической деятельности" или конкретные "распознавание образов", "сопоставление с образцом", "подбор по контексту", "категоризация" и прочие, вполне объяснимые вещи?


С одной стороны конечно интересен ещё один разговор о квалиа, но не с нуля же. Вы в статье не обозначили (или я пропустил), материально ли сознание на ваш взгляд. Если да, то утверждение "не способно на психическую деятельность" становится крайне шатким.

Где я писал, что мне кажется, что мой сосед способен? Я не уверен конечно. Я могу попробовать понять, о чём думает человек, что чувствует, если 1) он с помощью знаков передаст мне информацию об этом, и 2) мой декодер сможет эти знаки перевести в какой-то схожий мой опыт. Человек может меня обмануть, подав ложный знак, или я сам могу сплоховать и неверно его интерпретировать. А о каком собственном опыте мне сможет сообщить программа?

результат мистической «психической деятельности»
Это не мистика, это — то, что происходит у нас в голове, это — суть нашего существования, а у вычислительной системы пока даже близко ничего похоже нет, чтобы позволяло действовать, как мы.

материально ли сознание на ваш взгляд. Если да, то утверждение «не способно на психическую деятельность» становится крайне шатким.
Материально конечно. Сложные реакции, сложные физические процессы, которые нам только предстоит изучить и понять. Почему шатким? От того, что я не знаю, как устроено моё мышление, не означает, что моделирование его не требуется для создания сильного ИИ.
Где я писал, что мне кажется, что мой сосед способен?

Хм. То есть вы сомневаетесь? Тогда что вы вообще имеете ввиду под "психической деятельностью"?


это — суть нашего существования

Это — суть, но при этом вы не уверены, есть ли эта суть у вашего соседа?


Если вы не понимаете тезис, попробую более четко.


Утверждение "неспособен на психическую деятельность" ничем не обосновано, потому что сам термин не конкретный.


Проверяется это, например, простым вопросом.
У вашего соседа есть психическая деятельность?


Если да, то почему вы уверены? Если нет, то почему? Если не знаете — скажите.

То есть вы сомневаетесь? Тогда что вы вообще имеете ввиду под «психической деятельностью»?
Конечно. Это недоказуемо однозначно. Теорему Пифагора я могу доказать, но (не предположить), а именно доказать, что мой сосед думает именно о чём-то конкретном, я не могу. Во всяком случае на данном этапе развития науки. Человек может подать истинный или ложный знак — сказать слово, принять позу («невербалка»), который я попробую интерпретировать. Не более того. Телепатией я не обладаю. Кто-то может доказать, что другой человек видит тот же самый красный цвет? Мы считаем, что воспринимаем среду примерно одинаково. Можно измерить кол-во там всяких палочек-колбочек и сделать вывод о том, что у кого их больше, тот и более насыщенный цвет видит. Но это — скользкая дорожка. Зрение — сложный когнитивный процесс, не ограничивающийся только сигналом на сетчатке. Может, мозг человека, у которого палочек-колбочек меньше, «домысливает» и получает картинку не хуже, чем у того, у кого их больше. И оба, если начнут друг другу объяснять, поймут, что видят одинаковый красный. Серьёзных работ по измерению параметров мышления или чувственного опыта я не видел. Тут просто люди в комментариях мне говорят, что раз наука не знает, что такое мышление и как его моделировать, то оно нам и не нужно для создания ИИ. Я с этим тезисом не согласен.
Ошибаемся в анализе знаков конечно. Кто-то неверно истолковал намёк начальника, не получил повышение — его проблемы, естественный отбор. А другой правильно, и ему повысили зарплату. Т.е. знак от начальника был один, а интерпретация разная. Нормальная ситуация. Я говорю о том, что у компьютера вообще нет никакой интерпретации. Мы ошибку пытаемся исправить, чтобы не снижать степень адаптации к среде. А у ИИ какая мотивация по адаптации к среде. Кто-нибудь среду «жизни» ИИ анализировал? Всё, что я вижу, — это технологии обработки информации, которые стараются разрекламировать и продать под соусом «интеллекта». Компьютер научился понимать смысл текста! Компьютер скоро заменит всех переводчиков! Really? Зато особо не вижу деятельности по глубокому и предметному изучению сути вопроса. Видимо, потому что это не приносит быстрого возврата инвестиций. Встретил статью, от которой веет скепсисом в отношении текущих, уже ставших традиционными, подходов к ML. Ну правдой веет на самом деле.
Термин «психическая деятельность», а точнее "психический процесс" — очень даже конкретен.
Термин «психическая деятельность», а точнее "психический процесс" — очень даже конкретен.

Да? Я вот пошел по вашей ссылке, а там никакой конкретики нет. Во-первых, само определение завязано на определение психики, а там написано "сложное явление", и большая часть определений вообще не допускает возможности небиологической психики. А во-вторых, "деление сознания на психические процессы условно, оно не имеет теоретического обоснования".

Да, это — сложное явление. Нам ещё изучать и изучать. Даже не брезжит.
не допускает возможности небиологической психики
Разработайте гипотезу небиологической психики, подискутируем.
деление сознания на психические процессы условно, оно не имеет теоретического обоснования
Если бы была теория, платы бы уже были спаяны, сигнал на осциллографах проверен, а этой статьи бы не было, т.к. был бы сильный ИИ у нас.
Разработайте гипотезу небиологической психики, подискутируем.

Без определения психики это невозможно.


Если бы была теория, платы бы уже были спаяны, сигнал на осциллографах проверен, а этой статьи бы не было, т.к. был бы сильный ИИ у нас.

Неа, не было бы. Потому что согласно вашей ссылки небиологической психики не существует, а согласно вам, ИИ без психики невозможен — следовательно, ИИ невозможен.

Вы серьёзно считаете, что у психики нет определения? Ну это как минимум антинаучно, не находите? :) А моя ссылка — это истина в последней инстанции? Разработайте теорию, создайте действующую небиологическую психику, в чём проблема-то? И Ваша теория затрёт строчку в моей ссылке.
Разработайте теорию, создайте действующую небиологическую психику, в чём проблема-то?
Проблема в том, чтобы проверить, подходит ли эта теория под ваше определение психики. Мысленный эксперимент: берём книгу по аналитической геометрии и приклеиваем к ней шильдик «теория небиологической психики». Как проверить, что это «психика» в том смысле, о которой вы говорите, если вы не даёте ваше определение психики.
Я стараюсь оперировать общедоступными, общепринятыми, широко известными понятиями. Повторюсь, мы тут не научную статью разбираем. Надеюсь, под психикой я и Вы понимаем примерно одно и то же, а именно: совокупность сложных, откровенно говоря, пока малоизученных процессов, протекающих в центральной нервной системе людей и высших животных. Какое отношение процессы в центральной нервной системе имеют к книге по аналитической геометрии? Только если опосредованно: используя когнитивные способности — память, мышление, речь — т.е. элементы психики, и знаковые системы как их переносчики, мы можем попытаться прочесть и понять, о чём хотел сказать автор этой книги.
Что с вас и вытягивал весь день ваш оппонент: совокупность сложных процессов, протекающих в центральной нервной системе людей и высших животных.

На этом можно заканчивать обсуждение, потому что согласно этому определению, не бывает никакой небиологической психики. И даже у пришельцев её нет, если они не животные.
Это определение как-то запрещает создание новой психики? Когда и этой психики не было, амёбы плавали и всё. Кто знает, какие варианты психик нас ждут впереди? Может, всё-таки создадут компьютер, обладающий психикой, схожей по свойствам с человеческой. Почему бы нет? Но сейчас такого компьютера нет, ну я не слышал про такие машины.
Это определение как-то запрещает создание новой психики?

Конечно. Они не будут психиками, потому что не будут попадать под определение.

Это определение как-то запрещает создание новой психики?
Ну вот мы создали новую психику, наклеив шильдик на книгу по аналитической геометрии. Так эта психика вам не подошла )))
Не вопрос, у этой новой психики есть мышление, память, эмоции?
Определение этих терминов дадите? Поищем.
Гугл в помощь. Ну и научные труды можно почитать. Если по-быстрому — вики.
Вы серьёзно считаете, что у психики нет определения

Я считаю, что вы не можете дать определения, которое могло бы позволить отличить проявления психики от проявлений не-психики. Иными словами, невозможно сделать формальный тест, который говорил бы, есть ли у агента психика.


Разработайте теорию, создайте действующую небиологическую психику, в чём проблема-то?

Проблема в том, что определение не сойдется.

доказать, что мой сосед думает именно о чём-то конкретном, я не могу.

Вы подменяете мой вопрос (способен ли ваш сосед на психическую деятельность) каким-то своим (можно ли узнать, о чем конкретно думает ваш сосед) и отвечаете на ваш собственный вопрос. Вы так сделали уже дважды. Это нехорошо. Вы не видите разницы?


Я повторю вопрос. Способен ли ваш сосед на психическую деятельность? Просьба ответить именно на этот вопрос, а не на какой-то свой.

Отвечу коротко и ясно: да, способен.

Хорошо. Почему вы в этом уверены? Как вы отличили, что он способен, а нейросеть, играющая в доту — не способна?


Это важный вопрос. Нельзя просто сказать "я не наблюдаю мыслей в нейросети". У соседа вы мыслей тоже не наблюдаете, но уверены, что они есть. А у нейросети — нет. И более того, она к психической деятельности не способна. Если это ваше мнение — ваше право. Если больше чем мнение, то как вы определяете?

а нейросеть, играющая в доту — не способна?
Она не способна, потому что у неё нет мышления, эмоций, речи и т.п. Это — алгоритм, играющий в доту и больше ничего. Я повторю: я сильно не уверен, что процессы, отвечающие за наш интеллект, алгоритмичны.

Нельзя просто сказать «я не наблюдаю мыслей в нейросети»
Напрямую мы мысли не наблюдаем — только через проявления-знаки. И судя по этим знакам от ИИ, мысли там неадекватные. Может быть, дело во мне и я неправильно интерпретирую ответы ИИ. Может, я не прав и «Коля бухнул» действительно равно «Nick arrived»?
Знаковые системы несовершенны, но они – единственное, что дала нам эволюция для обмена продуктами психических процессов.
ИМХО как-то очень неоднозначно определено. Нпр., прохожий на улице спросит: который час? Я взгляну на часы и отвечу: два. Кто породил знак «2» и знак (знаки?) «два»? А если ОС спросит: который час? И я введу с «клавы» 2?
Что имеется в виду под словом «породил»? Произнёс слова вслух? Человек. Придумал эти слова? Тоже человек. Поясняю свою мысль. Природа наделила нас возможностью изобретать знаковые системы и использовать их для целей взаимодействия со средой. Все цели нам неизвестны. Одна из очевидных — обмен информацией. Представим, Вы знаете, что сейчас время «два часа». Как рассказать об этом прохожему? Используя знаковую систему под названием «русский язык», в которой есть слова «два» и «часа». Мы не можем мысленного передать ему эту информацию без использования вполне конкретных слов. Сами слова неважны, поэтому так много языков на Земле. Можно использовать знаковую систему английского языка: «it's two p.m.» — смысл тот же. Я кстати часто вообще молча показываю свои часы :) Человек кивает головой, говорит спасибо и идёт дальше. Мне даже язык не приходится использовать.
Я посмотрел на часы, часы показали 2. Источник знака часы?
Да, конечно. Красный свет на светофоре — знак. Источник — светофор, устройство изобретённое человеком.
Первая фраза Вашей статьи:
Знаковая система выступает в роли переносчика мыслей, идей, эмоций, переживаний, ощущений, организации памяти – продуктов психических процессов, протекающий, по представлениям современной науки, в головном мозге человека и высших животных.

Часы мыслят? Светофор переживает?
устройство изобретённое человеком.
Посмотрел на небо: солнце еще не встало, значит было раннее утро.
PS BTW с символом и знаком в философских и псих. науках большая и перманентная путаница — см., нпр., Лосев А. Ф., Проблема символа и реалистическое искусство: М.: Искусство, 1976, и еще, нпр., врач Гельмгольц придумал теорию иероглифов.
Часы мыслят? Светофор переживает?
Нет конечно, не мыслят. Об этом и статья.

Посмотрел на небо: солнце еще не встало, значит было раннее утро.
Отличный пример протокола. Реакция на свет — процесс поглощения фотонов видимого диапазона электромагнитных колебаний в сетчатке, — которая со временем осмыслилась, до мысли «солнце встало — раннее утро — пора идти в поле на работу». У растений так и осталась реакцией, т.к. у них нет психики, т.к. у них нет центральной нервной системы.
Получается что знаки не только «перенносят мысли», но и просто информацию, источником которой могут быть устройства (без ИИ) или явления природы. М.б. проще сказать, что знаки содержат разную инфу (в том числе и о мыслях)?
Нет конечно. Знаки — это продукт нашей разума. Они нам нужны для кодирования наших же внутренних процессов. У природы нет никаких знаков, они ей не нужны. Солнце не знает, что оно «встаёт», это человек сказал, потому что для него это важно. Нет «просто информации», поймите. Любые знаки, знакомые, незнакомые, мы интерпретируем. ИИ может быть источником каких-либо знаков, но они станут информацией, когда я на них посмотрю и осмыслю, т.е. переведу знаки в мысли, эмоции и т.п. вещи.
На часах нет знаков, пока я на них не смотрю, и светофор не горит, пока его никто не видит? Может и часы и светофор, и солнце, и всё остальное есть только в моем воображении? В философии это называют солипсизмом.
Почему нет? Есть конечно, и солнце есть и светофор горит. В этот вопросе я материалист. Но смысл этим знакам придаём мы. Собака видит часы, но не понимает, что на них. На них знаки, не имеющие для неё значения. А вот взгляд вожака стаи ещё как имеет.
Наш разум абсолютно ни при чем. Разум вообще не обязателен для порождения знаков. Пчелы используют сложную знаковую систему для передачи весьма сложного объема информации — но мы не допускаем наличия у пчел разума.
Можем ли мы считать генетический код порождением разума? Мы его просто открыли, но изобрели его не мы. Знаковая ли это система? Вопрос риторический.
Разум способен создавать и использовать знаковые системы, но это не уникальная характеристика разума.
Разум вообще не обязателен для порождения знаков.
Разум обязателен для порождения знаков, понятных других агентам коммуникации. Вы ИИ разрабатываете для людей или как вещь в себе? Мы же не говорим о двух генераторах псевдослучайных чисел, которые порождают какие-то знаки, которые не способен интерпретировать ни первый, ни второй из генераторов. Ну все помнят новость, как у Фейсбука боты друг с другом «общались». Хотя мне кажется, это было запрограммировано, чтобы шумиху в прессе создать. Они порождали знаки. Этот был пример интеллектуальной деятельности?
мы не допускаем наличия у пчел разума
А нам это важно? Мы разрабатываем ИИ для пчёл? И потом, может, у них есть пчелиный разум, который по нашим представлениям и не разум, но для них хватает, что общаться и выживать в среде.
Разум обязателен для порождения знаков, понятных других агентам коммуникации

Люди поняли танец пчел. Разум при этом у кого, у пчел?
Люди поняли код ДНК. Это разум чей, ДНК?
Для создания знаков разум не обязателен.
Интересней вопрос, обязателен ли разум для интерпретации знаков.
Пчелы вот прекрасно и без разума справляются.
Я бы сформулировал разум, как способность к интерпретации любой произвольно взятой системы знаков.

Мы разрабатываем ИИ для пчёл?
И для них тоже. Вот только была статья про пчелиный стартап.
А для чего вы разрабатываете ИИ?

Люди поняли танец пчел.
Наверное, Вы хотели сказать, что люди попробовали изучать коммуникацию у пчёл и кажется, что теперь они понимают, о чём «говорят» пчёлы. Я не думаю, что люди поняли пчёл, люди друг друга-то часто не понимают.

Пчелы вот прекрасно и без разума справляются.
И снова. Откуда Вы знаете, что у пчёл нет пчелиного разума? А пчёлы думают, что у людей нет разума :)

Я бы сформулировал разум, как способность к интерпретации любой произвольно взятой системы знаков.
И люди, и пчёлы интерпретируют подаваемые между собой знаки, внутри вида естественно. Мне непонятны знаки пчелы, пчеле непонятны мои знаки.

А для чего вы разрабатываете ИИ?
Для людей. Например, стоит конкретная задача: даны 10 или 100 стр. текста, в нескольких предложениях объяснить, о чём этот текст, ну т.е. как школьники сочинение пишут, так и сделать, на «пятёрку», мне не нужно сочинение «троечника» или психически больного человека.
Мне плевать на пчёл, меня интересуют прикладные задачи. В контексте выше описанной задачи пчёлы меня могут заинтересовать только в случае, если вдруг выясниться, что они могут помочь написать сочинение. Пока же помогает мне готовить подобные рефераты только моё собственное мышление, других вариантов я не знаю.
А с чего вы взяли, что ИИ будет для вас заниматься этой ерундой? Зачем ему это, если он психически нормален? И чтоб два раза не ходить, это пример именно олигофренного ИИ, если предположить, что вам это удалось. Немного клинически нетипичный, конечно, ну так на он и искусственный :).
А если я его найму на работу и буду платить тем, что для него ценно?
Так об этом и речь. Вам сначала нужно разработать его мотивацию и способ ее поддержания, а прикладных задач можно накидать сколько угодно будет.
Я не знаю, но вдруг вы не читали Точку зрения

Кстати, в слове Мультивак последние ак — это аналоговый компьютер ;).
Вам сначала нужно разработать его мотивацию и способ ее поддержания, а прикладных задач можно накидать сколько угодно будет.
А вот здесь вопрос интересный. С одной стороны, как я предположил в статье, нам нужно промоделировать наши же особенности, чтобы научить компьютер решать задачи с понятным для нас результатом, а с другой, я не хочу, чтобы компьютер был умнее меня :) и что-то там соображал помимо поставленной ему задачи.
Умение решать задачи и иметь разум — это увязанные вещи. Непонятно, можно ли создать такой ИИ, чтобы он решал для нас задачи на уровне наших требований к результатам решения, но при этом не обладал разумом, позволяющим ему, осознав себя, перестать хотеть решать задачи. Но не будем здесь скатываться в фантастику.

вдруг вы не читали Точку зрения
Не читал, сейчас прочитал, понравилось, спасибо.
я не хочу, чтобы компьютер был умнее меня :)

А я вас понимаю. Просто мне кажется, это несколько разные устройства — решатель и ИИ.
ИИ потенциально может быть именно что умнее нас — скорость прохождения сигнала и количество связей будут решать (хотя большой мозг != умный субъект, но все же при прочих равных).
Если мы сами формализуем требования к результату — то сможем создать и решателя. Беда в том, что вы хотите получать результат, который превзойдет ваши ожидания, условно говоря. Такой, чтоб вы могли воскликнуть, «Но черт побери, как, Холмс?»
И кто тут окажется умнее, вопрос…
дала нам эволюция

Вы уверены, что числа дала нам именно эволюция?

Давайте так: варенье отдельно, мухи отдельно. Вы определите, что такое мышление, и что такое с смысл. И рамках этих определений будете утверждать: это возможно, а это нет. Если говорить о мышлении, как о корковых процессах, то рано или поздно их удастся симулировать. Если говорить о смысле, как о нечеткой категоризации, то это уже реализовано. А вот если мы подключаем эмоции — это уже другой разговор. Эмоции это основа смыслообразования, движок мышления. И чтобы их повторить, нужно что-то типа биоробота, а это уже совсем другая песня. Знаки- это вторичная система, и описывать ими первичную (я про эмоции) нелогично.

Вы определите, что такое мышление, и что такое с смысл
Мышление — психический процесс, в результате которого порождаются мысли, идеи, смыслы. Мысль — это продукт мышления. Если бы я знал, как устроено и как работает мышление, был бы миллиардером, изобретшим сильный ИИ :). Пока понятны только банальные вещи: психически здоровый человек порождает мысли, которые позволяют ему принимать более-менее успешные решения, направленные на улучшение его адаптации к среде. Каким образом это происходит, и как научить этому современные искусственные вычислительные системы, непонятно.

Если говорить о смысле, как о нечеткой категоризации, то это уже реализовано
можно примеры?

Эмоции это основа смыслообразования, движок мышления
думаю, что эмоции и мышление — это два психических процесса, протекающих совместно и несомненно оказывающих влияние друг на друга, но не не думаю, что эмоции — это движок мышления.
Мышление — психический процесс, в результате которого порождаются мысли, идеи, смыслы.

Here we go again. Что такое "психический процесс"? Что такое "мысли", "идеи" и "смыслы"?

Мы не знаем. Если бы знали, мир уже был бы другим. Мы могли бы их моделировать, создавать. Ну и СИИ бы уже был создан. Это тоже самое, что пока мы не узнали, что такое аэродинамическая сила, мы не смогли изобрести самолёт. И при этом считали бы, что самолёт может летать и без такой силы. Я искренне убеждён, что без наличия сэмулированных психических процессов и соответствующих им продуктов, СИИ невозможен. Я искренне не понимаю, как можно создать думающую машину, у которой нет мотивации, инстинктов и более сложных вещей. Психические процессы не обязательно должны быть точной копией человеческих, но они должны быть, хотя бы какие-то. Сейчас же никаких нет. Да много чего еще. Личность, характер, даже пол, без намёка на сексизм. Я как-то спросил у друзей: а ИИ, он мужик или баба? Ну посмеялись, чо :) Вот ИИ может посмеяться такой шутке?
Мы не знаем.

А раз "мы не знаем", значит и определения вы дать не можете. О чем, собственно, и речь.


Психические процессы не обязательно должны быть точной копией человеческих, но они должны быть, хотя бы какие-то. Сейчас же никаких нет.

Для того, чтобы утверждать, что "что-то должно быть, но его нет", надо определить это "что-то". А сейчас вы говорите "у ИИ нет чего-то, что я не могу определить, но убежден, что у ИИ этого нет".

Именно так, учёные пока не знают, как устроена наша высшая нервная деятельность. Если специалисты в области ИИ знают, что им не нужно моделировать высшую нервную деятельность человека, где же тогда ИИ? Впрочем я знаю их любимый аргумент: дети тоже плохо говорят и не умеют водить машины, поэтому и ИИ пока такой детский. Мне тут на Хабре попадалась статья человека, который, как мантру, повторял фразу о том, что ему удалось создать ИИ с интеллектом 7-летнего ребёнка. Я же осмелюсь утверждать, что без моделирования высшей нервной деятельности, на статистиках и прочих «логистических регрессиях» ИИ не создать. Экспертные системы, SHRDLU, Prolog, сейчас вот нейросети и прочие deep learning-и с внимание… барабанная дробь… чат-ботами, ведущими «диалог», после которого возникает стойкое желание нажать 0 (переключить на оператора) и поговорить с человеком. Что дальше? Хочется спросить: результат где, ребят?
Если специалисты в области ИИ знают, что им не нужно моделировать высшую нервную деятельность человека, где же тогда ИИ?

В разработке, очевидно же.

Отлично. Ждём-с. Без иронии. Но это не отменяет моих тезисов. Я Вам больше скажу. Если это произойдёт, у меня случится когнитивный диссонанс :) от того, что смогли создать ИИ, который не способен мыслить.

… а вы считаете, что мышление невозможно без моделирования высшей нервной деятельности человека?


Впрочем, это риторический вопрос: формального определения мышления тоже нет, поэтому и сказать, возможно оно или нет в заданных условиях, нельзя.

Да, верно понимаете меня. Если мы хотим построить интеллект, который будет жить и трудиться в нашей среде, он должен обладать свойствами, присущими нам, нашей жизни, нашему разуму. Мы от него ждём этого. Если чат-бот не умеет шутить и действительно помогать, он не нужен. Если решатель не может помочь второкласснику решать задачки из учебника, он не нужен. Если машина-лингвист не может объяснить мне в паре предложений, о чём этот многостраничный текст, он бесполезен. Если автопилот не сможет безопасно ездить, он бесполезен. Что остаётся? Игра в шахматы? Ну хорошо, давайте играть в шахматы.
Кстати почему авиакомпании до сих пор не внедрили автопилоты на взлёте-посадке? Там и светофоров нет, и другие участники дорожного движения не мешают. Вместо этого платят огромные зарплаты людям-пилотам.
Если мы хотим построить интеллект, который будет жить и трудиться в нашей среде, он должен обладать свойствами, присущими нам, нашей жизни, нашему разуму.

Китайская комната. В том смысле, что для обладания свойствами совершенно не обязательно быть точной моделью.


Если чат-бот не умеет шутить и действительно помогать, он не нужен. Если решатель не может помочь второкласснику решать задачки из учебника, он не нужен.

Вам не нужен, вы хотите сказать. Люди, знаете ли, ставят перед ИИ разные задачи.


Кстати почему авиакомпании до сих пор не внедрили автопилоты на взлёте-посадке?

Внедрили.

Китайская комната. В том смысле, что для обладания свойствами совершенно не обязательно быть точной моделью.
По кит комнате я уже у Вас спрашивал, где примеры реализации? Создали алгоритмы, имитирующие когнитивные способности человека без повторения анатомии и физиологии человеческого мозга. Ок. Я не доволен результатами работы такого ИИ. Что мне делать дальше? Т.е. умных книжек много, комнат там китайских, а дальше-то что?

Внедрили.
Не знал о таком, спасибо за информацию. Правильно ли я понимаю, что теперь люди-пилоты не нужны?
По кит комнате я уже у Вас спрашивал, где примеры реализации?

Китайская комната, если что — мыслительный эксперимент.


Я не доволен результатами работы такого ИИ. Что мне делать дальше?

Не пользоваться. Не покупать. Разрабатывать свой.


Правильно ли я понимаю, что теперь люди-пилоты не нужны?

Нет, не правильно.

Не пользоваться. Не покупать. Разрабатывать свой.
Да, именно так и приходится решать прикладные задачи, с которыми существующие технологии ИИ не справились.

Не пользоваться. Не покупать. Разрабатывать свой.
В чём тогда смысл Вашей ссылки про автопилот на взлёте-посадке?
В чём тогда смысл Вашей ссылки про автопилот на взлёте-посадке?

В том, что ваш вопрос "почему авиакомпании до сих пор не внедрили автопилоты на взлёте-посадке?" основан на неверной посылке.

Смысл Вашей ссылки в том, что Ваш вопрос… Эм… как бы разговор перестаёт быть конструктивным.

Проще говоря, вы спросили, почему А и Б. Я привел ссылку, которая показывает, что (уже давно) не А.

Если формального определения мышления нет, что же Вы тогда разрабатываете? Что именно делает ИИ?
Если формального определения мышления нет, что же Вы тогда разрабатываете?

Решения для конкретных задач. Если мне надо научиться категоризовать чеки, мне не надо разбираться в теории человеческого мышления, мне надо категоризовать чеки.

1) как можно научиться категоризировать чеки на категории, нужные и понятные людям, если не знать, как это делает человек?
2) почему задача категоризации относится к ИИ? Решение уравнений методом Ньютона — это тоже интеллект?
как можно научиться категоризировать чеки на категории, нужные и понятные людям, если не знать, как это делает человек?

Наблюдая за человеком и выявляя зависимости. Задавая вопросы.


почему задача категоризации относится к ИИ?

Вот поэтому: "Colloquially, the term "artificial intelligence" is applied when a machine mimics "cognitive" functions that humans associate with other human minds, such as "learning" and "problem solving"".


Я, впрочем, предпочитаю говорить, что я разрабатываю системы машинного обучения, а не ИИ, это немного менее спорное определение. Из той же статьи:


"The scope of AI is disputed: as machines become increasingly capable, tasks considered as requiring "intelligence" are often removed from the definition, a phenomenon known as the AI effect, leading to the quip in Tesler's Theorem, "AI is whatever hasn't been done yet.""

AI is whatever hasn't been done yet
Пожалуй, это — лучшая мысль в этой дискуссии, характеризующая, что такое ИИ на сегодня. Адекватность результата такой деятельности, которая «hasn't been done yet», я так понимаю, и не гарантируется. Мы делаем что-то новое. Что получится на выходе, неизвестно. Возможно, человек сможет использовать это с пользой, а возможно, и нет.

Мне кажется, вы не прочитали абзац целиком. Но не суть.

Мне на этом месте, конечно, становится очень интересно, а что же за "ИИ" вы рассматриваете в своей статье, если он все еще не сделан. Говорите о каких-то "современных технологиях", показываете на какие-то ошибки… в чем? Почему именно эти примеры — ИИ, а не (любое другое слово)?

> Я как-то спросил у друзей: а ИИ, он мужик или баба? Ну посмеялись, чо :) Вот ИИ может посмеяться такой шутке?

А это что, была шутка?
Сочувствую :) У людей разное чувство юмора, бывает. Мы посмеялись.
То есть, хм, в качестве критерия соответствия ИИ человеку вы берете некое качество, которое и самим людям свойственно далеко не всем? При этом и вы сами отлично знаете что оно свойственно не всем людям?

Ну что можно сказать: «Л — Логика», да…
Я надеюсь, Вы не обиделись на счёт шутки с полом ИИ? Нет, не так. Я говорю о том, что для того чтобы создать ИИ, нужно (ну ок, было бы неплохо) понять, как устроен наш собственный интеллект, наши психические процессы, и потом попробовать их воссоздать. Пускай воссозданный ИИ будем иметь плохое чувство юмора. Я не вижу в этом проблемы. У людей ведь тоже разный IQ, EQ, чувство юмора и т.п. вещи, «задающие» его интеллект. Но человек, не понявший шутку != современному компьютеру, который в принципе не имеет никакого чувства юмора. Понимаете мысль? Попытки наделить чат-боты чувством юмора вызывают жалость и разочарование в силах человеческого ума, который пытается их создать. Не можем пока повторить творение матери-природы — наш собственный разум. Ключ — в преодолении барьеров, описанных в статье. При чем это не единственные сдерживающие нас барьеры. Шаблонные фразы, заложенные в них программистами, особого интереса не вызывают. Неинтересно с ними, интеллекта у них нет, и это чувствуется, всё это пока игрушки.
Кстати, а какой IQ будет у ИИ? Кто-нибудь будет это закладывать? Или у всех ИИ будет IQ 200 по умолчанию.
>У человека (животных?) знак автоматически увязывается с продуктом мышления, эмоцией и т.п., т.к. он эволюционно и предназначен для кодирования последних.

/флегматично/
Глядя на все эти околоИИшные дискуссии понимаешь что главная проблема всей этой околоИИшной философии — это то что главной задачей у нее стоит не исследование мышления или практическое построение ИИ, а исключительно поиск еврохристианской «души», которую боженька дал исключительно человеку и не дал всем остальным. Чтобы замаскировать суть рассуждений этой «душе» дается много разных названий типа «самосознание»/«квалиа»/etc/etc, сейчас вот «знаковая система» добавилась…
Если картезианское разделение на материю и дух принять за разделение на материю и информацию (чтобы картезианский дуализм имел хоть какой-то научный смысл), то получается, что сторонники души/духовности упрекают машины не в том, что у них нет души, а в том, что их душа не такая мощная, как у человека))
Знаковая система — это не самосознание. Это протокол для обмена информацией между агентами коммуникации, понимающими, как и во что интерпретировать элементы этой знаковой системы. Мой тезис в том, что компьютер не знает, во что ему интерпретировать знаки, поступающие от человека, а причина этому — отсутствие у компьютера схожих с человеческими психических процессов: мышление, память, речь, эмоции.
>психических процессов
/кивая/
Ну, вот и еще один эфемизм для «души»…
А что плохого в душе? А ещё есть личность, характер. У Вас есть характер?

В данном случае в "душе" плохо то, что вы требуете её наличия у ИИ, почему-то считая, что ИИ без "души" неполноценен.


Если брать определение "душа — внутренний, психический мир человека", то "внутренний мир" можно приравнять к внутреннему состоянию программы/оборудования ИИ (если ИИ будет основан на программе), а это лишь числа в регистрах или веса в нейронах, что почти одно и то же.


Если брать определение "душа — нематериальное начало жизни..." см.вики, то очень сложно будет создать у ИИ сущность, существования которой не доказано.

Плохо то что рассуждения о некой волшебной субстанции которая есть у человека и не дадена боженькой всем остальным, как бы это ни называлось — это подсчеты ангелов на кончике иглы и прочий magnum opus, а не наука о исследовании разума.

Если же мы занимаемся исследованием мышления/разума, то плясать надо от фактов. Для начала, например, принять что те же личность/характер, сиречь набор реакций свойственный конкретной особи — они вовсе не исключительно человеку присущи, они у всех с б-м развитым мозгом имеются.
Мой тезис в том, что компьютер не знает, во что ему интерпретировать знаки, поступающие от человека, а причина этому — отсутствие у компьютера схожих с человеческими психических процессов: мышление, память, речь, эмоции.

Интерпретация знаков во что-то вовсе не обязательна для решения задач. Интеллект может быть совершенно чуждым и непонятным. Как и совершенно примитивным (типа ПИД-регулятора).


Кстати, свёрточные нейросети в промежуточных слоях получают образы, схожие с образами в зрительной коре животных (линии, объединения линий и т.п.) Значит ли это, что какая-то типичная в наше время нейросеть интерпретирует изображения так же, как человек?

Мысль — это продукт мышления

Восхитительное циклическое определение. Сепульки на новый лад?

Автопилот под управлением ИИ, наезжая на препятствие на дороге, ничего не поймет, ничего не почувствует, не задумается, не расстроится, не обрадуется, не испугается, не будет никакой рефлексии

Тут как раз вообще никаких особых проблем. Заводим датчик вибраций в контур обратной связи, выдаем ИИ негативное подкрепление. И ИИ почувствует, задумается и отрефлексирует. Расстроиться, обрадоваться, испугаться — человеческие качества, их в принципе можно проецировать на ИИ. Расстроился — ввел поправку в весовые коэффициенты. Испугался — стал избегать образов ведущих к повышенным вибрациям на дороге. Получил лучшую интегрированную оценку вибраций за поездку — обрадовался.
А если наехать на бревно, такое же негативное подкрепление или шраф меньше? А если вместо человека распозналось бревно, штрафа нет, можно смело ехать дальше?
А если вместо человека распозналось бревно, штрафа нет, можно смело ехать дальше?

Вы, возможно, не поверите, но реакция водителя-человека на "что-то под колесом" тоже сильно зависит от того, распознал он это что-то как бревно или как собаку.

А ответ на вопрос у Вас какой будет? Ошибки распознавания мы как будем обрабатывать? Я видел примеры, когда распознавался прозрачный воздух. В этом случае педаль в пол?
А ответ на вопрос у Вас какой будет?

Такой же, как и для человека.


Ошибки распознавания мы как будем обрабатывать?

Так же, как и у людей.

А вы же против антропоцентричного подхода, физиологии, живых людей и т.п. вещей, но при этом говорите, также, как у людей. Ну и вопрос: а у людей как. Я считаю, что есть сложные, пока к сожалению, плохо изученные процессы в мозгу, которые эти ошибки и исправляет. Расскажите, как компьютер исправляет ошибки распознавания?
А вы же против антропоцентричного подхода, физиологии, живых людей и т.п. вещей, но при этом говорите, также, как у людей.

А я не вижу смысла придумывать другую систему правил в данном случае.


Расскажите, как компьютер исправляет ошибки распознавания?

Помечает пример как отрицательный и перестраивает модель.

А я не вижу смысла придумывать другую систему правил в данном случае.
Отлично, т.е. всё-таки отталкиваемся от человека. Тогда вопрос: Вы дуалист? Если да, то вопросов больше нет. Если нет, то следующий вопрос: зачем специалистам ИИ потребовалось изучать нейроны головного мозга человека? Зачем вам нейросети?

Помечает пример как отрицательный и перестраивает модель.
А как понимает, что неправильно распознал? Что заставляет его
Помечает пример как отрицательный
Отлично, т.е. всё-таки отталкиваемся от человека.

Не-а, отталкиваемся от практического опыта.


зачем специалистам ИИ потребовалось изучать нейроны головного мозга человека?

Как один из возможных образцов, я подозреваю.


Зачем вам нейросети?

Нейросеть — это сложная вычислительная система, решающая конкретную задачу. Мне нужно решать задачи, которые хорошо решаются нейросетью, я беру нейросеть.


Обратите внимание на определение: "computing systems vaguely inspired by the biological neural networks that constitute animal brains" (выделение мое).


А как понимает, что неправильно распознал?

Либо ему его явно помечают (сравните с ситуацией в образовании, когда проверяющий говорит, что пример решен неправильно), либо сталкивается с эмпирическим противоречием (мы определили, что впереди ничего нет, значит, можно ехать, но как только поехали, ощутили препятствие).

Не-а, отталкиваемся от практического опыта.
Сферического опыта в вакууме? Или всё-таки человеческого опыта, который пытаются использовать, переложить, сэмулировать?

Как один из возможных образцов, я подозреваю.
А Вам же не нужна физиология, зачем Вы туда полезли? Работайте с чистой математикой.

Либо ему его явно помечают
Т.е. сам он не может? А когда перестанут помогать, сдуется?
Сферического опыта в вакууме?

Опыта, существующего в конкретной отрасли. Если он человеческий — человеческого.


А Вам же не нужна физиология, зачем Вы туда полезли?

А я туда и не лазил.


Т.е. сам он не может? А когда перестанут помогать, сдуется?

Я так понимаю, второе "либо" вы упустили. Но, впрочем, да: если из системы обучения с учителем убрать учителя, а из системы обучения с подкреплением убрать подкрепляющую функцию, она "сдуется".

Если он человеческий — человеческого.
Т.е. ИИ всё-таки ориентирован на человека? Отлично. А как ИИшники изучают опыт людей, не понимая, как формируется такой опыт? При разработке экспертных систем основная проблема как раз и заключалась в том, как «выудить» этот самый опыт.

А я туда и не лазил
Но используете/допускаете использование нейросетей, взятых из анатомии людей? Но при этом уверены, что нет нужды изучать, процессы, происходящие в человеческих нейросетях, я правильно Вас понял? Это похоже на то, как взять печатную плату, и не понимая, какие процессы в ней происходят, просто скопировать внешние атрибуты этой платы — дорожки, элементы — и дальше делать эмуляцию, при этом считая, что эта эмуляция не хуже, если не лучше работы самой печатной платы.

ИИ всё-таки ориентирован на человека?

ИИ ориентирован на задачу.


А как ИИшники изучают опыт людей, не понимая, как формируется такой опыт?

А как композиторы пишут музыку, не понимая механизмов ее воздействия?


Но используете/допускаете использование нейросетей, взятых из анатомии людей?

Да.


Но при этом уверены, что нет нужды изучать, процессы, происходящие в человеческих нейросетях, я правильно Вас понял?

Я уверен, что это не обязательное условие для развития искусственного интеллекта.

ИИ ориентирован на задачу.
А задачу ведь человек ставит. Или у Вас есть другие примеры? Я не знаю таких задач, решаемых людьми, которые бы не были им нужны. А значит, инженеры, работающие над ИИ, делают приложения для пользователей-людей. И результат работы таких приложений будет интерпретироваться тоже людьми.
А задачу ведь человек ставит.

Задачу ставит человек, да. Но задача может выглядеть как "нам нужен поток измерений раз в микросекунду, точность такая-то, слать в формате таком-то", а на другом конце провода — какой-то вычислительный агент. Эта задача ориентирована не на человека, нет. Где-то там, далеко, в конце проекта, есть человеческая выгода, да. Но каждая конкретная подзадача вполне может к человеку отношения не иметь.


И результат работы таких приложений будет интерпретироваться тоже людьми.

Вы правда про сервисное взаимодействие никогда не слышали, или просто тактично замалчиваете?

Эта задача ориентирована не на человека
В каком смысле? Не понял, результаты решения задачи не нужны авторам задачи? Давайте всё же о контексте задач поговорим.
поток измерений
Label-ы набору характеристик этого потока кто назначает? Человек.
сервисное взаимодействие
Протокол кто разрабатывает? Человек. Логи взаимодействия сервисов между собой кто анализирует? Человек. Нет ведь такого, чтобы сервисы друг другу что-то пропищали на непонятном человеку языке, и это осталось только между ними. Во всё, что делает человек, он вкладывает результат собственного мышления. Результат любой задачи так ли иначе анализируется человеком. И характеристику качества тоже даёт человек.
каждая конкретная подзадача вполне может к человеку отношения не иметь.
Конечный результат будет анализироваться человеком, и если подзадача решена плохо или неверно, конечный результат тоже будет хуже, и человек это увидит, поймёт это.
Не понял, результаты решения задачи не нужны авторам задачи?

Нужны, но не для собственного потребления. Их просто скормят следующей машинке.


Нет ведь такого, чтобы сервисы друг другу что-то пропищали на непонятном человеку языке, и это осталось только между ними.

Конечно, есть.


Результат любой задачи так ли иначе анализируется человеком.

Это не значит, что эта задача на него ориентирована.


Впрочем, это очередной бессмысленный терминологический спор, не имеющий отношения к теме поста.

Это не значит, что эта задача на него ориентирована.
Вы правда не понимаете, о чём я? Если подзадача будет решена неверно, кто пострадает? Кто не получит нужный файл?

Я боюсь, что вы тоже не понимаете, о чем я. А поскольку это не имеет отношения к тебе поста, особого смысла продолжать эту ветку я не вижу (особенно учитывая, что существенно более интересный вопрос из нее вы пропустили).

Повторите, пожалуйста, более интересный вопрос. Я попробую на него ответить. Дело в том, что мне сыпется большое кол-во комментариев, да Вы и сами видите интенсив переписки, возможно что-то где-то упустил.
А как ИИшники изучают опыт людей, не понимая, как формируется такой опыт?

А как композиторы пишут музыку, не понимая механизмов ее воздействия?

Я считаю, что музыка — это одно из проявлений процессов мышления, памяти, эмоций, продукты которых передаются через несколько знаковых систем: нотная запись, пометы дирижёра для музыкантов, как надо играть какую-то часть и т.д. Музыка — это тоже часть интеллекта. Пардон, глупый человек не может сочинить хорошей музыки.
Знаки нотной записи служат для передачи обозначенных продуктов: ноты, интервалы, аккорды, может, что-то ещё, я не могу точно судить, т.к. у меня нет никакого музыкального образования.
Могу сказать одно: мажорные аккорды я лично воспринимаю как «светлые», «победные», минорные — как «грустные», т.е. я их воспринимаю, как и было задумано. Консонансы и диссонансы я воспринимаю аналогичным образом.
Т.е. если композитор закодировал минором грустную линию главного героя, я это пойму, я пойму эту мысль композитора.
Насколько я понял, Вы не считаете это определением музыки.
И ещё момент по поводу восприятия музыки. Считаю, что обычный человек и профессиональный музыкант несколько по-разному воспринимают одно и то же музыкальное произведение. Музыкант может больше понять, больше проанализировать, услышать знакомые комбинации. Обычный человек может даже не понять, сколько музыкальных инструментов играет сейчас.
Я не стал приводит в статье мысль (выскажу здесь) о том, что кодирование смысл — знак не обязательно однозначно 1:1, т.е. разные знаки могут ссылаться на один смысл, а один смысл кодироваться разными знаками. Пример этого по музыке — выше. Т.е. знаки (звуки) как бы одни, но музыкант способен увязать большее кол-во смыслов, чем неподготовленный слушатель. Поэзия туда же. Прочитай Есенина дяде Коле слесарю, не поймёт, почему любители поэзии Есенина с ума сходят. Науки, образование туда же. Всему классу один и тот же учитель с помощью одних и тех же слов объяснял материал, кто-то сделал домашку, а кто-то нет. Хотя до внутреннего уха долетали одни и те же синусоиды.
UFO landed and left these words here
Ничего. Человек давно нарисовал робота в виде угловатого человека.

Это все прекрасно, конечно, но ничто из этого не объясняет, как музыка действует на человека. О чем я, собственно, и говорил.


Могу сказать одно: мажорные аккорды я лично воспринимаю как «светлые», «победные», минорные — как «грустные», т.е. я их воспринимаю, как и было задумано.

Неа. Не "как задумано". У вас нет никакого основания думать, что мажорные аккорды задуманы светлыми и победными (а если вы так думаете, то послушайте до-мажорную прелюдию и фугу Шостаковича из восемьдесят седьмого опуса), вы просто придумали себе такую модель, и она вас устраивает.


Но даже не в этом дело — а в том, что вы, конечно, можете лично воспринимать мажор как победный, но вы не знаете, почему. И композитор не знает, почему вы это так воспринимаете. И я, с семнадцатью годами музыкального образования и дипломом по истории и теории музыки, не знаю, почему. И мои научные руководители не знают.


То, как работают музыканты и композиторы (и музыковеды) — это всего лишь наблюдения: такая-то музыка воздействует так-то, такая-то — так-то. Иногда мы можем проследить до какой-то причины, навроде того, почему D ассоциируется с войной, но это всего-лишь правила ассоциаций, не более того (и этим пользуются музыковеды; композиторам на это глубоко наплевать, они просто знают, что это работает).


Ничего не напоминает, нет? А должно бы: это то, как работают системы машинного обучения — множество наблюдений, из которых построена закономерность без понимания ее причин. Ровно то, возможность чего вы отрицаете.

Неа. Не «как задумано». У вас нет никакого основания думать, что мажорные аккорды задуманы светлыми и победными (а если вы так думаете, то послушайте до-мажорную прелюдию и фугу Шостаковича из восемьдесят седьмого опуса), вы просто придумали себе такую модель, и она вас устраивает.
У меня нет основания думать, я просто говорю, о чём думаю, а именно, я только что прослушал эту фугу, по первым же нотам ощущение спокойствия и уверенности, т.е. позитив. И даже если бы Вы мне не сказали, что там до-мажор, я почувствовал бы тоже самое. И потом, это имеет какое-то значение? На вкус и цвет товарища нет. Это еще один пример того, что
Прочитай Есенина дяде Коле слесарю, не поймёт, почему любители поэзии Есенина с ума сходят.

Ничего не напоминает, нет? А должно бы: это то, как работают системы машинного обучения — множество наблюдений, из которых построена закономерность без понимания ее причин. Ровно то, возможность чего вы отрицаете.
Конечно буду отрицать такой подход к моделированию интеллекта. Это несерьёзно. Мы построили самолёт, не понимая, как он летает? Почему специалисты ИИ упорно верят, что статистика определяет казуистику? Прослушав миллион нот, можно теперь сочинять самому? Откуда такая самоуверенность? Я извиняюсь, но это нелепо. Композитор учится сочинять музыку, не за счёт прослушивания миллионов нот других композиторов, а потом тупо копируя их. Он мыслит, обрабатывает ранее услышанное, использует приобретённые знания, привносит свои наблюдения, свой опыт. А как учился первый композитор? У него не было миллиона нот предыдущих композиторов.

построена закономерность без понимания ее причин
И это будет возить нас по улицам города? Мама.
И потом, это имеет какое-то значение?

Вы пропустили следующие два абзаца, где рассказывается, какое. Ничего, я повторю еще раз.


Во-первых, вы не просто утверждаете, что вы что-то чувствуете (с этим утверждением, понятное дело, спорить сложно), вы еще и утверждаете "я их [аккорды] воспринимаю, как и было задумано". С одной стороны, не очень понятно, на основании чего вы думаете, что было задумано именно так, как вы воспринимаете? А с другой: вот вы воспринимаете одним образом, я — другим (и практически противоположным), так как же было задумано?


А во-вторых: пусть даже вы воспринимаете так, как было "задумано". Пусть. Почему это происходит? Почему конкретный аккорд оказывает на вас такое воздействие, а не другое?


Конечно буду отрицать такой подход к моделированию интеллекта.

Нет уж, давайте не будем уходить от музыки. Вы понимаете, как она работает (на уровне ответа на вопрос "почему" выше)? Нет. Композитор — тоже нет. "Это несерьезно"? Это работает или нет?


И это будет возить нас по улицам города?

"Это" уже пишет вам музыку. Вы готовы от нее отказаться?

«Это» уже пишет вам музыку. Вы готовы от нее отказаться?
Сначала уточню по этому, а потом попробую ответить на остальные Ваши вопросы. 1) можно послушать? 2) от прослушивания могут погибнуть люди?
Вам интересна музыка, а мне интересна безопасность.
Мы построили самолёт, не понимая, как он летает?
А раз не понимаем, то и не знаем, когда он может упасть?

Если вам интересна безопасность, не используйте решения, безопасность которых вы не можете проанализировать.

lair, или кто там, давай ещё :)
И последний раз, хорошего помаленьку :)
И ещё, я правильно понимаю, что Вы пытаетесь убедить меня в том, что раз мы не понимаем, что такое музыка, но при этом не видим принципиальных проблем пользоваться её, то это означает, что нет ничего плохого или страшного в том, чтобы пользоваться чем угодно, чего мы не понимаем?

Нет, я всего лишь демонстрирую, что утверждение "нельзя пользоваться знаковой системой, не понимая, как она работает" в общем случае неверно.

А кто это сказал? За собой я таких утверждений не припомню. В чём суть Вашего посыла? В том, что можно пользоваться знаковой системой, не понимая, как она работает?
А кто это сказал? За собой я таких утверждений не припомню.

Вы, хотя и не дословно, извиняюсь. Вот вам два наиболее близких вопроса.


как ИИшники изучают опыт людей, не понимая, как формируется такой опыт?
как может что-то, не способное на психическую деятельность, порождать знаки, как раз и существующие, чтобы указывать на результаты такой деятельности?

.


В том, что можно пользоваться знаковой системой, не понимая, как она работает?

Да, и успешно.

Да, и успешно.
Понял, о чём Вы. Ок, давайте ещё раз поясню свою точку зрения. Знаковая система — это переносчик, она не работает так, как, возможно, Вам показалось из моих комментариев.
Работает не знаковая система — работают наши процессы, результат работы которых кодируется с помощью знаковой системы.
Далее о языке, не против, что не о музыке? Работает не знаковая система русского языка, а работает речь/мышление/эмоции говорящего таким образом, что на выходе получается упорядоченный набор знаков, который мы и изучаем, например, с помощью лингвистики. Мышление человека, знающего русский язык, работает так, что на выходе получаются знаки «я иду», а не «я идёшь».
Мы же изучаем с хвоста. Смотрим на миллион документов и говорим: как правило, русскоговорящие используют набор знаков «я иду», при этом «я идёшь» — скорее всего, неправильный набор знаков. И далее специалистами ИИ делается смелое умозаключение, что, изучив такую статистику, мы теперь знаем, как работает речь, и делается попытка это знание запрограммировать на компьютере. А вот и нет. Мы теперь просто собрали статистику лексики и синтаксиса русского языка, но это не речь. Мы, собрав статистику, не познали речь. Почему NLP сейчас устроенно именно так? Потому что пока нет других способов понять речь — приходится изучать её «отражение» в форме знаков. Представьте, что у нас есть только отражения предмета в зеркале, но стоить задача изучить предмет. Что нам остаётся делать? Правильно, изучать хотя бы это отражение. Это — лучше, чем вообще ничего не делать.
Работает не знаковая система — работают наши процессы, результат работы которых кодируется с помощью знаковой системы.

И вот как они работают — мы не понимаем, и нам это никак не мешает.


Далее о языке, не против, что не о музыке?

Против, потому что мы так и не разобрались, как работает этот пример.


И далее специалистами ИИ делается смелое умозаключение, что, изучив такую статистику, мы теперь знаем, как работает речь

Нет, не делается. Это вами делается такое умозаключение, а ни от одного из специалистов я его не слышал.

И вот как они работают — мы не понимаем, и нам это никак не мешает.
Не то что не мешает, а эти процессы — суть нашей жизни. Без них не было бы нас. Без психики не было бы нас, не было бы мышления, не придумали бы компьютер и термин ИИ :), ничего бы не было. Т.е. Солнце бы всходило, но некому было бы это обстоятельство отрефлексировать.
Но предвидя Ваш след вопрос, отвечу: нет, это не означает, что точно также, не понимая, как работает ИИ, можно смело им пользоваться. В шахматы играйте на здоровье. Но пока не будут решены вопросы безопасности, надёжности и экономической пригодности, использование ИИ будет под вопросом. Простой пример. 1) Я воспользовался технологией ИИ и получил результат, который не смог продать заказчику, и 2) я воспользовался ЕИ и получил результат, который смог продать заказчику. В обоих случаях и использовал системы, которые плохо изучены, но результаты получил противоположные.

Против, потому что мы так и не разобрались, как работает этот пример.
Какой именно пример? Может, попробуете разобраться самостоятельно, опираясь на мой пример о языке?

Нет, не делается. Это вами делается такое умозаключение, а ни от одного из специалистов я его не слышал.
А не поделитесь, какими умозаключения они делают после анализа статистики языка?
UFO landed and left these words here
Вы код не писали и тематику не изучали
Пожалуйста, хватит делать голословные выводы обо мне ;).

Вы же не говорите строителям «небоскреб построить нельзя»?
Они не делают небоскрёбов, которые с одной группой людей стоят, а с другой падают. Они не называют строительство небоскрёбов интеллектом. Они просто работают и делают вещи, которые стабильно можно использовать на практике. Это — отработанная технология, без лишнего хайпа.

Вы не понимаете как работает ваш мозг. Его срочно нужно отключить.
Почему его нужно срочно выключить? Он работает ровно так, что позволяет мне адаптироваться к среде и дать потомство.

Короче блин, я вообще не могу понять ваше упорство в заявлении типа «игрушки это несерьезно»
Где я говорил, что игрушки — это несерьёзно. Я говорю, что играя в игры, можно научиться играть в игры, а варя суп, можно научиться варить суп. В какую игру я должен научиться играть, чтобы это пригодилось мне в варке супа?

Вы когда утверждаете что-то, то лучше сразу смотрите на другие реальные варианты.
Я не понимаю Вашей категоричности. Я привёл пример, почему Вы сразу называете это утверждением? Естественно я знаю об успешных примерах. Я, например, доволен результатами Shazam. Вы статью читали? Я лишь говорю, что сейчас мы упёрлись в существенные концептуальные барьеры, которые не позволяют нам избавиться от ошибок распознавания и, судя по результатам работы машинного перевода, качественно двигаться дальше в машинном переводе.

P.S. Вы и другие комментаторы прочитали статью, с тезисами которой оказались не согласны. Это нормально, это даже хорошо, что возникает обсуждение. Но я не понимаю, к чему этот эмоциональный накал? Вас кто-то оскорблял или Вы «корову проигрываете»? Чего Вы от меня хотите, говоря о важности игр? Чтобы я отказался от своих тезисов? Этого не будет. Точно также как Вы, скорее всего, не откажетесь от своих.
Но предвидя Ваш след вопрос, отвечу: нет, это не означает, что точно также, не понимая, как работает ИИ, можно смело им пользоваться.

Вот только ваше предвидение не имеет ничего общего с моим вопросом. Потому что, с одной стороны, этот вопрос бессмысленен: есть множество людей, которые пользуются тем или иным достижением технологии или науки, не понимая, как оно работает (сколько пользователей интернета понимает, как он работает?); а с другой стороны, я никогда не предлагаю людям, которые применяют системы машинного обучения в своих решениях, применять их без понимания этих самых систем (а то тут одни партнеры принесли нам демо рекомендательной системы и не смогли объяснить ни одной рекомендации, было дело). Более того, все то время, которое я занимаюсь машинным обучением, многие люди призывают к тому, чтобы эти системы были объяснимыми (а в некоторых отраслях это и вовсе обязательное требование, без которого систему нельзя внедрять; я такое слышал про кредитный скоринг в некоторых странах). Поэтому этот ваш ответ совершенно мимо цели.


Вопрос, который меня интересует — это почему для повторения какого-то человеческого поведения (например, решения уравнения) машиной обязательно необходимо понимать — и воспроизводить! — человеческую психику (которую сами люди не понимают, и им это не мешает)? Вот представьте себе, что у вас есть сортировщик, который складывает все письма в "Москва, Россия" в одну коробку, а все другие — в другую. Надо ли вам для повторения этого поведения знать, где находится Москва, какие эмоции это слово вызывает у сортировщика, и какими именно трюками он пользуется, чтобы сократить время узнавания таких конвертов?


Простой пример. 1) Я воспользовался технологией ИИ и получил результат, который не смог продать заказчику, и 2) я воспользовался ЕИ и получил результат, который смог продать заказчику.

Простой пример: я воспользовался технологией машинного обучения, и получил результат, который смог продать заказчику. Я воспользовался человеческим трудом и получил в 5-10 раз большие затраты по времени.


Какой именно пример?

С музыкой, конечно же.


Может, попробуете разобраться самостоятельно, опираясь на мой пример о языке?

Так ваш пример о языке тоже не работает — причем дважды, потому что есть такие странные люди "поэты", которые совершенно не обязательно знают, как работает речь, но при этом пользуются ей для достижения своих странных результатов.


А не поделитесь, какими умозаключения они делают после анализа статистики языка?

Не поделюсь. Спрашивайте у них сами.

например, решения уравнения
А это — ИИ? Я уже тут задавал подобный вопрос про квадратные уравнения, мне не ответили. Решение квадратного уравнения — это ИИ? Может быть, Вы ответите?
Вы привели пример с задачей сортировки. Это — ИИ?

сколько пользователей интернета понимает, как он работает?
Если Вы действительно не поняли, кто должен понимать, я объясню. Инженер-разработчик должен понимать. Да, я не знаю, как работает самолёт, но (!) инженер-конструктор знает. А Вы мне предлагаете согласиться с подходом, когда инженер-конструктор НЕ знает, как летает самолёт, но при этом самолёт летает, и инженера это не беспокоит. Я Вам указывал на это в одном из комментариев, но Вы этот пункт не прокомментировали:
Мы построили самолёт, не понимая, как он летает?

Или: инженер разработал протокол обмена информацией, не понимая, как он работает?
Так ваш пример о языке тоже не работает — причем дважды, потому что есть такие странные люди «поэты», которые совершенно не обязательно знают, как работает речь, но при этом пользуются ей для достижения своих странных результатов.
По-моему, Вы не читаете мои ответы. Где я говорил, что мы знаем, как работает наша речь? Мы как раз не знаем, но хотелось бы. Единственно, что мы можем наблюдать, — это стихи. Единственно, что мы можем делать, — это анализировать эти стихи.
То же самое и с музыкой. Мы не знаем, каким образом работает мышление и эмоциональная сфера в момент, когда они работают со знаками, систему которых мы называем знаковой системой «музыка».

а ни от одного из специалистов я его не слышал.
Не поделюсь. Спрашивайте у них сами.
Вам бы в разведчики :) Если нет желания и готовности конструктивно беседовать, к чему тогда эта беседа? Я прошу у Вас примеры, Вы их не приводите. Ну не хотите, не надо, зачем тогда что-то у меня спрашивать? Гм.

P.S. Предлагаю заканчивать дискуссию, т.к. мы ходим по кругу.
А это — ИИ?

Вот мы и пошли по кругу. Без определения, что же такое ИИ, дальше идти бесполезно.


Согласно приведенному мной определению — да, это ИИ.


Инженер-разработчик должен понимать.

Ну так (нормальный) инженер-разработчик систем машинного обучения и понимает, как они работают. Я об этом уже сказал.


А Вы мне предлагаете согласиться с подходом, когда инженер-конструктор НЕ знает, как летает самолёт, но при этом самолёт летает, и инженера это не беспокоит.

Нет. Я вам предлагаю согласиться с подходом, что инженер-конструктор самолетов не знает, как летают птицы.


Где я говорил, что мы знаем, как работает наша речь?

Но при этом вас не смущает пользоваться результатами работы человека (=поэта), который не знает, как работает его инструмент. Хм.


Я прошу у Вас примеры, Вы их не приводите.

Я привожу те примеры, которые я в состоянии привести.

например, решения уравнения
да, это ИИ
То чувство, когда рассказал об этом учителю математики.

Я вам предлагаю согласиться с подходом, что инженер-конструктор самолетов не знает, как летают птицы.
Мы опять движемся по кругу. Авиаконструктор и не говорит, что создаёт птицу. Если бы он создавал искусственную птицу и не знал, и не интересовался, как устроена живая птица — что вы собственно и предлагаете в ИИ — вот это было бы странным.
Разве самолёт может летать, как птица: махать крыльями, маневрировать? Какие-то физические законы они используют общие, на этом совпадение заканчивается.
И потом самое главное — птицам не предлагается пользоваться самолётом. А ИИшники создают решатели задач, результаты решения которых будут интерпретироваться человеком. Создавайте решатели задач для птиц, я не буду против.
Вот, например, логистическая регрессия, она моделирует какой-то вычислительный процесс, который предположительно есть и у человека, при этом даже не можете объяснить, какая именно часть (или весь?) ЕИ моделируется с помощью лог регр. И предлагаете человеку же воспользоваться результатами работы этой регрессии. При этом никто не знает, а есть у человека в голове хотя бы что-то похожее на эту логистическую регрессию.
Я не понимаю, почему алгоритм решения квадратного уравнения и лог регр — это ИИ? Уберите слово интеллект из этого словосочетания, и всё встанет на свои места. Это будут просто алгоритмы, коих куча.

P.S. Т.к. Вы минусуете чуть ли не все мои ответы или кто-то минусует мои ответы Вам, я заканчиваю диалог с Вами. Из всех оппонентов у Вас были самые интересные вопросы (для меня), и я бы продолжил диалог, но протокол диалога ведется нечестно, поэтому спасибо за потраченное время.
что вы собственно и предлагаете в ИИ

Нет, я не предлагаю этого в ИИ.


И потом самое главное — птицам не предлагается пользоваться самолётом.

Расскажите это птицам, которых перевозят в самолетах.


А ИИшники создают решатели задач, результаты решения которых будут интерпретироваться человеком.

И что?..


Вот, например, логистическая регрессия, она моделирует какой-то вычислительный процесс, который предположительно есть и у человека

Нет, конечно. Логистическая регрессия — это всего лишь статистическая модель, она не воспроизводит никакой процесс, который есть у человека (если не считать таким процессом построение той же логистической регрессии самим человеком, но это скучно же).


И предлагаете человеку же воспользоваться результатами работы этой регрессии. При этом никто не знает, а есть у человека в голове хотя бы что-то похожее на эту логистическую регрессию.

Ну да. Потому что результаты работы логистической регрессии решают задачу, которую человек поставил. Нам совершенно все равно, что человек решает ту же задачу не так, нам важно, что результаты совпадают.


Я не понимаю, почему алгоритм решения квадратного уравнения и лог регр — это ИИ?

Я же дал ссылку на определение. Могу повторить: "Colloquially, the term "artificial intelligence" is applied when a machine mimics "cognitive" functions that humans associate with other human minds, such as "learning" and "problem solving"". В рамках этого определения подбор логистической регрессии — это "обучение", вот и все. У вас есть другое определение ИИ? Несите его в студию, будем определять, что под него попадает.


Это будут просто алгоритмы, коих куча.

А я не понимаю, почему вы противопоставляете ИИ и алгоритмы.


Т.к. Вы минусуете чуть ли не все мои ответы или кто-то минусует мои ответы Вам, я заканчиваю диалог с Вами.

Прекрасная, прекрасная позиция.

1. Сознание связано с ОТРАЖЕНИЕМ, моделированием, распознаванием, анализом,
обработкой и хранением информации (память).
Мозг сравнивает отраженные образы/модели. Долговременная память связана с образованием специальных белков в нейронах и сетями нейронов, т.е. дискретна.
2. Простой, логичный, выразительный язык — эсперанто. Он позволяет почти дословный перевод, лёгок для людей, а робот сможет на нем выразить больше, яснее, точнее… До многих никак не может дойти, что нужно распространять единый вспомогательный международный язык (второй, после родного). Это даст большее взаимопонимание народов, снизит возможные искажения инфы, манипуляции, позволит приобщить к культуре детей в экономически отсталых странах…

Он позволяет почти дословный перевод
Перевод чего? Ваших мыслей? А у робота какие мысли? Что он будет переводить?
А у робота какие мысли? Что он будет переводить?

Да такие же, как у человека: отображение его внутреннего состояния. Только вместо "я хочу есть" — "батарейка села наполовину".

Понравилось. Вот уже что-то. Надо дальше двигаться. Мотивация какая? Ну там заработать денег, чтобы купить жене сапоги :) Если серьёзно, он понял, что батарейка села, или это просто алгоритмом заложено, который человек разработал? Я когда есть хочу, прям буквально животом чувствую, могу это словами описать, действия попробовать предпринять. Компьютер вот прям своей материнской платой чувствует, что питание кончается?
Если серьёзно, он понял, что батарейка села, или это просто алгоритмом заложено, который человек разработал?

Что значит "понял"? Как отличить по формальным признакам одно от другого?


Компьютер вот прям своей материнской платой чувствует, что питание кончается?

Ну да. Там есть датчик, датчик шлет сигнал.

Ну да. Там есть датчик, датчик шлет сигнал.
В этом ключ. Кому он шлёт сигнал? Я сам себе. Сам иду на кухню или кричу: «жона, жрать давай!» :) А компьютер кому шлёт сигнал? Оператору ЭВМ? Я знаю о существовании холодильника и/или жены. А компьютер знает о существовании оператора? Он надеется получить питание? Он умеет надеяться? Если да, как это можно доказать?
Кому он шлёт сигнал?

А кому человек озвучивает свои мысли?


Я сам себе.

А зачем вам для этого знаковая система?


Но началось-то все с вопроса "что компьютер будет переводить". Вот вам и пример.


Он умеет надеяться? Если да, как это можно доказать?

А как вы можете доказать, что человек умеет надеяться?

А кому человек озвучивает свои мысли?
Их необязательно озвучивать. Могу молча пойти на кухню, могу отметить: «однако пора бы подкрепиться.»

А как вы можете доказать, что человек умеет надеяться?
Легко. Надежда — это результат отработки мышления (а возможно или даже скорее всего других психических процессов) по анализу определённой информации и подготовке на этой основе вывода. Вот Вам пример надежды. Если французы проиграют испанцам, а нигерийцы сыграю вничью с японцами, есть надежда, что мы выйдем из группы. Ещё пример.
— Я надеюсь, завтра не будет дождя.
— Почему?
— По прогнозу — солнце.
UFO landed and left these words here
Легко

Подождите, где доказательство-то? Вы просто привели ситуацию, и назвали ее "надеждой". Я с таким же успехом могу сказать, что компьютер, показывая табличку "заряд <5%" надеется, что его зарядят.


(а еще вы подменили надежду ожиданием, но не суть)

Если бы у меня были доказательства, я бы печатался в научном журнале, а не здесь. Вы точно также не можете привести ни одного доказательства того, что без исследований нашего собственного интеллекта удалось создать полноценный искусственный интеллект, не уступающий или превосходящий естественный.

(а еще вы подменили надежду ожиданием, но не суть)
А ещё вы придираетесь к словам, делая вид, что не понимаете, о чём я говорю.
Если бы у меня были доказательства, я бы печатался в научном журнал

Гм.


— как вы можете доказать, что человек умеет надеяться?
— Легко. Надежда — это [...]
— Где доказательство-то?
— Если бы у меня были доказательства, я бы печатался в научном журнале


Гм.

Перевод с одного языка на другой. Читайте внимательнее, и контекста ясно, что приводилось свойство языка эсперанто. О роботах написано дальше…
Забудем про эсперанто. Как вообще делается перевод с одного языка на другой? Как перевести фразу «Коля прибухнул»? Вот гугл-траслейт предлагает вариант "Nick arrived". А Вы бы какой вариант предложили? Знаковая система не имеет значения. Согласитесь, если бы эта переписка велась на английском или эсперанто, мы бы обменивались теми же самыми мыслями.
Знаковая СИСТЕМА имеет значение (если не сводить ее лишь к алфавиту, а включать грамматику и соответствие букв звукам). Это отлично понимали уже Декарт, Лейбниц и др. (и писали об этом). Простота, логичность, выразительность/гибкость — важнейшие качества вспомогательного международного языка (есть и другие качества: например, набор аффиксов для научной терминологии).
Хорошо, я не против, учите эсперанто, дело Ваше, может, изучая эсперанто, Вы поймете, как работает наш мозг и как создать ИИ. Я тут уже ответил:
Кажется мы уткнулись таки в необходимость изучения Ифкуиля.
Не уверен, что всё, что придумано человеком, необходимо изучать :)

Похоже, что Вы мало что поняли… Это показывает приведенная цитата (пусть и не Ваша) про сложный язык Ифкиуль и Ваш ответ на нее.

Что я должен понять? Что человек «извратился» и придумал какой-то сложный искусственный язык? Да мало ли что люди придумывают. На ютубе полно роликов, где на нём песни поют. Я извиняюсь, чудаков полно. Или Вы искренне считаете, что изучение Ифкуиля нас приведёт к чему-то полезному?

Вы сами вбрасываете мусорную фразу про Ифкиуль и Вашу "борьбу" с ней. Поскольку к ранее изложенным идеям это не имеет абсолютно никакого отношения, поэтому и получили вышеприведенный ответ. Ваш же вопрос про изучение Ифкуиля и направляйте по назначению...

Вы можете конкретно объяснить свою мысль про Ифкуиль? Я в Ифкуиле вижу игру ума: сложные уровни языка (фонетика, грамматика), не имеющие аналогов в естественных языках. Я тут уже высказывал мысль о том, что мы не мыслим по законам математической логики. А в Ифкуиле как раз и предпринята попытка засунуть мат. логику. В любом языке есть логически объяснимые структурные элементы (с исключениями конечно), позволяющие его осваивать. Но Ифкуиль, это же какой-то монстр, совсем не вдохновляющий на его анализ и изучение.

У меня не было мыслей об Ифкуиль! Были мысли о связи сознания/смысла с отражением и т.д; о важности эсперанто в связи с идеями в Вашей статье… Хотел помочь, но был не понят :)

Вы лучше лайками помогите :) а то люто минусуют :) я бы не стал минусовать пост только потому что я не согласен с тезисами автора. Но все мы разные, кто-то минусует, кто-то нет.
А на счёт эсперанто я вынужден вас разочаровать. Это просто ещё один язык, не более. Сравните с языками программирования. Одни приходят, другие уходят. Нет какого-то абсолюта.
UFO landed and left these words here
Где я сказал, что не видел субтитров? Я их как раз видел. В каждом предложении ошибка, и даже был мат. Мне пришлось вручную исправлять эти с позволения сказать «субтитры». Мусор получился, а не субтитры, вот в чём беда. А пример «ама ыла аму» совсем не про видеохостинг. К сожалению, Вы напутали информацию из статьи и комментариев.
Как бы Вы назвали процесс
будет избегать болючих для себя действий
? Если бы он действительно был реализован, я бы его назвал мышлением, частью интеллекта.
UFO landed and left these words here
Т.е. игра арканоид под управлением алгоритмов ИИ — это пример мышления, интеллекта? Кстати, опять об играх. Когда тексты начнём переводить? ИИ как играл в игры, так и играет. Я понял.
UFO landed and left these words here
Два момента:
1) где они, эти Ваши автопилоты? Вот, например, у меня сейчас во дворе куча машин с двигателем внутреннего сгорания и ни одной с автопилотом;
2) мне всё равно, как обучать ИИ. Почему именно через игры? Аргументы? Мне видится, что инженеры не нашли более безобидного и безопасного «подопытного», чем игры, вот и стали с ними работать, что называется, доступно, дёшево и сердито. Люди обучаются по-разному: и с играми, и без. Мне припомню, чтобы была какая-то игра для научения меня решать квадратные уравнения.
UFO landed and left these words here
1) вы про самолёты? Ну там вроде про ИИ не кричат;
2)
Как иначе подбирать параметры?
почему меня, как пользователя, должно это волновать? Мне кажется, это — профессиональная деформация специалистов по ИИ. Чуть что сразу игры или сравнение с детьми;
3)
всегда
сильное утверждение. Вы при получении проф образования играли в игры? Я нет, просто ходил на лекции, делал курсовые, в игры играл дома на компьютере.
UFO landed and left these words here
Прокомментирую только 3-й пункт. Не, не так. Вы можете на симуляторе сколь угодно долго играть, но научиться водить машину можно, только водя эту самую машину. То же самое и про курсовые. «Забудьте чему Вас учили в школе и институте» — не я сказал. Навыки всегда адресны, нельзя чему-то научиться впрок. Сам должен прочувствовать, чтоб до автоматизма, до мозга костей. Вот где хранится это «до мозга костей» и как научить этому компьютер, вот это пока не поддаётся пониманию.
UFO landed and left these words here
Ждите. Играя в игру, можно научиться играть в игру, и всё. Можно научиться играть в шахматы, но это никак не поможет улучшить навыки в плавании или решении прикладных задач на работе.