Pull to refresh

Comments 19

UFO just landed and posted this here
Согласен с вами! Если под искусственным интеллектом мы понимаем модель биологического интеллекта, то никакой целевой функции мы в биологии не найдем. Причем обоснование этого имеется прямо в этой статье: «на Земле миллионы лет живут простейшие организмы, отсутствие интеллекта у которых не яляется препятствием для увеличения популяции вида».

Если под искусственным интеллектом понимают «усилитель человеческого разума», то задачи обычно сводятся к машинному обучению, а не к универсальному иск. интеллекту. Например, научить компьюер играть в шахматы означает научить его выигрывать у того или иного множества людей (от чайников до гроссмейстеров). Или узко задача компьютерного зрения обычно сводится к оптимизации… Никакого универсального интеллекта.

Я считаю, что существует фундаментальный закон природы, по которому системы определенного уровня сложности самоорганизуются и самовоспроизводятся независимо от природы элементов этой системы и природы связей между ними. Это могут быть нейроны, пользователи соцсетей или глупые рыбы в косяке. Большая система начиная с определенного количества компонентов начинает проявляеть коллективный разум.

Где-то читал интересную гипотезу возникновения жизни в глинистых породах русла рек. Частицы глины слипаются определенным образом, и отдельные конфигурации «катышков» имеют тенденцию к воспроизводству себе подобных. Можно предположить, что на каком-то этапе простые органические молекулы, появившиеся случайно, стали добавлять полезные свойства липкости, и появились еще более устойчивые катышки глины, размножающиеся еще «более лучше». Постепенно органические молекулы стали играть все большую роль, усложняясь и постепенно вытеснив из цепочки превращений глину как таковую.

Подходы, связанные с целевой функцией — это тупик. Нужна новая математика, способная изучать поведение крупных сетевых систем.
Ёлки!

Спасибо, конечно, добавил в избранное, осталось найти время прочитать столько буков :-)
Да, еще: правильно я понимаю, что вы говорите с точки зрения подхода к ИИ как acting rationally? С ним, как известно, есть проблема «идеальной рациональности», которая недостижима. Отдельно, есть подход acting humanly, который допускает ошибки и является более «прикладным». ИМХО, в текущий момент времени это направление в ИИ наиболее перспективно.
Да, идеальная рациональность недостижима. И обсуждаемые модели — не более чем примитивная абстракция. Но абстракция чрезвычайно полезная, поскольку если ограничиться подходом «acting humanly», то можно будет, например, заняться тем, чтобы специально вводить, скажем, в шахматную программу способность ошибаться. Бессмысленно вслепую воспроизводить внешние проявления мышления человека. Та же способность допускать ошибки имеет несколько вполне естественных причин, связанных с ограниченностью информации и ресурсов. И эта «способность» будет у реального универсального ИИ. То есть наша задача не от балды имитировать «несовершенное» человеческое мышление, а пытаться понять, чем оно обусловлено.
В принципе я правильно Вас «поддел», когда в своей статье писал о «оракулах сильного ИИ», хотя Вы и прячите эти рассуждения за достаточно техническим и формальным языком вас выдают ваши рассуждения о целевой функции для ИИ в разделе «Адекватность постановки задачи максимизации целевой функции». Ну, не должны мы люди вообще заботится о целевой функции для ИИ, нам важно совсем другое: безмозглое (т.е. не осознаваемое самим ИИ) получение декомпозиции целевой функции на её структурные составляющие — а это дает уже нам ЕИ — понимание той среды, которая нас интересует, а уже для решения надо просто продолжать разрабатывать слабый ИИ. Таким образом, все остальные рассуждения о проблеме обеспечения «дружественности» ИИ — глупости, т.к. не нужно доводить до того, чтобы появлялась такая проблема — это никому не нужно.
Ага, и Винер тогда был «оракулом сильного ИИ», поскольку рассуждал о проблеме задания безопасной целевой функции…
Сейчас эта проблема является не первоочередной, но отрицать ее наличие глупо. И Ваш переход от частного вопроса о целевой функции к выводу о необходимости разрабатывать слабый ИИ вообще весьма странен.
> Сейчас эта проблема является не первоочередной, но отрицать ее наличие глупо.
Такой проблемы вообще нет — это не проблема. Нет ни какого практического смысла в воспроизводстве искусственных клонов, в то время как очевидно можно совершенствовать естественный интеллект. Вам надо лишь признать, что все эти разговоры о искусственном разуме нужны только для того, чтобы это помогало естественному. Не согласны? А если согласны, тогда вы пытаетесь решить не те проблемы.

> И Ваш переход от частного вопроса о целевой функции к выводу о необходимости разрабатывать слабый ИИ вообще весьма странен.

А это я вообще не понял — о чем Вы?
Область, относящаяся к помощи естественному интеллекту, называется Усилением Интеллекта (Intelligence Amplification). Это другая область, и в ней ставятся другие цели. Не надо навязывать цели одной области другой области.
Именно про усиление интеллекта я и говорю, и более того утверждаю — что только она и имеет смысл, в том время как «сильный ИИ» — детская блажь.
— нелепая причуда, прихоть :)
Продолжайте утверждать. Ваше право. Но поскольку вы перешли на неаргументированные и некорректные высказывания, то мы не видим смысла продолжать с вами обсуждения. Вполне ожидаемо, что вы напишите, что у нас просто нет контраргументов, но на троллинг и провокации мы не ведемся, поэтому просто подождем аналогичных вопросов от других и в корректной форме. А Винера все же перечитайте.
Да, какие аргументы — дайте мне хоть что-то, за что я мог бы зацепится… я то на вашей стороне — просто логика не позволяет мне с вами соглашаться…
Просто нет вообще оснований считать по другому. Это оракулы сильного ИИ — должны дать таким как я хоть какие то аргументы о полезности сего.
Таким образом, прежде чем заниматься «сильным ИИ» — нужно отдавать себе отчет — зачем? И по сравнению именно с усилением интеллекта.
Учёный никогда не спрашивает себя «зачем?». Зачем исследовать гидродинамику, когда есть электромагнетизм?

С практической точки зрения, СИИ пригодится для создания автономных систем. Добыча ископаемых на Юпитере, исследование океанского дна, военные применения.

СИИ сделает новые открытия, а усилитель лишь может быстро проверить гипотезы, но не создать принципиально новые (либо создать их по типовой схеме).
UFO just landed and posted this here
> Винер тогда был «оракулом сильного ИИ», поскольку рассуждал о проблеме задания безопасной целевой функции…

Ну тогда расскажите, или процитируйте его — в каком смысле он рассуждал о целевой функции, что-то я не помню, чтобы он хотел создавать «искусственный разум как самоцель».
Sign up to leave a comment.

Articles