Pull to refresh

Comments 21

Отличное начало! Но ответа, как же программа начнет думать «зачем?», не нашел. Если смотреть со стороны программы, то первый ее ответ на «зачем?» будет " не зачем" и ни одна программа не будет выполняться. В живом организме есть еще набор стимулов (поесть), инстинктов (предопределенное поведение) и особенно у молодых сложных организмов — любопытство, которое влечет сложное развитие.

С моей точки зрения неправильно не называть «живым» компьютер, потому что модель поведения гриба или инфузории, он вполне может смоделировать, а следовательно со стороны наблюдателя он будет «живым». Проводились ли какие-то похожие исследования?
Последовательно снизу вверх:
1. Модель поведения построить можно, но точность этой модели будет слишком невелика (вижу в бронзе простенькую попытку моделирования поведения трехмерной молекулы ДНК).
2. Вот об этом я и говорю — достаточно развитый живой организм изначально воспринимает себя как «ценность» и следовательно может определять, что хорошо или плохо для него самого, а не для программиста. Так родители, например, могут считать, что для ребенка хорошо закаляться, и будут поливать его холодной водой. А ребенок будет с ними категорически несогласен, будет визжать и упираться :)
3. Со стороны программы (алгоритма) вопрос «зачем» никогда и не прозвучит. Именно поэтому программирование эмоций невозможно. Максимум — удачная эмуляция.
> Именно поэтому программирование эмоций невозможно. Максимум — удачная эмуляция.

«Эмоциональная китайская комната» (с) :)
единственное, чего она при этом будет «хотеть», в чем будет смысл ее существования – это выполнить саму себя
Программе было совершенно все равно, выиграет он или нет, а победа или поражение не представляло для нее (программы) никакой ценности.

Ну, а если мыслить шире? Например, прекращение выполнения — это условная «смерть». И цель программы — выполняться как можно дольше и как можно успешнее. Введя абстрактное понятие «успешность» (для конкретной субпрограммы — тот же выигрыш в шахматы), мы можем задать программе цели, и она будет им следовать. При завершении всех этапов достижения успешности, программой выполняется её миссия («смысл жизни»), и она опять задаётся филосовским вопросом (или задаёт его создателю), в чём же этот смысл дальше? И так далее… Это сложно, но реализуемо.
Парсер не прожевал первую цитату…
Если она за ответом будет обращаться к создателю — это всего-лишь будет означать, что создатель работает «внешними эмоциями» для программы. Кто же спорит, многие люди эмоции испытывают.

А вот как вы себе представляется «задавание философским вопросом» на уровне алгоритма, для меня загадка.
Упрощаете.

Условно говоря, представим себе программу, работающую на java или другом языке с асинхронным GC.

Вы запускаете программу, которая хочет что-то сделать. Внезапно у неё появляется новое «желание», которого не было у программиста, который эту программу писал — «заняться чисткой». При первой возможности (или вообще вместо полезной программы) система начинает заниматься своими собственными интересами.

Если мы расширим конструкцию целиком на систему, то сложность ещё до организма не дотягивает, но уже близко. Вот системе захотелось посмотреть, нет ли чего новенького в апдейтах — в результате она чем-то там шуршит, что-то качает, и даже «отвлекается на всякую ерунду».

Если самодиагностика системы в порядке, то можно вполне себе представить стрессовую реакцию с её визуальным проявлением: не хватило памяти, начали свопиться, своп привёл к затенению sas-канала, что заставило рейд посчитать, что диск вышел из строя, он начал срочно ребилдиться… Чем не реакция организма на дырку в левом боку, или там, резкую нехватку воздуха?

Собственно, уже давно можно считать, что у систем есть поведение, которое не планируется в запускаемой программе, и которое нужно учитывать для адекватного получения результата.

Ну а что эти эмоции не похожи на человеческие… Давайте начнём с эмоций, например, амёбы.
Что считать разумом? Если предположим сделать идеальную машину которая полностью повторяет действия обезьяны можно считать её разумной? Она будет создавать видимость эмоций, радости — но при этом оставаться машиной. Это очень сложный вопрос и я думаю на него нет простого ответа.

Поэтому при разработке программы на мой взгляд самое лучшее это не в даваясь в подробности просто описать все возможные ситуации. Человек невольно будет одушевлять её видя какие-либо сходства с живым существом.
Способность человека одушевлять все подряд весьма и весьма велика :) Поэтому удачная эмуляция эмоционального поведения, конечно, возможна и будет восприниматься как прогресс в создании ИИ.

Если же говорит про разум у живых существ, то разум абсолютно не отделим от этого самого существа. То есть разум это свойство живого организма целиком, а отнюдь не совокупности электронных импульсов в нейронах.
Чего только не придумают быдлокодеры, лишь бы просто не решить поставленную задачу. Без свистелок, без перделок, без жоповытиралок и прочих анимаций и глянцевых закруглённых уголков.
Вы что-то путаете.
Не надо мистики. Эмоции — это всего лишь индикаторы. Положительные эмоции означают правильное выполнение программы, отрицательные — неправильное. Причем эти правльность и неправильность весьма условны. Технически эмоция — всего лишь уровень определенных гормонов. То есть эмулируется эмоция попросту переменной-счетчиком или функцией от каких-либо важных параметров. Именно так работают генетические алгоритмы — ключевой параметр мотивирует выбирать наиболее подходящий вариант.

А еще не надо путать эмоции с физиологическими нуждами. Голод — не эмоция, но «кушать хотелось» вполне тянет на ответ «зачем». Но при том голод — банальный сигнал о нехватке в организме определенных веществ.

По сути, все «зачем» человека сводятся к тому же «желанию» заложенной в ДНК программы выполниться.
Не забывайте, что верно одновременно два высказывания:
«Гормоны управляют эмоциями»
«Эмоции управляют гормонами»
Не пойму. Какое отношение эмоции имеют к интеллекту, тем более искусственному? Эмоции — чисто животное явление, на 100% обусловленное нуждами тела, а не разума.
Будет «тело» — будут и эмоции. Нет «тела» — нет эмоций, хотя интеллект вполне может присутствовать.
А как вы себе представляете интеллект без мотивационно-волевой и эмоционально-чувственной сферы? Как совершенно верно написал vics001 — как только такая программа задумается о том, «зачем она существует» — она поймет, что «незачем» — и прекратит свое выполнение.
Не обязательно упираться в персональный интеллект, эмоции — элемент социального.

«для того, чтобы чувствовать» — если рассматривать эмоции как источник информации(некий аналог оракула для машины Тьюринга), то стремление чувствовать — частный случай стремления познания.
Вопрос «зачем» и так входит в код программы.

У нас был недавно случай, когда заказчик захотел логировать любые действия пользователя. Это нормально. Ненормально, что он в логах еще захотел, чтобы указывалась причина действий пользователя.
Эта штука должна быть в коде выражена. Грубо говоря, зачем он что-то делает, исходит прямо из места в ГУИ, где он находился, когда выполнял действие. Т.е. он делает всегда то, что позволяет программа. А значит, если он находится в каком-то месте, то это и надо логировать.
Если же делать окошко, где он выражает свои причины, почему так поступает — это говорит о том, что логика приложения не доработана. Что часть логики выносится на пользователя. И смысла в этом особого нет, т.к. причины могут быть любые и с ними потом нельзя проводить никаких операций. Их нельзя сортировать, делать осмысленные выборки в рамках описания самой системы.

Так что не надо фантазировать на счет того, что должна знать программа по поводу причин пользователей. Пользователь делает с программой то, что она позволяет. Как задумал программист. Вне этого ничего и не должно быть. Никаких больше догадок выносить за пределы логики программы нельзя.
Было бы неплохо эти самые эмоции перечислить: любовь-ненависть, гнев-уверенность-страх, вина-справедливость-обида, удовлетворение-комфорт-страдание, удивление-знание-разочарование…
Как любая классификация она не будет описывать все варианты, но если говорить про базовые эмоции, то это: гнев, горе, страх, отвращение, восторг, блаженство, интерес и гордость. Иногда блаженство и восторг объединяют в радость, иногда вместо интереса дают удивление, но это скорее методические сложности. Предполагается, что остальные эмоции являются или оттенками базовых (напр. Ярость, бешенство, злость, раздражение — это гнев разной силы и активности) или же смесью в разной пропорции нескольких базовых (напр. Восхищение — это смесь восторга и интереса). Каждая эмоция н только сопровождается коктейлем гормонов и ферментов, но и приводит к серьезным изменениям в работе всей нервной системы — изменению восприятия, мышления и поведения. Тот же гнев, например, приводит к резкой недооценки рисков, и то поведение которое раньше было невозможным — реализуется.
Значит, есть базовые и высокоуровневые. Осталось только описать последние в терминах первых.
Мир вам, программы!
Уж больно тема навеяла сюжет из TRON.
Sign up to leave a comment.

Articles