Всем привет!
Выдался у меня свободный час, прочитал на Хабре интервью с Николаем Николаевичем Горькавым о ИИ и его перспективах, и захотелось задать Николаю Николавичу и остальным читателям (и особенно писателям!) несколько вопросов. Зарегистрировался на Хабре, но оказалось что до написания комментариев еще не дорос. Поэтому пишу пока в «песочнице» в виде отдельной статьи.
Признаюсь, что сам в свое время начинал писать ИИ. Но потом подумал, и отложил проект в архив. Почему? Да потому что тут как у сапера, до второй ошибки можно и не дожить. Слишком большая ответственность и неясные для человечества перспективы. (Да, да, я параноик, у админов это профессиональное).
Итак, предположим что ИИ создан.
1. Человек как биологическая система имеет ограничения. Например по быстродействию, по количеству оперируемых сущностей. Поэтому ИИ на электронной основе наверняка превзойдет по всем параметрам наш с вами «обычный» БИ (интеллект на био-платформе). Законы Азимова скорее всего не сработают. Думаю об этих законах никто даже и не озаботится при создании ИИ, по крайней мере я пока не встречал в описаниях текущих реализаций ИИ упоминаний на что-то подобное. А сработает скорее всего старый добрый закон выживания. В результате мы получили себе на голову тест на «стабильность мироздания». Какие на Ваш взгляд шансы у человечества? Это ведь не киношный терминатор с матрицей, «горшочек-не-вари» в исполнении Б.Виллиса может и не сработать…
2. Предположим что каким-то образом все-же удалось обуздать стремление ИИ к самосуществованию. Например физически связав его с обслуживаемым БИ, без возможности отделения. Возможности ИИ огромны, человек своим примитивным БИ не может их осознать, может ими только пользоваться. И вот, для человечества наступил бриллиантовый век. Каждый человек получил индивидуальную виртуальную вселенную с безграничными возможностями. Что дальше? Исчезают мотивы к развитию БИ, и через пару поколений мы имеем человество в виде бесполезного жвачного балласта под ИИ. Вы не боитесь такой перспективы?
3. Теперь рассмотрим вариант, когда все проблемы разрешимы, и существование БИ в симбиозе с ИИ возможно.
Шанс самостоятельного возникновения интеллекта и жизни вообще очень мал. Зато как только жизнь развилась, сразу же начинает сеять вокруг себя доброе-вечное по своему подобию и в меру возможностей. Это следствие закона выживания. Можно даже считать это уровнем развития интеллекта. Наше развитие пока на уровне запуска Симсов)
Так вот. Вероятность того что нас «запустили» намного больше вероятности того что мы самовозникли самыми первыми. В этом случае целью нашего существования может быть описанное Николаем Николаевичем обустройство чьего-то быта. Хотя это конечно маловероятно. скорее нас «запустили» для развлечения одного из «жвачных». А запуск нами ИИ — это между прочим следующий шаг в рекурсии. Кто может поручиться что этой операцией мы не выйдем за пределы заданных граничных условий?
Мы люди, в силу своей биологической природы не можем быстро рассчитать прогноз надолго вперед, поэтому для решения своих проблем на всякий случай выбираем самыетяжелые предметы сильные средства. Понятно зачем нужен ИИ военным и политикам. А вот зачем он нам, разработчикам? Прежде чем нажимать «ключ на старт», хорошо бы выяснить что и для чего мы делаем.
Выдался у меня свободный час, прочитал на Хабре интервью с Николаем Николаевичем Горькавым о ИИ и его перспективах, и захотелось задать Николаю Николавичу и остальным читателям (и особенно писателям!) несколько вопросов. Зарегистрировался на Хабре, но оказалось что до написания комментариев еще не дорос. Поэтому пишу пока в «песочнице» в виде отдельной статьи.
Признаюсь, что сам в свое время начинал писать ИИ. Но потом подумал, и отложил проект в архив. Почему? Да потому что тут как у сапера, до второй ошибки можно и не дожить. Слишком большая ответственность и неясные для человечества перспективы. (Да, да, я параноик, у админов это профессиональное).
Итак, предположим что ИИ создан.
1. Человек как биологическая система имеет ограничения. Например по быстродействию, по количеству оперируемых сущностей. Поэтому ИИ на электронной основе наверняка превзойдет по всем параметрам наш с вами «обычный» БИ (интеллект на био-платформе). Законы Азимова скорее всего не сработают. Думаю об этих законах никто даже и не озаботится при создании ИИ, по крайней мере я пока не встречал в описаниях текущих реализаций ИИ упоминаний на что-то подобное. А сработает скорее всего старый добрый закон выживания. В результате мы получили себе на голову тест на «стабильность мироздания». Какие на Ваш взгляд шансы у человечества? Это ведь не киношный терминатор с матрицей, «горшочек-не-вари» в исполнении Б.Виллиса может и не сработать…
2. Предположим что каким-то образом все-же удалось обуздать стремление ИИ к самосуществованию. Например физически связав его с обслуживаемым БИ, без возможности отделения. Возможности ИИ огромны, человек своим примитивным БИ не может их осознать, может ими только пользоваться. И вот, для человечества наступил бриллиантовый век. Каждый человек получил индивидуальную виртуальную вселенную с безграничными возможностями. Что дальше? Исчезают мотивы к развитию БИ, и через пару поколений мы имеем человество в виде бесполезного жвачного балласта под ИИ. Вы не боитесь такой перспективы?
3. Теперь рассмотрим вариант, когда все проблемы разрешимы, и существование БИ в симбиозе с ИИ возможно.
Шанс самостоятельного возникновения интеллекта и жизни вообще очень мал. Зато как только жизнь развилась, сразу же начинает сеять вокруг себя доброе-вечное по своему подобию и в меру возможностей. Это следствие закона выживания. Можно даже считать это уровнем развития интеллекта. Наше развитие пока на уровне запуска Симсов)
Так вот. Вероятность того что нас «запустили» намного больше вероятности того что мы самовозникли самыми первыми. В этом случае целью нашего существования может быть описанное Николаем Николаевичем обустройство чьего-то быта. Хотя это конечно маловероятно. скорее нас «запустили» для развлечения одного из «жвачных». А запуск нами ИИ — это между прочим следующий шаг в рекурсии. Кто может поручиться что этой операцией мы не выйдем за пределы заданных граничных условий?
Мы люди, в силу своей биологической природы не можем быстро рассчитать прогноз надолго вперед, поэтому для решения своих проблем на всякий случай выбираем самые