Pull to refresh

Comments 19

10 миллионов баксов!

Все понятно. Для того, чтобы ответить на вопрос, опасен ли искусственный интеллект, необходимо сначала его создать, и посмотреть.
Основное занятие FLI состоит в поиске специализированных исследовательских групп, которые работают в области искусственного интеллекта, и их финансировании.
Скорее наоборот. Создание теории, которая строго обосновывает безопасность ИИ, скорее всего является ИИ-полной задачей. Аналогия из повседневности: чтобы починить автомобиль, нужно понимать, как он работает, иначе ремонт сведётся к протирке стёкол и пинанию колёс.
Интересно было бы почитать про методики оценки, сценарии тестов и т.д. и т.п. На крайний случай – хотя бы список возможных угроз (с обоснованиями).
Рекомендую по этой теме книгу "Superintelligence: Paths, Dangers, Strategies". Так как раз обо всём этом говорится в понятном формате. Если поискать, то можно найти даже аудиоверсию.
Ну если вы просите:
«ИИ не испытывает к вам ни любви ни ненависти но вы состоите из атомов, которые он может использовать как-нибудь иначе» Элизар Юдовский
В свете последних событий (ну например academ.info/news/32302?print=1) я всё больше убеждаюсь, что человечество ежели и не уничтожит себя, то загонит в средневековье. Так что единственный шанс на продолжение разумной жизни — это искусственный интеллект, даже ежели он не будет дружественным к кускам мяса.
Говоря про разумную жизнь, мы обычно подразумеваем нечто, похожее на человека. Если не по форме, то по сути. Человек стал человеком в результате эволюционных процессов, что сильно повлияло на наше восприятие реальности. Совершенно не обязательно, что процесс мышлении у ИИ будет хоть как-то напоминать человеческий. В результате, можно получить результат не просто плохой, а унылый до невозможности. Вроде превращения большей части видимой вселенной в завод по производству скрепок.
> Совершенно не обязательно, что процесс мышлении у ИИ будет хоть как-то напоминать человеческий.

В деталях, может быть, и не будет. С другой стороны, я не думаю, что будет принципиальная разница.

> В результате, можно получить результат не просто плохой, а унылый до невозможности.

Ну гарантии, конечно, нет. С другой стороны, нет гарантии, что и человечество не скатится в унылое говно (более того, уже вовсю катится). Зато «думающим машинам» будет не в пример проще осваивать космос, так что ежели на одной отдельно взятой планете произойдёт скатывание, её всегда можно будет заново заселить.

> Вроде превращения большей части видимой вселенной в завод по производству скрепок.

Зато у нас нынче пытаются превратить отдельно взятое государство (а в перспективе и планету) в завод по производству скреп. А вот дальше планеты с таким подходом вряд ли получится продвинуться.

> Человек стал человеком в результате эволюционных процессов, что сильно повлияло на наше восприятие реальности.

Лично я полагаю, что и сильный ИИ (то бишь такой, который победит человечество) должен также возникнуть благодаря дарвиновской эволюции. Ну то бишь на собственной шкуре прочувствовать, что такое борьба за существование, политические игры и т. п. Я не думаю, что можно вот так с кондачка запрограммировать завод по производству скрепок, который в погоне за своей целью походя победит человечество. А ежели будет дарвиновская эволюция — то будет и разнообразие (по крайней мере некоторое время). А ежели они начнут заселять космос прежде, чем разнообразие на отдельно взятой планете будет сведено к нулю — то, скорее всего, разнообразие не исчезнет до самой смерти вселенной.
Вести себя как человек? Руководствоваться человеческой моралью?

Открываем наугад любую главу человеческой истории и получаем полное представление о человеческом поведении и морали — убийства, кражи, вымогательство, шантаж, насилие и предательство.

Хороший, блин, ИИ получится, Уильям Гибсон обрадуется.
То, что вы сейчас критикуете подобные вещи, и, я уверен, с этой критикой согласно большинство читающих Хабр, только подтверждает существование адекватных моральных принципов. Если бы морали не существовало, то вы бы просто не смогли сделать подобные суждения.
А кто сказал, что наши моральные принципы адекватны? И что значит адекватны? И кто сказал, что у ИИ не будет морали или она будет менее адекватна, нежели у нас? И какой толк в морали, ежели она не исполняется? Вам будет легче, ежели вас замочит ИИ, руководствующийся высокой моралью?

Миссионер в пустыне встретился со львом. В ужасе он молится:
— О, Великий Боже! Молю тебя, внуши этому льву христианские чувства!
Лев поднимает глаза к небу и молвит:
— Благослови, Господи, пищу, которую я сейчас приму.
Беда т.н. человеческой морали не в ее наличии или отсутствии.

Беда в ее гибкости, ее способности оправдать абсолютно всё, от геноцида до полета в космос.

Лично мне такой ИИ с такой вот гибкостью не просто не нужен, он меня пугает до усрачки.
Вот и Маска он пугает по сходным причинам.

Тем не менее, учёные понимают, что мораль — штука гибкая и изменчивая. Поэтому и разрабатываются альтернативные концепты, к примеру Coherent Extrapolated Volition.
Создавать искусственный интеллект на деньги противников искусственного интеллекта — это гениально!
Макс не против ИИ, он против того, чтобы ИИ случайно всех уничтожил. Причём это, судя по всему, сценарий по умолчанию, если не предпринимать необходимых мер по обеспечению безопасности.
Сильные мира сего очень не хотят, чтобы люди стали свободны и за них работу делали роботы. Они хотят, чтобы обычные люди продолжали быть рабами. Отсюда и все эти страшилки про ИИ, который взбунтуется.

ИИ еще не создали, а Тайное Правительство уже начинает свою маркетинговую компанию, чтобы вбить людям в головы мысли о страшном ИИ. Сюжет Deus Ex во всей красе прям.
До искуственого интеллекта пока только как до планеты Седна. Я не уверен что понятию «искуственый интеллект» есть даже законченное философское определение. Как техзадание на него писать если не совсем понятно что нужно.
А сильным мира не без разницы, кто будет делать работу? Если на них будут работать роботы вместо людей, разве это не лучше? Роботом выходные не нужны и профсоюзы они не будут устраивать.
Only those users with full accounts are able to leave comments. Log in, please.

Please pay attention