Вообще я думал практически о том же о чем вы говорите. Но судя по комментариям к статье это можно сказать точнее :)
К тому, что вы говорите, я бы добавил что, мы скорее всего сможем управлять величиной подкрепления и условно его знаком. Поэтому ситуации которые формируют у людей страх смерти для ИИ можно сделать не такими интенсивными и за счет этого поднять приоритет других мыслей в его «сознанни»
Ну кстати технически это все лишь возбужденные нейроны у нас в головах. Возможно нам не хватает какого-то значительного пересмотра того что мы знаем о нас самих чтоб создать ИИ. И эмоции вполне могут выпасть из уравнения.
Например если они лишь часть сознания и нужны только для объяснения происходящего но подсознание решает что делать без них.
Абсолютно с вами согласен. ИИ сам по себе не будет никого уничтожать, как и распад ядер урана. Но могут найтись те кто захочет использовать его во вред и угроза в данном случае это люди а не ИИ. Если не ИИ то ядерное оружие или новый вирус.
Вообще я больше верю навигатору яндекса, чем таксистам, которые иногда его игнорируют. Поэтому я верю в то что ИИ сможет как навигатор — направить людей на более конструктивный путь.
Про баги абсолютно согласен! Хотел посвятить этому абзац но совсем забыл про него, спасибо за напоминание! В целом в статье хотел порассуждать только об одном из возможных сценариев бунта ИИ, думаю это надо как-то явно было обозначить.
Это потянет даже на сошедшего с ума человека :) Т.к. если воспитать диктатора с ненавистью к окружающему миру он будет вести себя довольно деструктивно. Так что думаю этой же проблеме будет подвержен и ИИ
Я вообще надеюсь что тут будет как с птицами и самолетами. Мы вдохновились тем как птицы летают, но у самолетов нет кровеносной системы, они не едят мух и вообще внутри устроены совсем подругому.
Думаю что понимание принципов работы мозга позволит нам уйти от биологических ограничений.
Мне кажется, даже человеческий интеллект решает этот вопрос по разному, в разных ситуациях. Какие-то страны жертвуют благом выборочных людей, ради блага страны, а какие-то наоборот, потакают всем подряд в ущерб своей сверхдержавности.
Да, от игр можно сильно возбудиться, тут вы правы :)
Моя мысль была про то что в играх мы убиваем сотни людей, в реальной жизни убийство даже одного человека может быть тяжелым событием. Когда наша девушка из игры умирает, это не вгоняет нас в депрессию на пол года.
Я поэтому написал про «скучные» игры но думаю стоит раскрыть этот вопрос по шире.
Если честно, я бы хотел увидеть хотя бы недочеловеческий ИИ :)
GPT-3 может сделать целые статьи, но вот моя кошка узнает меня, может попросить еды, может открыть дверь в туалет и она как-то научилась этому сама. И такое поведение мы все еще не способны воспроизвести. Что кстати наводит на вопрос — что такое минимальный интеллект? Какая система будет считаться хоть и тупым но интеллектом?
Современный ИИ не может обучаться на ходу или подстраиваться под окружение. То что есть сейчас решает «интелектуальные» задачи но это ясно не интеллект.
Есть исследования которые утверждают что даже люди иногда придумывают объяснения своим поступкам:
Был пациент с травмой мозга — его полушария были разьеденены. Правое полушарие отвечало за речь, но левое полушарие все еще получало информацию от одного из глаз. Так вот, немому полушарию показывали порно картинку, из за чего мужик смеялся. Когда его спрашивали — почему вы смеетесь, отвечать должно было полушарие которое не видело картинку, и оно выдумывало объяснение, кружка на столе показалось смешной или прическа лаборанта или что-то еще.
Вполне возможно мы переоцениваем нашу возможность давать объяснения нашим поступкам.
Согласен что, без реальных фактов это все мнения :) Только реально работающий ИИ покажет что из этого факты.
Даже создав ИИ мы вероятно не будем в точности понимать, как он работает.
Мы не понимаем как работает наш интеллект и поэтому не можем его воспроизвести, но надеюсь в какой-то момент все изменится.
Как ребенок, в определенном возрасте проверяющий «на прочность» родителей, дабы понять пределы поведения.
Навело меня на мысль о том что, машине можно будет имплантировать искусственное воспоминание о том как она убила родителей и как плохо ей после этого было. Что-бы больше она этого не делала.
К тому, что вы говорите, я бы добавил что, мы скорее всего сможем управлять величиной подкрепления и условно его знаком. Поэтому ситуации которые формируют у людей страх смерти для ИИ можно сделать не такими интенсивными и за счет этого поднять приоритет других мыслей в его «сознанни»
Например если они лишь часть сознания и нужны только для объяснения происходящего но подсознание решает что делать без них.
Как например в случае с ядерным оружием, технологию можно использовать для электричества или для убийства людей.
Примеры которые вы привели на много более реалистичные и их уже сложней опровергнуть.
Возможно мы сможем сделать ИИ который будет гуманистом и который сможет направлять действия людей в конструктивное русло.
Люблю такие рассуждения о том насколько «бездушным» может быть ИИ. Но думаю такой подход к решению задач не станут реализовывать.
Думаю что понимание принципов работы мозга позволит нам уйти от биологических ограничений.
Моя мысль была про то что в играх мы убиваем сотни людей, в реальной жизни убийство даже одного человека может быть тяжелым событием. Когда наша девушка из игры умирает, это не вгоняет нас в депрессию на пол года.
Я поэтому написал про «скучные» игры но думаю стоит раскрыть этот вопрос по шире.
GPT-3 может сделать целые статьи, но вот моя кошка узнает меня, может попросить еды, может открыть дверь в туалет и она как-то научилась этому сама. И такое поведение мы все еще не способны воспроизвести. Что кстати наводит на вопрос — что такое минимальный интеллект? Какая система будет считаться хоть и тупым но интеллектом?
Был пациент с травмой мозга — его полушария были разьеденены. Правое полушарие отвечало за речь, но левое полушарие все еще получало информацию от одного из глаз. Так вот, немому полушарию показывали порно картинку, из за чего мужик смеялся. Когда его спрашивали — почему вы смеетесь, отвечать должно было полушарие которое не видело картинку, и оно выдумывало объяснение, кружка на столе показалось смешной или прическа лаборанта или что-то еще.
Вполне возможно мы переоцениваем нашу возможность давать объяснения нашим поступкам.
Мы не понимаем как работает наш интеллект и поэтому не можем его воспроизвести, но надеюсь в какой-то момент все изменится.
Навело меня на мысль о том что, машине можно будет имплантировать искусственное воспоминание о том как она убила родителей и как плохо ей после этого было. Что-бы больше она этого не делала.