Комментарии 32
Ну, а к тому времени как человечество сможет создать нечто настолько превосходящее среднего человека в интеллекте (напомню, что математические гении еще ни разу не захватывали мир), вырастет уже несколько поколений, живущих бок о бок с ИИ и пользующихся аугментациями.
Что касается времени и ресурсов — это вопрос более частного порядка. Если универсальные способы выявления и обобщения признаков мы уже нащупали, в общих чертах можно нащупывать и пределы действия.
Согласитесь: если холодильник сам заказывает продукты за вас, основываясь на всякой статистике вашего потребления, выясняя предпочтения и т.п., а дроны автоматически пополняют этот холодильник, вы постепенно превратитесь в корову, которая не думает, откуда сено и силос в ее кормушке… И так во всем: сначала мы забудем о необходимости управлять пылесосом, потом автомобилем, потом вообще о бытовых проблемах, очистим мозг от мыслей о здоровье… последним будет избавление от необходимости создавать ИИ…
Интересно, а чем тогда будет занят наш мозг?! о чем думать-то? Я не верю в мир поющих, танцующих и музицирующих поэтов-художников, поэтому не принимаю утверждения о том, что свободный от бытовых и технических забот человек будет развиваться духовно и культурно…
Я уверен, что если лишить человека забот, он выродится в животное (если, конечно, вообще уцелеет, как вид). Вопрос только в том, какие именно мотивы смогут убедить ИИ (я использую человеческие понятия) поддерживать существование популяции человеческих особей в этом дивном мире…
Я не верю в мир поющих, танцующих и музицирующих поэтов-художников, поэтому не принимаю утверждения о томВерьте во что хотите, только не проецируйте это на остальных.
Как-то смысл фраз текста статьи от меня ускользает, так что буду комментировать заголовок.
Есть (весьма обоснованные) опасения, что «основное свойство» «универсального ИИ» заставит его не захватить человечество, а максимизировать свою функцию полезности, не заметив человечество.
The optimistic utopianism of Warhammer 40,000: In the grim darkness of the far future, there is something other than paperclips.
(@ESYudkowsky)
Ой, я забыл, что твит можно напрямую вставлять (отредактировать не могу):
The optimistic utopianism of Warhammer 40,000: In the grim darkness of the far future, there is something other than paperclips.
— Eliezer Yudkowsky (@ESYudkowsky) 21 апреля 2016 г.
На данный момент гораздо более вероятно, что их будет создано несколько в разных странах и с разным, так сказать, психологическим уклоном. И оптимизировать скорее всего он будет не мало кому интересную толпу, а взаимоотношения с другими странами. Чем чёрт не шутит — в том числе и за счёт людей. Этакое индивидуализированное СМИ. И вот чем закончится схватка двух (3х, 4х?) якудзун в таком случае уже угадать гораздо сложнее. Одна «удачная» ошибка и всё может пойти в разнос.
Но если серьезно, то физический контроль над ресурсами не менее важен, чем наличие сильного интеллекта. Кроме мегамозга нужны также мегаруки и меганоги, одной манипуляцией не обойтись.
Кроме того, не может что-то возникнуть из ничего и при этом мгновенно. Даже в виртуальном мире для этого требуются ресурсы, про реальный мир и говорить нечего. Ну представьте, что робомобили сошли с ума. У человека есть возможность физически заблокировать автомобиль, выдернуть из него все мозги нахрен и перевести на ручное управление. 100500 робокопов будут патрулировать улицы? Им нужна энергия, связь, работающие датчики. Беспилотники летают? Их уже научились перехватывать и уничтожать. Законы физики ИИ изменить все равно не может.
Собственно предыдущий комментарий был про ресурсы. Если есть завод который производит необходимую или примерно подходящую технику и есть над ним тот или иной контроль, то что мешает разместить заказ на (доработанную) технику? Всё, что нужно в современном мире уже кто-то делает. И, кстати, очень часто как раз роботы же и делают. Задача лишь найти его и получить то, что нужно. Роботизированные склады и (в перспективе) роботизированные грузовики в помощь.
А на счёт робомобилей — был такой старый советский мульт про танк (кстати даже не интеллектуальный вроде, на голых рефлексах работал). «Полигон» назывался. Роботизированные бульдозеры и прочую строительную технику тоже не так то просто заблокировать. А про роботизированные карьерные самосвалы (вроде как уже действующие модели есть) на 600+ тонн я вообще молчу.
Распределением энергии сейчас тоже ведает автоматика, так что неизвестно ещё кто кому её отключит. Попробуйте голыми руками остановить хотя бы маленький Smart (ну разве что завалить дороги деревьями. но есть ведь упомянутая выше строительная/сельскохозяйственная техника, да и грузовики небольшой завал могут распихать). Напомню так-же про робозаправки от Теслы (кажется).
Беспилотники перехватывают тоже не палками в них кидая (хотя были прецеденты). Это делает либо другой беспилотник, либо умная система с земли. Контролируемая компьютером, да.
Я ни в коем случае не призываю к отказу от исследований и разработок. Просто стоит учитывать, что там всё далеко не так просто и однозначно как кажется. А так кто знает, может в конечном итоге из АИ выйдет больше толка, чем из нас. По крайней мере он не будет ограничен физической эволюцией и в перспективе сможет развиваться… Да невозможно пока предсказать, до чего.
Например какие технологии стоит учитывать на тот момент? Сверхёмкие батареи/генераторы/солнечные панели и вот рубильник уже мало эффективен. А есть ещё дизель/бензо/ветро/водородные и даже дровяные генераторы. Стратегический ии запасётся всем перед войной.
Про перехват/сбивание я уже писал, и это были тупые беспилотники. Они этому *пока* никак не сопротивляются. Немного интеллекта, чтобы заметить попытку подмены GPS и уже не угонишь. Умение уворачиваться и хрен собьёшь. Кстати тот же Solar Impulse хороший пример. Ему пофиг и рубильники, и сбить его тупой системой с земли практически нереально. Высоковато. Только за мозгами дело стало.
Доставку грузов летающими беспилотниками тоже уже тестируют, там затор сложнее организовать.
А мир давно уже к тому и идёт, чтобы всё доверить автоматике. Просто она пока не слишком интеллектуальна. Собственно тут уже не раз были статьи про взлом систем электро/водо снабжения. Про атомные реакторы, вроде бы пока не было ничего, но тут скорее заслуга в том, что их сейчас не слишком активно строят. В основном в ходу старые, которые взломать проще кувалдой, чем через сеть. А так — достаточно представить, что станет с крупным городом при полном отключении электричества и воды. Особенно в подходящий сезон.
А вообще изначально тред был не про войну с людьми, а про возможный конфликт между странами, который может намеренно или даже случайно организовать один или несколько ИИ собственными силами.
С сильным ИИ с позитивной обратной отдачей всё не совсем так, как вы описали. Не так:
Одна «удачная» ошибка и всё может пойти в разнос.
А так: он гарантированно пойдёт в разнос и прибьёт нас всех если не убедится в обратном очень тщательно. Причём как это сделать — мы не знаем, если я всё правильно понимаю.
И снова сошлюсь на Элиезера.
Опять же, не так. Ему не надо ошибок — с любой функцией полезности, которую вы сможете придумать, он пойдёт вразнос. Для любой функции полезности, которую вы сможете описать, оптимальный вариант будет включать убийство всех человеков или другие аналогичные негативные последствия. Ему не надо быть «злым», ему не надо «хотеть» убить всех людей — он это сделает просто потому, что запрограммирован без учёта человеческих моральных норм.
Ожидать от оптимизирующего агента поведения как от человека — примерно так же глупо, как винить компьютер в том, что он вас не понимает и делает не то, что вы от него хотите.
Наиболее популярный пример — сильный ИИ, максимизирующий количество произведённых скрепок (на заводе, например). Ну он и максимизирует.
И да, ограничения, наложенные на систему, не особо помогут в общем случае — как вы правильно заметили, оптимизирующий агент просто их обойдёт — человеческие ценности или их подобие должны быть неотъемлемой составляющей функции полезности, чтобы система не пошла вразнос. А мы сейчас вообще даже не знаем, как их формализовать, понимаете?
Пример со скрепками — сферический конь в вакууме. Всё-таки в контексте статьи подразумевался глобальный (как минимум на уровне региона) ИИ, для которого скрепки — лишь микроскопическая часть задачи. А это как раз скорее пример из некогда бывшего у нас подхода: произведём как можно больше, выполним и перевыполним план! И пофиг, что никому они не нужны.
Может я не самого высокого мнения о человечестве, но ценностей там по факту не очень много. Библия, помнится, вообще ограничивалась десятью заповедями. Формализовать можно просто более жесткими ограничениями. Например все потенциально опасные операции должны обязательно быть подтверждены самим человеком или уполномоченными на это лицами (как в медицине, например, пациент или родственник даёт согласие на любые действия врача). Не отключаемо. Т.е. если человек хочет прыгнуть со здания, то только подтвердив своё желание он сможет это сделать. И да, я знаю что даже обычный приём пищи потенциально опасен (подавиться можно или отравиться). Отделять то, на что стоит реагировать от того, на что не стоит — решается обычным обучением, как у любого ребёнка.
Нет, при активном и преднамеренном вредительстве это тоже вряд-ли поможет, но как минимум сможет
1. свести вред к минимуму.
2. даст время понять, что что-то идёт не так до того, как система пойдёт вразнос.
Ну и человеческие ценности сами по себе весьма противоречивы. На столько, что люди сами часто не могут в них разобраться.
Банальный пример: убийство это плохо? А эвтаназия?
Хм… Даже если эта функция — поддержание определённой популяции в определённых условиях с удовлетворением определённых потребностей?
Безусловно. У машины нет интуитивного понимания человеческих ценностей, она даже не оперирует тем же языком и понятийным аппаратом, что и вы. Надо всё это формализовать так, чтобы машина делала именно то, чего вы от неё хотите, и оперировала с человеческими понятиями и ценностями — и это обязательное условие того, чтобы катастрофы не случилось.
поддержание определённой популяции
Убивать всех по выходу из репродуктивного возраста — расходуют ресурсы, неоптимально. Или вообще клонировать. Ещё раз напомню — человеческих ценностей у агента нет, только формальные критерии.
определённых условиях
И ничего другого у вас не будет с целью экономии ресурсов для максимизации функции полезности по времени. А что-то вы забудете.
удовлетворением определённых потребностей
В зависимости от того, как формализуете — что угодно, от виртуальной реальности до седативных или даже мозг, банка, электроды.
Убивать всех по выходу из репродуктивного возраста — расходуют ресурсы, неоптимально. Или вообще клонировать. Ещё раз напомню — человеческих ценностей у агента нет, только формальные критерии.Если репродуктивный заменить на пенсионный, то это даже что-то немного напоминает. Убивать, кстати, тут неэффективно. Проще поддерживать взрослую особь, она менее требовательна к обслуживанию. А заменять только когда поддержание жизни становится дороже обновления. Клонировать с технической точки зрения мне кажется тоже не самым эфективным решением. Зачем тратить ресурсы на техпроцесс когда они и сами неплохо и даже с удовольствием воспроизводятся?
В целом согласен, на автопилоте нагородить может много (с этого мы, в общем то, и начали). Однако, в принципе, мне кажется, тут решает не формализация а обучение. Ну и возможность принудительно в любой момент взять контроль в свои руки. Главное, чтобы было кому взять контроль до того, как люди превратятся в овощи.
Проблема в том, что не человек формализует, а алгоритм глубокого обучения. Кластеризацией. Оптимизацией выявляемых признаков.
И трассировка всех обнаруженных признаков и обобщений в большинстве реальных ситуаций — просто невозможна.
В нейронную сеть (или семантическую базу, выведенную алгоритмом машинного обучения) нет внятного способа встраивать ограничения.
вернее смогут посмотреть не только лишь все
самая творческая и замысловатая прокрастинация на хабре, которую встречал в первой декаде августа 2016
Во-первых, я бы написал, что подразумеваю под универсальным ИИ. Есть довольно чёткое формализованное определение и общедоступные тестовые стенды.
Во-вторых, я бы написал подробнее про управляющий цикл. Чем ИИ управляет напрямую, независимо от уровня интеллекта? Как именно рост интеллекта будет приводить к тому, что ИИ управляет чем-то ещё, чем-то неожиданным?
В-третьих, без hard take-off сценарий более-менее быстрого захвата мира одним ИИ — это… Ну, довольно сомнительно. А hard take-off не гарантирован. Это один из сценариев, и не факт, что достаточно вероятный.
С уважением
Как и почему основное свойство универсального автономного искусственного интеллекта заставит его захватить человечество?