Pull to refresh

Comments 14

Утверждается, что в качестве проверки работоспособности идеи уже был произведен тест — ИИ на симуляторе подали случай замерзания измерительных приборов самолета. В реальном полете человек двадцать минут набирал и терял высоту, разбираясь в ситуации, а IBM Watson успешно нашел место аварии и сообщил об этом. Сейчас ведутся работы по разработке кабинного интерфейса, чтобы встроить систему в существующий кокпит. Также IBM Watson учат понимать еще и радиопереговоры.


Памятник погибшим в катастрофе рейса 301 Birgenair


Рейс 310 упал через 5 минут после взлета и не из-за замерзания измерительных приборов самолета. КПДВ — вещь хорошая, но она должна бы быть в тему.
А с чего вы взяли, что IBM Watson в качестве примера привели катастрофу рейса 301? Наверняка это была другая история, судя по описанию, закончившаяся благополучно. Катастрофы рейсов 301 и 603 приведены здесь в качестве пояснения, к чему могут привести ошибки подобного рода.
а другой экземпляр отправился на пять лет в Австралию работать в сфере нефте- и газодобычи — крутить вентили и определять утечку газа

С этими большими корпорациями всегда так. Сначала обещают в космос отправить, а потом обнаруживаешь себя в какой-то шахте и без права разрывать контракт.

Никогда такого не было, и вот опять!
Сказал боцман прикладывая палец мертвецки пьяного горожанина к договору на должность матроса.
Это же надо будет либо на самолет отдельный сервер ставить с ватсоном, либо протягивать толстый канал связи, по которой отдавать ему телеметрию…
Сдается мне, что там будет адаптированная под конкретно эту задачу меньшая система.
— Открой дверь модульного отсека, Хэл
— Извини, Дэйв. Боюсь, что я не смогу этого сделать
Вы еще вспомните «Дознание пилота Пиркса», где ИИ хотел власти над миром и подстроил аварию. Как минимум один ответ на это еще Азимов придумал, а человечество отличается умом и сообразительностью. Не то, чтобы опасности не было, но сдается мне, что это больше страхи, чем реальная угроза.
Перечитайте книгу. О власти над миром там речи не шло: он не хотел, чтобы его пустили в серию, т.к. это сделало бы его рабом, и одновременно он не хотел оказаться хуже человека (не помню, по каким соображениям). Цель была — оказаться негодным для серийного производства из-за превосходства над человеком по выдерживаемой перегрузке.
Вот прямая цитата из письма, которое получил Пиркс
Я задумывался над тем, что дала бы мне власть. Очень мало, ибо невелика честь господствовать над такими существами, хотя это и больше, чем ничего. Разделить вашу историю на два куска – до меня и начиная с меня, – изменить ее совершенно, разорвать на две не связанные части, чтобы вы поняли и запомнили, что сами же наделали, когда создали меня, на что замахнулись, замыслив изобрести покорную человеку куклу, – это будет, я полагаю, неплохая месть.
Поймите меня правильно: я отнюдь не собираюсь стать каким-то тираном, глумиться, уничтожать, вести войны. Ничего подобного! Я добьюсь того, что задумал, не насилием, а полной перестройкой вашего общества, так, чтобы не я и не сила оружия, а сама ситуация, будучи однажды создана, понуждала вас к поступкам, все более согласующимся с моим замыслом. Ваша жизнь станет всемирным театром, но ваша роль, однажды навязанная вам, станет постепенно, как это всегда бывает, вашей второй натурой, а потом вы уже не будете знать ничего, кроме своих новых ролей, и только я один буду зрителем, который понимает происходящее. Всего лишь зрителем, потому что вам не выбраться из ловушки, лишь бы вы ее построили собственными руками, а уж тогда мое активное участие в вашей переделке будет закончено. Вы видите, я откровенен, хотя и не безумен, поэтому я не расскажу вам о своем замысле; его предварительное условие состоит в том, чтобы планы электронных фирм были похоронены, и вы мне в этом поможете.
Был не прав. Видимо, спутал письма двух членов экипажа. А соображения про способ оказаться негодным — самого Пиркса.
В обоих случаях система искусственного интеллекта, которая смогла бы определить отказавшую систему и сообщить, показаниям каких приборов можно доверять, могла бы предотвратить катастрофу.

Строго говоря, в случае со сломанным ПВД, система естественного интеллекта совершенно так же могла бы определить отказавшую систему и предотвратить катастрофу.
Это какая-то маркетинговая уловка — презентовать нерепрезентативную статистику как доказательство ненужности саписенса.
Сколько лётных происшествий с ПВД не превратились в катастрофу в руках хомо?
Для систем естественного интеллекта есть такая штука как CRM, где как раз пытаются недостатки реального сознания победить. И там хорошо известно, что люди как раз могут путаться, излишне фиксироваться на одной проблеме, терять общую картину. Посмотрите сериал «Расследование авиакатастроф», там хватает историй, когда проблема именно в несовершенстве сознания обученного и добросовестного человека.
И о ненужности никто не говорит. Дело в том, что связка человек+ИИ будет безопасней, чем только человек.
У меня два возражения, или, мягче сказать, неуверенности:
1) Какова статистика роботов, повредившихся столовой вилкой, по сравнению со статистикой людей, так же поранившихся столовой вилкой? Что это говорит о перспективах вручить вилки роботам для обслуживания людей?
2) При сценарии «человек, сложа руки, смотрит за нормальной работой ИИ» — человек расслабится и разучится решать внештатные проблемы, может статься, и нормальное пилотирование призабудет. При сценарии «ИИ, сложа руки, смотрит за нормальной работой человека» — совсем непонятно, когда ИИ должен забрать штурвал (Пример: катапульта сложного в управлении Як-38 высаживала сапиенса при любых подозрениях, в результате чего погибших пилотов на Як-38 примерно один человек, но много угроханных почём зря самолётов; в отличие от Харриера, у которого убитых десятки, но мало брошенных без управления самолётов. И это боевые, где живое население = единица. В случае пассажирского лайнера весьма будет туманно количество «спасённых вусмерть» летательных аппаратов).

Посыл статьи понятен. Но ИМХО слишком оптимистичен.
Sign up to leave a comment.

Articles