Comments 51
На мой взгляд, надо не запрещать что-то, а создавать условия, в которых это «что-то» будет без надобности. Конечно, это сложнее, но разрабатывать и тратить огромные средства на гонки вооружений тоже не самая простая задача, и далеко не самая дешевая. И создать благоприятные условия для развития общества я думаю будет значительно дешевле. Но кому это надо? Явно не тем, кто покупает оружие, и уж точно не тем, кто его продает.
P.S. Тут я хотел добавить, что есть 2 крайних варианта на тему «люди, вооруженные ИИ» vs «автономные ИИ»:
1. Автономный ИИ на тактическом уровне управляет подразделением явно меньше полка. Он не передает информацию (как вариант — далеко не полную передавал бы) каким либо ИИ более высокого уровня, а передает соответсвующим генералам и полковникам — стратегическому уровню (тут ещё был бы оперативно-тактический уровень, но я науку «тактика не учил»).
2. Все наоборот.
На стратегическом уровне работает ИИ, на тактическом — живые бойцы. У живых бойцов могут быть свои тактические примочки. а суммарная производительность или объем оперативной памяти всех этих «примочек» в подчинении ИИ могут превышать аналогичную величину у центрального ИИ.
«Люди превосходят ИИ» — часто такое в НФ относят к космическим боям типа «авиация» — идея о том, что на таком уровне человек может быстро производить неожиданные решения. Результатов проверки на американских пилотах в боях против ИИ не помню.
Главное — не начать учить Alpha Go реальным военным стратегиям.Скажите это Ким Чен Ыну :)
космическим боям типа «авиация» — идея о том, что на таком уровне человек может быстро производить неожиданные решения
Не знаю, насчет тактических решений, но вспомнилось, что лет 8 назад на уроках по аэродинамике, преподаватель нам говорил, что уже тогда некоторое количество маневров, вроде уклонения, самолет производит «самостоятельно» и пилот во время них даже частично теряет сознание от перегрузок.
(правда не уверен, команду на этот маневр принимает местный БортКомпьютер или отдает сам пилот)
Поясню: помнится. была популярная программа. которую обучали на собаках, и она всюду видела собак. Не получится ли по схеме «когда под рукой нет ничего. кроме молотка, все вокруг кажется гвоздями»? Не будет ли программа, обученная на поиск террористов/преступников/мошенников и тп видеть их в итоге в каждом человеке? В итоге получается даже не автономное оружие, а обезьяна в контейнере с гранатами. а бюрократы при этой обезьяне будут отписываться «ну, мы все понимаем, но компьютер показал...» И в итоге «Особое мнение» и «Черное зеркало» окажутся райскими утопиями.
Тут где-то была статья. что даже создатели всех этих «вумных» нейросетей не понимают, как оно работает. Не получится ли на выходе вместо искусственного интеллекта искусственный шизофреник с навязчивыми идеями и неограниченными полномочиями?
даже создатели всех этих «вумных» нейросетей не понимают, как оно работает. Не получится ли на выходе вместо искусственного интеллекта искусственный шизофреник с навязчивыми идеями и неограниченными полномочиями?
Вот это вот про что было? Вроде Хабр без политики объявлен?
А автономным системам обороны/нападения- быть, хотим мы этого или не хотим. Слишкон ненадёжны эти людишки. И подкупить можно…
"Право сильного" — это излишне упрощенная трактовка. Те, у кого ядерное оружие есть сейчас, при всех своих недостатках все-таки немного переросли ядерный шантаж. Никто из них не хочет применять ЯО. А вот что будет в голове у очередного исламского пророка, пожелавшего разрушить очередную Пальмиру, не знает никто, поэтому контроль тут нужен в первую очередь ради самосохранения.
Другое дело, что запрещать имеет смысл только то, что в принципе возможно контролировать. И, если в случае с ЯО это худо-бедно работает, то с автономным оружием это не выглядит реальным.
И кто бы это приказал? И почему он не смог приказать живым солдатам, но смог бы — роботам?
Точно-точно проблема в этом? Хотели приказать, но, беда, солдаты ведь откажутся останавливать геноцид, не будем приказывать?
Вы так видите ту ситуацию или это вы в целом? Если в целом, то утверждение верное, роботы наверняка будут более послушные. И, кстати, их послушность будет важна не столько в спасает от геноцида, сколько в его организации, когда кому-то это захочется в следующий раз.
Если послать живых солдат, то некоторые из них наверняка умрут. И избиратели дома будут возмущаться: "Какого черта наши пацаны там за каких-то негров умирают". Если послать роботов, то возмущаться будут только о потраченных средствах (в первом случае тоже будут), что уже меньше и проще, а значит требует меньше политической воли для осуществления.
Роботы-террористы страшны могут только из-за зловещей долины, не более. Мне как мясному мешку куда страшнее живой террорист-смертник. Его готовность умереть куда страшнее куска железа, не осведомленного о всяких гуриях. Это к вопросу террора. А в военных применениях не имеет значения — робот всё равно управляется человеком, сам себя не включит и оружие из оружейной комнаты не возьмёт.
P.S. В одной стране и полицейские могут стрелять по мальчику с игрушечным пистолетам.
Если человек может отличить по внешнему виду, то робот тем более сможет. Более точно, чем 80% солдат. Если уж он породы кошек распознает лучше людей.
Это Вы господина Владимира боитесь или предлагаете его исключить из списка «руководства стран обладающих ЯО»?
А идея «исключить из списка» интересно сочетается с методом «выжигаться калёным железом», но я ни на что не намекаю. Все же в цивилизованных странах нет такой меры наказания.
Идея «исключать» всегда прекрасно сочеталась с «выжигать», вспомните хотя бы «Сомоса, может быть, и сукин сын, но это наш сукин сын» (фраза может и не реальная, а вот отношения более чем). Но я, как максималист в порядке простого трёпа в соц. сети, разумеется против исключений!
Почему запрет на автономных роботов-убийц ничего не решит