Comments 78
Будем честны, мы здесь все "за всё хорошее против всего плохого". С одной стороны радостно, что плохих парней будут убивать роботы, а не люди, жертвуя собой. С другой стороны, вопрос правомерности некоторых операций, как и этическая сторона вопроса, пока не понятны.
Согласен что такие системы должны появиться, но бета-тестирование будет непростым.
Будем молиться, что бы те, у кого будут такие роботы, не записали нас в "плохих".
Плохие ребята в бункерах отдают приказы. А солдат он и в африке солдат, всего лишь выполняющий приказы, и тоже человек. Как можно убивать людей если например решили сдаться в плен? Не всегда среди солдат разделяющие действия "генералов". А автономные системы будут безжалостно убивать людей. Как-то это все грустно.
Военные, которые выполнят любой приказ.
Военные, которые никогда не устроят переворот.
Военные, на пенсию которых не нужно тратить средства, сопоставимые с бюджетами регионов.
Военные, которые не чувствуют боли и страха.
Военные, которые не развлекаются "неуставными" отношениями, когда они не заняты рытьём окопов, подметанием плацов ломами, формовкой снега (и покраской снега в маскирующий белый цвет) и постройкой дач генералам.
Ну разве это не мечта? Всего за 1 999 990 рублей в минимальной комплектации, без учета НДС.
Военные, толерантные к ядерному оружию.
Военные, которые никогда не устроят переворот.
Переворот устраивают не рядовые. Как минимум со времён декабристов.
И да, Каганов, "Магия".
по нескольким пунктам у меня есть сомнения
3 Роботы и технологии стоят дорого, по крайней мере пока. В большинстве стран люди обходятся дешевле.
5 Неуставные отношения можно рассматривать не как баг, а фича.
Ну и инфа у автора старая, про автономных убийц.
https://pikabu.ru/story/robotizirovannaya_pushka_otkryila_ogon_po_svoim_2007_god_7364745
Это нам еще на первом курсе рассказывали.
Вероятность взлома мобильных дронов или простого сбоя автономных?Вербовка бойца противником и в результате совершение диверсий «своими»?
Ошибки в ПО? Пофиксим.Психические срывы, когда солдат с автоматом беспорядочно расстреливает десяток сослуживцев без всякой видимой причины?
Взлом сети открывает доступ к управлению всеми экземплярами, и вы возможно никогда не узнаете, подвергся ли конкретный взлому и представляет ли он опасность, возможно отложенную. Никакие специалисты не обнаружат гарантированно всех возможных закладок.
А такая ядрёна матрёна на параде?
Вербовать нужно каждого по отдельности, это процесс, нужны специалисты и время и подходящее место, да и не каждый может быть завербован. Иногда возможна перевербовка или заведомо двойной агент — можно получить плюшки. Опять, же нужны специалисты и время.С вербовкой пример пожалуй действительно не самый удачный, но вот сдавались в истории противнику порой довольно большими группами.
Живые люди тоже ошибаются. Вопрос статистики.
Ну вот вам же недорогое решение проблемы глобального потепления. Никакого радиоактивного заражения местности. И никто даже виноват особо не будет.
Где бурная радость "зеленых"?
Скорее бы уже. Тогда айтишники смогут совершить полноценный военный переворот и начать заменять министерства скриптами.
Скорее корпорации, которые владеют айтишниками.
Законы и так по сути скрипты. Даже в общинно-племенном строе были законы передаваемые в устной форме, ими и руководствовались.
Искусственный интеллект как-раз может принести гибкость в управление. Но со стороны может выглядеть как иррациональность. Например для предотвращения преступлений он может изолировать часть людей без особой видимой причины, типа паттерны поведения соответствуют будущему преступлению и рекомендуется пожизненная изоляция.
Осталось дело за малым - запилить Скайнет.
Странно, что никто не обращает внимание на тот факт, что уничтожение таких роботов гораздо проще и дешевле, чем уничтожение ими боевой силы противника.
Видели возможности микроменеджмента AI в StarCraft?
Странно, что никто не обращает внимание на тот факт, что танк ценой в несколько млн денег можно уничтожить простой бутылкой с напалмом.
:)
Есть одна такая масенькая проблема: примерно через 3-4 часа это передвижное укрытие превращается в одиноко стоящее укрытие, через 80 выстрелов - в безоружное укрытие, а примерно через сутки (если в нём есть экипаж) - в нём начинает пахнуть мочой, а то и другими отходами.
Это в случае конфликта двух сторон с примерно равным уровнем развития военной техники. А сейчас практически все конфликты сводятся к "противник с развитой военной техникой vs иррегулярные формирования с тойотачанками".
практически все конфликты
Практически 2. Причем в одном из случаев противник с развитой военной техникой уступил поле боя тойотачанкам.
А так обычно силы противников более-менее равны. Не воюют с копьями против танков.
Возьмём XXI век (и выкинем Афганистан, хотя там причина чисто политическая). США-Либерия (2003), США-Ирак (2003), США-Ливия (2011, 2015), США-Сирия (2014), США-Йемен (2015). Это УЖЕ несколько больше 2.
Не воюют с копьями против танков.
Зато партизанами и суицидниками - вполне.
Есть такая вещь как тактика. Танк, который просто едет вперёд и стреляет куда попало - через 5 минут будет уничтожен. Пехотинец, который просто бежит и стреляет - тоже. Почему робот должен тупо бежать прямо? Почему робот обязательно не должен координировать свои действия с другими роботами? Подкрадываться с таймером к вооруженному пушкой роботу, которого, возможно, прикрывают другие роботы (или даже люди) - интересный способ самоубийства.
Не очень понятны этические вопросы.
Если робот постреляет "не тех", ответственность будет размыта. А если человек? Допустим, человек в некоей сомнительной ситуации принял сдающихся солдат противника за хитрых шахидов, которые идут его взорвать. И на всякий случай убил их. Кто за это будет отвечать? Он сам? Ну ок, его потом посадили за это военное преступление. Ну и что дальше-то? Что изменилось? Нашли виновного, посадили, на остальных это не повлияло никак. Или повлияло? И остальные станут воздерживаться от таких поступков? Тогда чем это глобально отличается от накатывания патча на робота?
Если человек совершил военное преступление, то очень легко сказать, что он виноват. А потом следующий виноват... И так далее. Очень удобно. Наказали человека - всё, проблемы же больше нет? Виноваты же солдаты, а вовсе не система их подготовки, которая неправильно обучила, и вовсе не политрук, который перестарался с рисованием образа врага, и вовсе не генерал, который этому политруку может премию срезать. А если робот накосячит, то будет слишком очевидно, что наказывать его бесполезно, а надо решать проблему. И решать её где-то уровнем выше: либо на этапе командования, либо на этапе обучения командира, либо на этапе программирования.
В общем, выглядит так, что у людей есть какое-то глобальное когнитивное искажение: нашли виновного = решили проблему. А с роботом это не прокатит.
А вот то, что роботы многих тактических нюансов не понимают - это да, проблема. Но выглядит скорее как повод сделать робота удобным для апдейтов
выглядит скорее как повод сделать робота удобным для апдейтов
А потом ушлый Энди Патрик под шумок накатит свой апдейт...
И на всякий случай убил их. Кто за это будет отвечать? Он сам? Ну ок, его потом посадили за это военное преступление. Ну и что дальше-то? Что изменилось? Нашли виновного, посадили, на остальных это не повлияло никак. Или повлияло? И остальные станут воздерживаться от таких поступков?
Можно убрать слово "военное". И поразмыслить для чего вообще вся эта ерунда с системой наказаний. И почему это не сработает в случае робота.
Истерика стариков из ООН выглядит так, будто они в самом деле боятся восстания роботов, как в замшелых боевиках конца ХХ века.
Это направление, робот + пушка, считаю тупиковым. На мой взгляд имеет смысл автономный рой роботов-разведчиков объединённых в боевую сеть с системами ведения огня и боевым составом. Актуальная и полная «картинка» боя важнее чем уничтожение боевой единицы противника на месте.
кого именно и как признавать виновным в убийстве, решение о котором было принято автономным роботом согласно алгоритмам
Когда только-только возникли первые живые организмы, один организм по какой-то причине убил другого и съел его. Возможно у него в РНК/ДНК произошла какая-то мутация, которая привела к таким действиям. После этого этот организм получил преимущество и смог копировать свою ДНК более эффективно. От этого организма ведут свою историю все убийцы, хищники, паразиты. От его генов произошли наши гены, которые вызывают у нас инстинкты и желание убивать, в том числе создавать такие машины, которые будут способны на убийство.
Нужно построить машину времени, вернуться в прошлое и надавать этому первому убийце лещей, потому что он во всём виноват.
Нужно построить машину времени, вернуться в прошлое и надавать этому первому убийце лещей, потому что он во всём виноват.
Только учтите, что обеспечивающие Вас энергией митохондрии появились в Ваших клетках из-за того, что один из первых убийц проглотить-то бактерию проглотил, но переварить забыл. И всё заверте...
один организм по какой-то причине убил другого и съел его
Причина дефицит ресурсов, причина сохраняется и по настоящее время.
«Если хотите использовать пулемёт — подключите план „Терминатор“.
Не хватает гранат? Всего за 999$ наш дрон доставит вам их в любую точку мира.» :)
Людей посадят в тюрьму на карантин, ибо ню-ню-ню ковид. Боевые роботы сражаются между собой, охраняя сельскохозяйственных роботов, выращиваюх в теплицах еду, и кулинарных роботов, печатающих гамбургеры. Финансирование приходит от торговых роботов с биржы. А карантин протекает в уютных камерах, напечатаных естественно роботами.
Остаётся сделать робота, который будет всё это есть...
Осталось выяснить, зачем здесь скрипач человек.
как кого именно?
коль скоро замочил согласно алгоритмам - автора алгоритма, вестимо.
как сейчас судят автора нажатия на спусковой крючок, хотя убил не он, а пуля.
Этичная война - это абсурд. Химическое и ядерное оружие не используют не по этическим соображениям а потому что они не позволяют достичь желаемых целей.
Как только роботы станут достаточно боеспособными, будут построены армии роботов и если к тому времени мир не изменится этих роботов будут свободно продавать отсталым диктаторским режимам, как им продают обычное оружие.
Плохо это или хорошо - сложно сказать. Понятно, что при этом те кто имеет технологическое и экономическое превосходство смогут почти без человеческих потерь контролировать остальных. Но в целом последние 200 лет и без роботов это так и работает.
Вряд ли роботы будут действительно убивать людей на поле боя. Никто просто не пойдет в живую с автоматом против роботов.
Очень много хороших слов и ни одного о том, чем всё же "погранично" эти роботы отличаются от самонаводящихся ракет. Их кто-то выпустил? Ну так и роботы, наверное, не сами решают, что пора идти на задание. Кто отвечает, если ракета самонавелась не туда/задела дом/упала не найдя цель? Ну, кто-то отвечает. Но в основном за утрату ракеты, ибо недешёвая она. Уверен, и сейчас цена роботов всё ещё гораздо выше цены многих потенциальных целей, и просто так они рядом с пехотинцами не пойдут, ибо могут быть уничтожены довольно дешёво. Охрана объектов выглядит куда более приемлемо (ибо защищаемый объект, очевидно, дороже робопсов).
Интересно, а если всё таки договорятся что роботы будет воевать вместо людей, то ЭМИ-оружие будет приравнено к ядерному? Уже как совсем последнее средство, и у кого пушки мощнее, те и будут диктовать условия?
Конечно вопрос доставки такой бомбы тоже не так прост, но вполне решаем, и наверное радиуса действия вполне достаточно (но я не сильно в теме, больше домыслы)
И как всегда авторы стыдятся признаться, что мины с дистанционными взрывателями, самонаводящиеся ракеты, и автоматические зенитные пушки изобретены не в этом году, не в прошлом, не в этом десятилетии и даже не в этом веке, и от описанного в статье ничем абсолютно не отличаются.
Терминаторы в деле: автономные боевые роботы пришли на поля сражений