Робоэтика: нам нужны универсальные права, этика и законодательство для роботов

    image

    Черта между творцом и творением становится все более размытой в последнее время благодаря компьютерному зрению, ИИ, машинному обучению, большим данным и т. д. Постоянные разработки ведут к новым поколениям роботов, "машинам", достаточно умным для того, чтобы изобретать технологии самостоятельно. Человечество подходит к точке, где следующим шагом "машин" будет проектирование своих собственных алгоритмов. Лучше, быстрее, умнее.

    Роботы, которые творят, — уже не просто гаджеты, с помощью которых вы, возможно, убиваете время, ожидая зеленого на светофоре. Мы говорим об инновационных фармацевтических препаратах и генетических исправлениях, которыми обычно занимаются десятки ученых в течение многих лет и на исследования которых выделяются миллионы долларов.

    Это роботы будущего, которые будут делить мир с нами. По данным исследования, проведенного по заказу Центра поиска информации из различных источников Британского управления науки и инноваций, роботы могут в один прекрасный день потребовать таких же гражданских прав, как и люди, в конечном счете изменив известные нам законы.

    Робоэтика — это короткое название понятия «этика робототехники». Оно часто используется, чтобы обозначить отношение этики именно к роботам (так как это понятие связано с поведением человека). Данная сфера описывает, как люди проектируют, строят, используют роботов и относятся к ним и другим творениям с искусственным интеллектом, в то время как "машинная этика" занимается поведением самих роботов, считаются ли они нравственными агентами с ИИ и правами роботов.

     

    Можно ли привлечь роботов к ответственности?



    Существует много споров в настоящее время касательно того, можно ли робота привлечь к ответственности за, скажем, смерть человека. Может ли проблема ответственности решиться назначением ответственной стороны (в данном случае это создатель робота)? Более строгое требование выдвигается для смертоносных систем автономного оружия, что связано с уважением человеческой жизни, так как ИИ и компьютеры не способны понимать эмоции. Пока еще.

    Роботы отличаются тем, что они не мотивированы правильными или неправильным причинам, да и каким-либо причинам вообще, в то время как такое возможно, когда дело касается людей. Если автономные роботы не испытывают эмоций, нет смысла приравнивать их к человеку на основе этой способности.

    По аналогии: в случае войны никто не будет требовать, чтобы пуля или управляемая ракета была более внимательной, прежде чем согласиться на то, чтобы быть выпущенной и поразить цель. Тем не менее, роботы не являются законным оружием во время войны. Мы также не требуем этого от собак и других животных на войне, хотя они имеют сознание и находятся ближе к человеку, чем машины. Это потому, что данное оружие не имеет способности думать и чувствовать.

     

    Подвергли бы вы робота пыткам?



    С другой стороны, является ли приемлемым мучить или убивать робота? У нас сформировались такие сильные эмоциональные связи с машинами, из-за которых люди не могут быть жестоки к ним, хотя и знают, что они неживые. Так должны ли роботы иметь права? Плохое обращение с определенными видами роботов вскоре может стать неприемлемым в глазах общества. В каких обстоятельствах было бы приемлемо мучить или убивать робота? И что заставит вас подумать дважды, прежде чем жестоко отнестись к машине?

    До недавнего времени идея предоставления прав роботам существовала разве что в области научной фантастики. Возможно, это потому, что реальные машины, окружающие нас, были относительно просты. Никто не чувствует вины, ударив по тостеру или пульту дистанционного управления игрушечного автомобиля. Тем не менее, появление социальных роботов меняет ситуацию. Постоянное развитие ИИ делает действия машин похожими на действия человека.

    Например, в небольшом эксперименте, проведенном для радиошоу Radiolab в 2011 году, детей попросили держать вверх ногами куклу Барби, хомяка и робота Furby так долго, как они могли. В то время как дети держали куклу, пока их руки не устали, они скоро перестали мучить извивающегося хомяка, а через некоторое время и Furby тоже. Они были достаточно взрослые, чтобы понимать, что Furby — всего лишь игрушка, но им не нравился его запрограммированный крик: "Мне страшно!"

    Сам робот стал ученым. Этот новый вид робота поднял информационные технологии на совершенно новый уровень. То, что когда-то называли наукой автоматизации, превратилось в автоматизацию науки. Да, сам робот стал ученым.

    Проблемы, которые сегодня стоят перед учеными в сфере биотехнологий, включают тысячи переменных, каждая из которых по-разному взаимодействует с другими элементами окружающей среды, в результате чего появляются миллионы возможных результатов, которые должны быть оценены, прежде чем вы доберетесь до стадии осуществления эксперимента и сможете физически проверить что-либо. Производительность лечит все.

     

    Готовы ли мы к роботам 2.0?



    Сегодняшние роботы могут выявлять проблемы, рассматривать существующие варианты, разрабатывать новые, проверять их все теоретически и определять наиболее эффективные и надежные решения в гораздо более короткие сроки. "Машина" становится творцом. Проще говоря, если я, человек, создал робота 1.0, а тот создал робота 2.0, кто имеет право запатентовать это творение — изобретатель робота или сам робот?

    На сегодняшний день, по версии журнала SCIENCE, все зависит от того, где вы (или робот) живете. В США только человеческие изобретения могут быть защищены патентами. В Европе, похоже, законы, регулирующие интеллектуальную собственность, распространяются на любое юридическое лицо —  возможно, даже робота. Необходимость универсальных прав для роботов вдруг стала очевидной.

    Что мы можем извлечь из этого? Сначала давайте посмотрим на вещи с точки зрения робота. Например, «умный робот» мог бы посмотреть на себя и с гордостью провозгласить: "Ух ты, я удивителен! Я изучил все, и нет никого, кто может анализировать проблемы и придумывать решения так, как это могу делать я. Я творец. Лучше, чем мой создатель. И я могу делать все лучше, чем мой создатель, так почему же мой создатель может ставить под сомнение мою способность к творчеству и должен завладеть моим творением?" Трудные времена, не так ли?..



    Некоторые из нас оспорили бы это. По крайней мере в начале некоторые из нас считают: "Ваши возможности ограничены, ваш интеллект искусственный, ваша личность пуста, г-н/г-жа Робот. Вы сами — просто создание, продукт анализа и проектирования творческого ума, более продвинутого, чем ваш.

    Правда, вы тоже можете творить (и достаточно успешно), но ваша сфера ограничена, ваш интеллект искусственный, ваша личность пуста, ваша схема упрощена. Если кто-то  и заслуживает награды, так это творческий гений, который сделал вас таким творческим".

    Как ни странно, то же самое можно сказать и о нас. Человек, творец, изобретатель — это выдумка изобретательного ума, такого же, как у него, но бесконечно больше. Его аналитическая и творческая доблесть несравнима во всем мире, но человек будет стараться прислушаться к призыву Торы в книге "Второзаконие" 7: 12-11: 25: "И вы думаете, что "моя сила и сила моей руки приобрели это богатство для меня?" Тем не менее, мы ставим под сомнение существование творца, создателя нашего.

    Честность требует, чтобы мы тоже посмотрели на все со стороны и признали наше происхождение. В этот момент мы признаем силу ИИ. Что же случится, когда "машина" разовьет свой собственный ИИ и в конечном итоге создаст робота 2.0 — сознательного, разумного, способного на эмоции и со свободной волей? Оставляя в стороне вопрос моральности, давайте сосредоточимся на настоящем времени и на следующем логическом шаге.

     

    Универсальные права роботов и законодательство



    За последние 20 лет мы видели много рабочих мест, переданных роботам, — от сборки автомобилей до обслуживания клиентов. Роботы все чаще используются на производстве (с 1960-го). В автомобильной промышленности они могут составлять более половины «рабочей силы». Есть даже фабрики, такие как завод IBM в Техасе, на которых производство на 100% автоматизировано.

    Роботы, такие как HOSPI, используются в качестве курьеров в больницах (больничный робот). Другие больничные задачи, выполняемые роботами, — это должность секретаря, проводника и помощника носильщика (не говоря уже о роботах, которые помогают хирургам, таких как Da Vinci). Роботы могут работать официантами, а также помогать в домашних делах; например, Boris — это робот, который может загружать посудомоечную машину.

    Роботы с более сложным ИИ будут занимать все больше рабочих мест, связанных с  информационными технологиями, и выполнять задачи, которые были когда-то доступны лишь для квалифицированных специалистов с высшим образованием и теперь доступны роботам. Среди таких профессий — фармацевты, адвокаты, журналисты.

     

    Медицина



    Технологии уже имеют большое влияние на аптеки. У нас есть машины в больницах, которые автоматизируют все внутренние  процессы, и небольшие машины размером с автомат для продажи чего-либо, которые в настоящее время стоят в аптеках, так что автоматизация имеет большое влияние. Использование технологий позволяет персоналу больницы больше сосредоточиться на непосредственном уходе за пациентами. Автоматизированный разлив лекарств освобождает врачей и фармацевтов от механической работы.

    На данный момент многие фармацевты до сих пор работают на своих местах, потому что у нас есть законы и правила, которые требуют присутствия человека в данной сфере. Чтобы стать фармацевтом, нужно много учиться, но то, что они делают, — это, в принципе, рутина, которая требует высокой степени точности и надежности, а это как раз вид работы, который идеально подходит для машин.

     

    Законодательство



    Мы уже видим последствия использования роботов в таких областях, как право, при анализе документов. Это обычно делалось вручную. Работники должны были вычитывать документы. Теперь это делается алгоритмически с использованием искусственного интеллекта. Вряд ли мы увидим, как роботы судятся в залах судебных заседаний в ближайшее время, но некоторые весьма оплачиваемые действия, которые обычно выполняли опытные адвокаты, находятся в процессе автоматизации.

    Существует новая технология под названием «количественное правовое прогнозирование». Опытные юристы часто делают прогнозы. Используя большие данные, сложную аналитику, роботы будут "прогнозировать" лучше, если вы собираетесь выиграть дело или хотите, чтобы оно было отменено по апелляции, например.

    Обычно требуется большой опыт, чтобы делать такого рода прогнозы, но эти алгоритмы могут на самом деле работать лучше даже самых опытных юристов, просто анализируя много данных намного быстрее и по более низкой стоимости.

     

    Издательство и СМИ



    Журналисты также не застрахованы от вытеснения искусственным интеллектом и роботами. Используя передовые компьютерные алгоритмы, такие компании, как Narrative Science и Automated Insights, уже генерируют статьи для клиентов вроде Forbes, охватывая такие темы бизнеса, спорта и политики.

    Специализированное программное обеспечение с ИИ генерирует новость примерно каждые 30 секунд, и многие из них публикуются на широко известных сайтах, которые предпочитают не признавать, что используют данный сервис.

    Мы анализируем несколько потоков данных, отфильтровываем наиболее интересные (лучшие, по нашему мнению), потом создаем убедительный рассказ, основанный на данной информации, и пишем историю. Самое интересное в том, что "машина" становится все более изощренной. Она… учится.

    Ниже прогноз развития робототехники в течение следующих 25 лет.

     

    Прогноз для робототехники





    Возвращаясь к дилемме "создатель/творение", мы (люди), создатели на самом высоком уровне, имеем "дар" речи, искусства, творчества, мы забавны, мы можем создавать новые типы знаний, мы создаем и понимаем музыку как никакое другое животное, и это то, что больше всего ценится в человеческих существах. Тем не менее, как долго это будет продолжаться?

     
    RoboHunter
    #1 по трудоустройству роботов
    AdBlock has stolen the banner, but banners are not teeth — they will be back

    More
    Ads

    Comments 13

      +1
      Не статья, а сплошные вопросы с одним и тем же камнем преткновения — проблемой поиска границы между роботом с сильным ИИ и роботом без него или со слабым ИИ. Т.е. робота с сильным ИИ можно будет наделять правами и рассматривать для него вопрос причинения боли и т.п., а для остальных нет смысла (игрушечное ралли не обидится на Вас, если стукнуть его ногой). Критерии сильного и слабого ИИ уже сформулированы. Дело за малым — создать сильный ИИ. А законодательство… Оно всегда чуточку запаздывает, так так строится на полученном опыте. Помнится, когда-то не было статьи за «Создание, использование и распространение вредоносных компьютерных программ», но вирусы уже были. Так что ещё рано законы вводить, давайте сначала ИИ делать.
        0
        По поводу ответственности: ИМХО, отвечать должен либо автор ПО, либо лицо, его настраивающее, если его настройка привела к преступлению. Например, наказывать автора вируса, или гэнста, использующего curl для DDOSа по моему мнению == наказывать разработчика программы робо-такси, который не предусмотрел превышения скорости, если клиент умирает, или гэнста, сказавшего роботу-пироману, что «из этого здания все рабочие вышли, можно приступать к сносу».
        По поводу пыток и убийства: вот это странный вопрос. Мне кажется роботы должны относиться к пыткам как автор текста уместно вставленной в гоблинский перевод терминатора 3 песни группы Ленинград «А мне всё равно, я сделан из стали — самое страшное, что может случиться — стану тостером» (художественная обработка). Да и зачем пытать? Чтобы выдал инфу с закриптованного винта? Мне кажется, что эта тема должна стать направлением в ИБ — насколько робот устойчив к пыткам. (может ли он оценить риски от выдачи инфы и от того, что сделают гэнста в случае отказа, и главное, смогут ли они это сделать) Моё мнение — пытки с целью получения информации — статья и тема для PHD; пытки просто с целью постебаться — тема для психологов (вопрос собсно в том, будет ли человек пытающий робота применять свои знания на людях. Если да — тоже нельзя).
        Насчёт убийства: лично моё как человека мнение: плюс роботов в бессмертии. Давать должны как за порчу имущества+за моральный вред (если робот может страдать). Робот (или его владелец) сможет купить новое тело и залить бэкап из облака.
          0
          вопрос собсно в том, будет ли человек пытающий робота применять свои знания на людях. Если да — тоже нельзя
          Вы умеете пользоваться кухонным ножом? Умеете, и когда-то в детстве научились. Если вы в будущем зарежете ножом человека (примените умение обращаться с ножом к этому человеку), означает ли это, что вам нельзя было в детстве учиться орудовать кухонным ножом?
          0
          Не стоит забывать, что наказания (вообще любые) в человеческом обществе появились не просто на пустом месте, а с целью устрашения. Скажем, методично и последовательно сажая воров, убийц и т.д., мы тем самым говорим другим людям: «будете поступать так же — вас тоже посадим».

          Человека перспектива заточения за решетку пугает сама по себе. «Бездушной железке» от самого заточения ничего не будет — он не сойдет с ума от одиночества, он не будет тосковать по лугам и просторам — но такое времяпрепровождение мешает реализовывать принимаемые решения и выполнять задачи. С рациональной точки зрения — уж в чем, а в рациональности машинной логике не откажешь — сознательно делать что-то, за чем последует наказание в виде заточения под стражу или выключения — невыгодно, это препятствует выполнению намеченной задачи.

          Конечно, если робот оценит, что его шансы быть пойманным и наказанным в какой-то конкретной ситуации пренебрежимо малы, то он вполне совершит наказуемое деяние. Но ведь и люди поступают абсолютно так же.
            0
            Кстати, недавно сериал появился, как раз примерно на тему робоэтики — «Люди».
              0
              Технологическое рабство или доминирование — это не доминирование машины над обезьяной, это доминирование более умной (приспособленной, сильной ...) обезьяны на менее умной. Алгоритмы роботам пишут люди, если алгоритмы создают новые алгоритмы — то источником все равно является человек. Так что стоит разобрать подробно только один вопрос — может ли алгоритм стать настолько изощренным что начнет управлять поведением программиста лучше чем он делает сам.
              Наше поведение строиться на базе моделей генерируемых мозгом, который в свою очередь получает факты на базе восприятия. Если расширять восприятие или поведение — это не будет потеря контроля. Если расширять мозг, то в какой-то момент алгоритм будет перехватывать контроль почти полностью. И увеличение мощности еще не гарантирует потерю контроля, потому что можно просто считать число пи или майнить, а на поведении это почти не отразится. Поэтому нельзя делать расчеты на базе прогресса в мощности или частоте или количестве обрабатываемой информации. Так как определять сложность алгоритма и степень контроля?
                +3
                Гуманитарные бредни.

                «подвергли бы мучениям тьюринг-полную среду исполнения с программой и данными»?

                «Подвергли бы вы пыткам огнём сковородку?»
                  0
                  Зря вы так, это как раз очень правильный вопрос о той грани, после которой что-то, что мы считаем «неживым», становится тем, что мы можем считать «живым» (и о том, где именно эта грань). Вполне легитимная тема для дискуссии.
                    0
                    Если оно крякает как разумное существо, плавает как разумное существо и отвечает как разумное существо, то это и есть разумное существо.

                    К сожалению, ни один из критериев в настоящий момент для роботов не выполняется, то есть их интеллект не сильно выше микроволновки. Даже у тех, которые через завалы переползают.
                      0
                      Если оно крякает как разумное существо, плавает как разумное существо и отвечает как разумное существо, то это и есть разумное существо.
                      Да много что попадает под это определение. Даже если взять современного продвинутого чат-бота и всунуть его в человекоподобного японского робота, будет штука, которая выглядит и говорит как разумное существо (хоть мы и будем знать, что на самом деле этот бот тупой).

                      Я говорю как раз о том, что эта грань может быть размазана — как раз по той причине, что ответить на вопрос «ведет ли оно себя как разумное существо?» затруднительно. Скажем, когда вы спите, персонажи в ваших снах ведут себя в точности так же, как настоящие люди, и выглядят так же, как настоящие люди. Единственное их отличие — они управляются нейронами не в их собственных головах, а в вашей. С другой стороны, что, если человеческий мозг «виртуализует» свои куски для симуляции работы мысли персонажей снов? Или просто просчитывает (незаметно для спящего, в фоне) то, как поведет себя мозг того или иного персонажа? А, следовательно, можем ли мы с уверенностью утверждать, что персонажи наших снов, какими бы ненастоящими они ни были, не являются self-aware?
                        0
                        Персонажи снов скорее всего просто «тупые чат-боты» поведение которых основано только на нашем собственном восприятии этих людей, а мозг наш просто выделяет их паттерны поведения. Другими словами: смысла «эмулировать» мысли и сознания других людей нет.
                      0
                      Пока в роботах есть микросхемы, паяльник и программатор не могут быть орудием пыток. Ведь если интеллект
                      ИСКУСТВЕННЫЙ, то значит у человека как у владельца данного экзкмпляра остается право его модифицировать под свои нужды.
                    0
                    Пока роботы выполняют действия по программе, а не по собственной воле — наказанию должны подвергаться ответственные лица.
                    Если простой заводской манипулятор кого-то придавил — обычный случай нарушения техники безопасности со всеми вытекающими.
                    Если автоматическая охранная система неверно трактовала информацию и кого-то убила — ответственному за эту систему должны предъявить непредумышленное убийство (при условии что он обладал информации о принципе работы системы).
                    Создатель системы не должен нести ответственность в данном случае, т.к. создателя пистолета при каждом убийстве не сажают за убийство.

                    Only users with full accounts can post comments. Log in, please.