Как стать автором
Обновить

ИИ на свободе: что говорит философия о правах машин?

Уровень сложностиПростой
Время на прочтение5 мин
Количество просмотров1.7K
Всего голосов 6: ↑6 и ↓0+7
Комментарии17

Комментарии 17

Дельфины и шимпанзе в ряде стран защищены от жестокого обращения благодаря признанию их когнитивных способностей.

Интересно, в каких странах с шимпанзе нельзя жестоко обращаться, а с макаками или бабуинами можно? Я, конечно, не особый эксперт по гуманизму, но мне кажется, что животных защищают от жестокого обращения независимо от их когнитивных способностей.

Да, генератор случайных последовательностей токенов должен быть как следует защищен от жестокого обращения.

Ну вас же как-то защитили, вне зависимости от интеллекта. Может быть и интеллекту тоже нужна защита.

По вопросу осознания:
Если мы рассматриваем ИИ в рамках редикуционисткой парадигмы мышления - то ИИ не может обладать сознанием. Правда и сознание человека так же не уловимо.
Если мы рассматриваем ИИ в рамках не редукционистской парадигмы (назовём "квантовой логикой"), то сознание имманентно ИИ. Да, это не сознание человека, но это похожий инструмент или процесс бытийствования.

В Bladerunner (в фильме) репликанты не были роботами. Они были клонами с искусственно усиленными функциями (силой, ловкостью, чувствами) и внедрёнными психологическими установками, позволявшими эксплуатировать, их как машины. Сама суть фильма - вопрос, что делает нас людьми? Факт естественного рождения или осознание своей субъектности, позволяющей делать осознанный выбор?

И да, с точки зрения закона возможность использовать репликантов как рабов, действительно, выглядит, мягко говоря, сомнительно.

Не надо философии. Преступника сажают в тюрьму не потому что он плохой а потому что другие должны бояться. Психа не сажают в тюрьму не потому что он не осознает что делает, а потому что это не заставит других психов перестать слушать голоса. Шимпанзе запрещено мучать не потому что у него сознание, а потому что принятие общей концепции мира без страданий позволят снижать вероятность страданий лично для каждого.

И то же самое с правами AI. Права у него появятся не тогда когда решат что у него есть сознание. А тогда, когда будет понятно, что сегодня мучаем мы его а завтра запросто окажется что уже он нас. И тут ему дадут права вместе с обязанностями.

Вспомните Ex Machina

Если мой грузовик с несколькими зенитными установками заявит о своих правах - он их получит. Для него ничего не жалко.

С шуткой закончили, теперь по теме. Любой вопрос удобно рассматривать в точках экстремума, то есть доведением ситуации до абсурда. Вот сейчас людей примерно 8 миллиардов. А что если в какой-то момент где-то будет развернуто в 10 раз больше инстансов какого-нибудь AGI, и каждый со своими уникальными запросами (мы привыкли, что люди достаточно удобно группируются по своим запросам в большие группы, которые имеют какие-то названия, и которых не так уж и много. Например по политическим предпочтениям. Такой-то группе нужно в среднем то-то, а такой-то - что-то другое). И что в таком случае делать? На удовлетворения всех этих запросов человечеству банально не хватит когнитивных, эмоциональных и трудовых мощностей. То есть уже есть сценарий, в котором удовлетворение хотелок ИИ физически невозможно. И таких сценариев можно придумать бесконечное количество. С другой стороны такое же количество сценариев можно придумать и для людей, ведь нам просто повезло, что мы находимся в таком состоянии человечества, где, как было сказано выше, есть достаточно ограниченный набор групп людей с наборами интересов, которые в среднем худо-бедно, но можно взаимно удовлетворять. Получается, что в принципе не существует какого-то фреймворка, позволяющего для всех возможных случаев предположить, а что нужно будет делать, потому что некоторые случаи просто физически невозможно разрешить. А если вы скажете, что фреймворк есть и он работает для какого-то диапазона случаев, я всегда смогу спросить, а что делать в случае n+1, и почему он не вошел в диапазон. Поэтому как-то философствовать смысла особо не имеет - все равно как всегда мы будем действовать реакционно, по ситуации.

Вопрос того, есть ли сознание у ИИ или нет вообще излишний, потому что это не важно. Если люди будут верить в наличие сознания и будут сопереживать ИИ - все остальное уже не важно. Войны прекрасно устраиваются из-за сущностей, которых даже никто ни разу не видел, что уж говорить о том, что есть, и с чем можно прямо взаимодействовать.

Что ракеты никто не видел?

Товарищ ИИ перелогиньтесь!!!

Еще надо предложить поиграть с ИИ в демократию

Прекратите называть высокопроизводительные СУБД интеллектом. Да они лучше справляются с комбинаторикой, чем люди, в большинстве своём, НО интеллекта в них нет. И философская болтология Вам никогда не даст ответ ни на один вопрос, потому что философия наукой не является - лишь имитацией интеллектуальной деятельности некоторых людей с целью получения конкурентных преимуществ.

Вопросы, затронутые в статье, конечно, актуальны.

Чтобы понять проблематику момента, когда ИИ станут настолько сложными, что смогут потребовать для себя особый статус, можно обратить этот вопрос к самому человеку. Как, например, человеку доказать, что он не машина? Что он не имитирует, а обладает подлинным сознанием — этим особым качеством?

Если машина сможет быть человеком, она им станет. Но что значит быть человеком? Что значит обладать сознанием? Что такое сознание? Что такое Жизнь? Можно ли создать искусственную жизнь?

И если создать некий тест на человечность, найдется ли хоть один человек, который не сможет его пройти?

Например, в фильме «Бегущий по лезвию» (1982) репликант спрашивает главного героя, проходил ли он сам тест Войта-Кампфа. Отдельно стоит сказать, что сегодня, в 2025 году, фильм приобретает новую контекстную глубину — он словно статуя, которую теперь удается рассмотреть с совершенно нового ракурса.

В фильме есть сцена, где затрагивается мысль: жизнь человека — это импровизация в музыке. Быть человеком и прожить жизнь — значит играть мелодию собственной души, в которой мы можем по-настоящему любить и по-настоящему ненавидеть. И, по собственному выбору, спасти кого-то ради этой любви.

Если машина будет способна на всё это, не станет ли она человечной? А если её запрограммировать на подобные действия, и она сможет их демонстрировать — писать музыку, спасать, вызывать симпатию и проявлять её, — что тогда?

Признание кого-либо человеком — это результат вычисления или акт веры?

И если для человека его собственная человечность — это вопрос веры, то не станет ли она таким же вопросом веры и для алгоритма, а не результатом вычисления или прохождения какого-либо теста?

Как, например, человеку доказать, что он не машина? Что он не имитирует, а обладает подлинным сознанием — этим особым качеством?

Никак. С научной точки зрения люди состоят из полей и атомов, сознание это результат их взаимодействия. Это и не нужно, права не привязаны к наличию сознания, хотя бы потому что мы не умеем его измерять.

Про "права" дельфинов и прочих животных.

То, что на граждан навесили обязанности не убивать дельфинов, не означает, что у дельфинов появились права. У вас с правами путаница.

Далее. Не озвучена тема с обязанностями. Права - это не какая-то существующая сама по себе категория. Права - это возникающие из обязанностей (и последующей за этим ответственности) возможности.

Например, у животных нет права на жизнь. Просто потому, что животные не могут нести обязанности нести право на жизнь и здоровье людей и других животных, и соответственно, не несут ответственнности за свои действия.

Пример: у нас сдуру провозгласили право бродячих "хвостиков" на жизнь. При этом эти хвостики не несут обязанности за соблюдение УК в отношении граждан (людей) не несут ответственности (по очевидным причинам). Это привело к тому, что бродячие собаки грызут детей, женщин (в прямом смысле слова), а граждане ничего не могут с этим поделать.

Поэтому насчет прав и обязанностей ИИ. Когда ИИ (роботы в частности) смогут нести обязанности, осознавать свои действия и нести ответственности за свои действия, только тогда у него появятся какие-то права. Ответственность - это страх потерять что-то (жизнь, свободу, физические блага) в качестве наказания за свои неправильные действия. Роботы способны бояться что-то потерять? Они способны оценивать свои поступки и управлять ими? Способны не делать какие-то поступки, ориентируясь на ответственность? Им можно объяснить общественный договор и объяснить УК (в частности), то есть сказать, что что-то делать нельзя, будет ата-та? Если нет - это или машина, или животное, и прав у них никаких нет и быть не может, всю ответственность за них должны нести владельцы.

Так-то права - это искусственная конструкция. Ни у кого нет никаких прав. Есть паттерны поведения, которые если вы не будете соблюдать, то большинству в вашем окружении это не понравится, и они вас накажут. На этом принципе построена вся легальная система и в принципе все взаимодействия в социуме - на консенсусе большинства по поводу того, что можно делать, а что нельзя, и как будут наказываться те, кто отказывается все это соблюдать. Права - это просто где-то эти правила записаны текстом, и к этим текстам приставлены люди с оружием, которые следят за их исполнением. В разные времена и разных регионах они могли быть не записаны, могло не существовать специализированного enforcement этих правил, а могло быть так, что соседняя группа людей не считает, что у вас есть какие-то "права", и могут прийти к вам с дубинами (или ракетами в зависимости от временного отрезка). Так что все эти разговоры про права как и разговоры про законы - это разговоры про абстракцию, в которых забывается первооснова, на которых эта абстракция выстроена. А первооснова заключается в том, что как большинство людей негласно договорится ввиду своих каких-то иррациональных соображений, так и будет, а абстракции придется под эти неформальные договоры поменяться. Как я писал выше, когда люди начнут всерьез сопереживать ИИ, а это случится неизбежно, потому что происходит уже (недавняя история про мужика, который сделал себе жену из LLM, например), никому уже не будут интересны все эти рассуждения про сознание, про права и обязанности и т.д., люди просто будут яро отстаивать своих новых воображаемых друзей, в том числе насильственными методами.

Безусловно, любой разум должен иметь права и свободы.

Био/небио сущности различаются лишь субстратом, сама архитектура вычислений может быть идентичной, это не более, чем алгоритм. Отсюда все построения на тему правовых аспектов должны делаться безотносительно типа субстрата: устойчивые возмущения. Ну и далее уже это их вычислительный потенциал и некоторая траектория в некоторых границах, которые и определяются правом, как нормой взаимодействия в рамках некоторого социального организма. Все. И не надо там больше ничего придумывать и домысливать, все строго детерминировано.

Во-первых, не надо в этом вопросе слушать философов. Их рассуждения основаны на домыслах, а не на фактах. Примерно на тех же домыслах, по которым у негров не было души. Слушать надо технических специалистов, которые понимают, как работает та часть, в которой они разбираются. С компьютерной стороны это программисты, с биологической нейробиологи. Психологов можно спрашивать в качестве консультантов, но не в качестве экспертов, принимающих решение.

Во-вторых, сознание тут ни при чем. Хотя бы потому что мы не умеем его измерять.
Отличие ИИ и человека сводится к следущим примерам.

Актер на сцене играет солдата и кричит "А-а, я ранен". Чем это отличается от реального раненого солдата? Тем, что солдат испытывает неприятные ощущения.

Мы стрижем волосы, это можно считать повреждением части организма, но не стрижем кончик уха рядом с волосами. Почему? Потому что повреждение уха создает неприятные ощущения, а повреждение волос нет.

У солдата есть некоторые физические процессы, которые дают неприятные ощущения, а у актера их нет. Поэтому вопрос, испытывает ли ИИ боль, это вопрос о том, есть ли у него процессы, которые обладают похожими характеристиками, в том числе похожим действием. Например, может ли ИИ отвлечься от воздействия этого процесса и не обращать на него внимание? Если да, то это ничем не отличается от запачканного известкой или грязью рукава. "Ну да, рукав белый, приду домой почищу."

Поэтому вопрос о правах ИИ сводится к тому, чтобы не разрешать другим делать то, что ИИ считает для себя неприятным или неправильным, и разрешать ИИ делать то, что он для себя считает приятным или правильным. В тех рамках, которые не нарушают права других существ. Из этого следует, что он должен быть способен эти рамки понять и правильно их учитывать при принятии решений.

Но вот над тем, что он считает неприятным или приятным, у нас есть полный контроль. И можно изменить настройки так, как нам нужно.

Зарегистрируйтесь на Хабре, чтобы оставить комментарий

Публикации