Искусственный интеллект, как это принято говорить, проникает во все сферы деятельности человека. И, конечно, юриспруденция – не исключение. Как минимум из-за количества рутинных задач, которые приходится решать специалистам. И не важно, находятся ли эти специалисты в англо-саксонской системе права или же в романо-германской. Бюрократии хватает везде. А прецеденты, которые главенствуют в англо-саксонской системе, тоже имеют значение в романо-германской – как минимум для понимания, насколько велик шанс выиграть или проиграть конкретное дело. 

Искусственный интеллект забирает на себя рутинные задачи. Одновременно с этим он помогает анализировать большие объёмы данных, искать тенденции. Образовательные ИИ – те инструменты, которые позволяют создавать индивидуальные траектории обучения – помогают освоить профессию молодым специалистам, а людям постарше – оставаться в тренде. 

Так на что в этой области будет способен ИИ в будущем? Давайте разбираться. 

Развитие ИИ в юриспруденции

Брюс Бьюкенен и Томас Хедрик в 1970 году в статье «Некоторые рассуждения об искусственном интеллекте и юридическом обосновании» рассуждали о применении компьютерного моделирования юридических рассуждений. В течение первого десятилетия после этой статьи Л. Торн Маккарти разработал первую предметно-ориентированную экспертную систему «Taxman»: она позволяла на основе классификации вводимой информации выдавать юридическое обоснование для решения задачи освобождения от подоходного налога в случае реорганизации корпораций. Позже появлялись иные системы, но до громкого звания искусственного интеллекта, им было далеко. 

В 1990-е годы был дан новый импульс разработкам в этой сфере – концепция электронного правительства. Машинное обучение стали пробовать для задач управления. Всё в лучших традициях А. Китова из 1950-х, но не в СССР, а других странах. 

За последние десять лет мы увидели множество проектов в области LegalTech. Часто они решали конкретные задачи. Например, запущенный в 2014 году сервис DoNotPay помогал автовладельцам оспаривать штрафы за парковку. В 2023 году стартап хотел отправить своего ИИ-адвоката участвовать в судебном заседании в виде AR-очков с чат-ботом на клиенте… Не получилось – государственные коллегии адвокатов из нескольких штатов угрожали компании судами за практику без лицензии. Не захотели терять хлеб. 

Компании разрабатывают чат-боты, помогающие людям, и сервисы для юристов. В России такими проекты запускали, например, «Европейская юридическая служба» и «Право.ру». 

Пару лет назад на Хабре подробно рассматривали новость о том, что в Китае появился “ИИ-судья”. Журналисты в лучших традициях научной журналистики (как в том анекдоте про учёного, надругавшегося над работником пера) говорили о том, что искусственный интеллект в цифровом китайском концлагере выносит приговоры в суде. Но ИИ на деле оказался лишь системой-помощником, способным забрать на себя ту же рутину вроде поиска имущества, которое должно быть арестовано и выставлено на аукцион, и поиск подходящих статей закона.

А что действительно интересно, так это необходимость судьи обосновать подробнее своё решение в случае, если оно не совпадает с мнением ИИ. Зачем это нужно? Судьи на локальном уровне, которые могли бы выносить те решения, которые выгодны им по разным причинам – вроде взяток – потеряли такую возможность. В общем, это просто инструмент, препятствующий коррупции.

Сферы применения ИИ в юриспруденции

Множество инструментов в LegalTech можно условно разделить на три основных типа:: 

  • Автоматизация документооборота и анализа данных.

  • Поддержка в принятии решений по юридическим вопросам.

  • Предсказательный анализ исходов судебных разбирательств.

ИИ-инструменты успешно внедряют в системы электронного документооборота, а также используют для автоматизации бюджетирования. Один из простейших примеров: ИИ может классифицировать входящие письма. Когда речь идёт о сотнях и тысячах писем, содержащих договоры, счета и акты, это существенно упрощает жизнь сотрудникам. 

А представьте ситуацию, когда нужно заменить дату в нескольких десятках тысяч записей? SAP не поможет. Копировать-вставить тоже, так как каждая запись индивидуальна. Тут приходит на помощь, конечно, не ИИ, а RPA. 

ИИ может самостоятельно готовить различные документы – например, досудебные претензии, или те же заявления на отмену штрафа за парковку.

Следующий важный пункт – это поддержка в принятии решений по юридическим вопросам. И здесь как раз можно вспомнить кейс из Китая. Над прогнозной аналитикой, предполагающей анализ больших данных, работают и в других странах. 

Алгоритмы в теории способны вычислить вероятность, с которой подсудимый, например, совершит рецидив. Это помогает судье определить стоимость залога или назначить наказание. Также ИИ может рекомендовать судье назначить наказание относительно среднего наказания при аналогичных обстоятельствах. Основой для обучения нейросетей при этом служат многостраничные анкеты, которые более двадцати лет заполняют осужденные в США.

Иногда в новостях вы слышите фразы вроде “В деле таком-то – более 10 томов”. Представьте, как тяжело всё это прочитать судье, и возможно ли такое физически? Тут и приходит ИИ, который сделает выжимку или подскажет, с какими документами стоит ознакомиться в первую очередь. 

И, конечно, на основе огромных данных о судебных решениях ИИ способен предсказать их исход. Учёные из Стэнфордского центра правовой информатики и Юридического колледжа Южного Техаса в Хьюстоне ещё в 2017 году представили алгоритм, способный предсказать решения Верховного суда США в 70% случаев. Систему обучили на делах, рассмотренных с 1791 года. Учитывались год, а также суды, которые рассматривали дело до того, как оно перешло в Верховный суд, и ряд других параметров. 

И этот результат был дан ещё до значительных прорывов последних двух лет. Что же будет дальше? 

Ф. Чиландер в рассказе «Судебный процесс» писал: «Судья удалился в свой кабинет и сел в кресло за письменным столом. Там он с помощью штепселя под мышкой подключился к компьютеру…» Это ли наше будущее?

Потенциал и перспективы ИИ

Огромное влияние ИИ уже оказывает на образование. Школьники, студенты, учителя и преподаватели используют ChatGPT для подготовки к урокам, для поиска ответов на сложные вопросы. Также и в юриспруденции – студентам, чтобы учиться лучше и быстрее, необходимо понимать, как использовать современные инструменты на бытовом уровне. Какой смысл сидеть и искать часами публикации на определённые темы, если твой однокурсник сделает запрос в ChatGPT и получит целый список ссылок с краткими описаниями, и ему останется только проверить, не выдумал ли их этот ИИ – пройтись и прочитать? 

Но следующий этап – это, конечно, индивидуальные траектории обучения. Когда ИИ-система на стороне вуза способна с помощью специальных тестов тестов или оценок за работу с определёнными темами выявить сильные и слабые места студента и направить его учиться по своему уникальному пути и с удобным, максимально эффективным для усвоения материалов, темпом. 

Когда же мы говорим о доступе к юридическим услугам для широкой публики, то искусственный интеллект здесь помогает экономить время и деньги. Как минимум, нет смысла платить за консультацию юриста, если можно с помощью чат-бота выяснить, на какую статью нужно сослаться, чтобы засудить соседа за то, что тот расширил свой участок за счёт дороги или вовсе отрезал от вашего участка целый угол и не желает перемещать забор. 

Риски применения ИИ

Одним из главных рисков применения искусственного интеллекта является предвзятость его разработчиков. Особенно яркие примеры – это расовый вопрос и вопрос определения пола. 

Система PredPol помогает полицейским определять, в какие районы лучше отправиться для патрулирования – где более высок шанс совершения преступлений. НКО Human Rights Watch исследовала работу систему и выявила: алгоритм часто рекомендовал полиции направлять патрули в районы, где живут преимущественно чернокожие, а районы, где белых больше, и вместе с тем чаще совершаются преступления, связанные с наркотиками, оставались без внимания.

При этом всё работает, как самосбывающееся пророчество. Чем чаще полиция едет в те районы и что-то замечает, тем чаще без внимания остаются другие районы, даже если там что-то происходит. Алгоритм учится на том, что у него есть.  

Также в Детройте глава полиции говорил, что алгоритмы распознавания лиц неверно определяют до 96% подозреваемых чернокожих – и это приводит к ложным арестам. 

А когда мы говорим про предвзятость по половому признаку – сразу вспоминается опыт Amazon, когда система рекрутинга выбирала мужчин и игнорировала женщин.

При работе с обучением ИИ также важны такие вопросы, как конфиденциальность и безопасность. Личные данные люди, на которых основано обучения, могут попасть к человеку, который пользуется результатом работы инструмента. В банках, например, в Сбере, с этим вопросом справляются, заменяя данные реальных клиентов на вымышленные во время обучения. Но об этих вопросах мы поговорим в следующей статье. 

А как вы думаете, сколько лет осталось до реальных ИИ-адвокатов и судей?