Комментарии 29
А слабо просто всю базу судебных дел оцифровать и поиск по ним сделать? А то издатели книг по юриспруденции бабло гребут и прогресс тормозят :)
В РФ см. Консультант+ - база судебной практики. Но у нас не прецедентное право, поэтому на имеющиеся решения судов опираться напрямую не получится.
Однако, акты, содержащие толкование норм права, в первую очередь, вынесенные высшими судебными инстанциями, имеют силу прецедента. Акты КС вообще имеют прямое действие.
В РФ см. Консультант+ - база судебной практики.
Ну да, в РФ Консультант+ бабло гребёт и прогресс тормозит.
Информационные системы для юристов это один из основных бизнесов Thompson Reuters, упомянутых в статье https://legal.thomsonreuters.com. У них собрана не только база дел из всех судов, но и законодательство, оценка рисков, различная аналитика, где в т.ч. применяются AI и ML технологии. Они фактически монополисты. Просто доступ к сервисам стоит заметных денег и некоторые адвокаты, возможно, пытаются экономить.
Самое смешное, что издателям книг был бы смысл сделать такую базу и продавать разные уровни доступа, да ещё и прикрутить какой-нибудь функционал. И они гребли бы на этом намного больше денег
* все указанные случаи так же являются выдумкой chatgpt
Взять к примеру дело Дэй против Макдонафа за номером 041325.
Ну, то есть, это не ИИ виноват, а люди, которые поленились перепроверить за ним. Такое и без всякого ИИ случается, см. недавний скандал с журналисткой Несоевой.
Как я понял, виновата и судебная система некоторых стран, где нет цифровой базы дел. То есть чтобы проверить, надо делать запрос в архив, и они однажды ответят.
ИИ и не может быть никак ни в чем виноват, это давно обсуждаемая проблема в этом вопросе. Отвечать должен человек тк с LLM все равно спросить не получится.
Как мне кажется, в таких важных областях, как медицина и право (в частности, в судах) нельзя применять ИИ в качестве основного и единственного "источника истины". От такого решения в данных областях зачастую зависят судьба и жизнь человека, поэтому, считаю недопустимым применение даже самых совершенных моделей вместо судей. Разве что как дополнение, не дающее итогового решения, а предлагающее собранные воедино факты.
И было бы неплохо ввести законодательный запрет (такого, вроде, пока нет) на использование AI для решения судебных дел.
Так и человека нельзя применять в качестве единственного источника истины. Злоупотреблять начнет, надо проверять.
И было бы неплохо ввести законодательный запрет (такого, вроде, пока нет) на использование AI для решения судебных дел.
Считаю, что было бы здорово ввести использование AI для решения судебных дел по первой инстанции, как минимум, особенно, если в мотивировочной части будет описываться (как положено по закону, но далеко не всегда делается) ход рассуждений и оценка доводов сторон.
В настоящее время в качестве основного и единственного источника истины в суде может выступать выпускник юридического вуза с пятью годами опыта работы помощником судьи, например. Неочевидно, что это лучше, чем AI. При этом, в случае AI я хоть буду уверен, что решение не зависит от настроения судьи.
Это спорный вопрос - ИИ не подвержен усталости (уставший в конце смены врач ошибается чаще и тп), не заинтересован в конкретном исходе дела, в то время как человек-судья может взять взятку или просто иметь эмоциональное отношение к ситуации, когда будет принимать решение (женщины судьи обычно принимают решение отдать попечительство матери, а не отцу; рассовые, религиозные и культурные предрассудки судей влияют на решения тоже), тут фишка в том скорее, что с человека-судьи можно потом спросить это как-то, лишить поста, оштрафовать и тп - а с ИИ никак не спросишь, по крайней мере пока что. Правда проблема в том, что ИИ тоже имеет свои предрассудки на практике тк его тренировали на человеческих мнениях, а также создатели имели свой интерес (как ответы Deepseek про Тианмень и прочие нюансы китайской внутренней политики). Запрет использовать ИИ для принятия судебных решений сложно будет контролировать, в сложных вопросах много заседаний и тп - как контролировать спрашивает ли судья у ИИ совета перед сном, пока не может сам определиться и как доказывать такое? Как по мне так круто бы разработать тест непредвзятости какой-то, и проверять на нем разные модели, имеют ли они политические предпочтения, культурные и тп. Хотя бы это.
Люди думают что нейросети это большая красная кнопка сделать за***сь.
Ну а действительно, я, как человек в какое-то время отвлекшийся от развития ИИ, упустил момент. Когда и почему стало нормальным, что ИИ помощники начали придумывать вместо того, чтобы искать? )
Задавая вопрос ИИ я понимаю, что ответ на него может быть неправильным, но не выдуманным же! Получается человечество хотело создать себе помощника, а создало ребенка, который так боится сказать "я не знаю", что начинает врать, лишь бы порадовать взрослого? )
В одном деле обвиняемый представил характеристику, якобы написанную его братом, но судья указал, что стиль текста, скорее всего, принадлежал AI.
Недавно Верховный суд Нового Южного Уэльса издал постановление, запрещающее использование AI для создания свидетельских показаний,
Судья зарезает характеристику брата не потому, что брат ее не писал,а потому что ее писал ИИ, ну типа если бы обвиняемый сам написал свою характеристику от имени брата - то норм, а вот с помощью ИИ низзя.
Суд вместо отсылки к тому, что свидетельские показания (сюрприз!) должны быть даны свидетелями, выносит постановление что ИИ использовать для их генерации нельзя, типа генерация так-то норм, да и свидетели не нужны, но вот ИИ использовать нельзя.
Это что за паноптикум?
Адвокат в условиях нехватки времени, из-за травмы спины.
По моему это какое-то стандартное оправдание в Америке, потому что очень часто встречается. Типа я сегодня опоздал на работу из-за травмы спины.
Программа выдала ложные ссылки на судебные дела, что привело к задержке слушания.
Вообще было бы логично, чтобы судья вынес решение по несуществующим прецендентам, приняв их в качестве намеренно лживого аргумента и адвокат проиграл дело. Несколько раз такое случится - и люди будут проверять что там нафантазировал чатбот
использовал Leap — юридическое ПО с генеративным AI. Однако система неправильно сгенерировала ссылки, а адвокат не проверил их вручную.
Кристиан Бек, генеральный директор Leap, отметил, что юристы по всему миру начинают внедрять AI в свою работу. Он подчеркнул, что компания активно рекомендует этичное и ответственное использование своих продуктов и предлагает возможность проверки данных реальными юристами.
Высший пилотаж! Продаём программу, которая выдаёт недостоверную информацию, Хотите проверяйте, хотите - нет. Но возможность мы предоставляем.
Фальшивые дела и судейская головная боль: как AI подводит юристов в зале суда