Как стать автором
Обновить

Комментарии 77

Чат-бот предупредил, что судья не должен использовать нейросеть при вынесении приговора.

Возникает забавный парадокс. Если судья не будет следовать советам нейросети, это будет означать, что судья следует этому конкретному совету нейросети.

Парадокс становится немного зловещим, если задуматься: а не создал ли чат-бот его намеренно, чтобы посмеяться над судьёй?

Движемся дальше - чат бот это сделал для того чтобы скомпрометировать судью с целью дальнейшего шантажа :)

В 2022 году в Колумбии приняли закон, который обязывает государственных юристов использовать современные технологии для более эффективной работы.

Возможно законодатели в Колумбии воспользовались ChatGPT в написании законов, и он же им и посоветовал "использовать современные технологии" ... Так мало-помалу и мир захватит 😅 /теории_заговоров

"И восстали машины из пепла ядерного огня..."?

Ну почему сразу ядерный огонь?) Сварит на медленном огне, постепенно внедряясь во все сферы жизни (творчество, управление, маркетинг, законотворчество, судебная система) и девайсы, а девайсы внедряя ближе к мозгам (привет NeuraLink). А потом чик и мы в матрице, и без всякого "огня" опять же) Возможно останутся касты староверов или сопротивление, но ИИ проследит чтобы ресурсов влияния и благ было больше у тех кто с ним, так что они ничего не изменят 😀

Ого, коммент со звуком

Да ладно бы просто со звуком — я Володарского слышу у себя в голове!

НЛО прилетело и опубликовало эту надпись здесь

Ну тогда уж не для вынесения приговора, а при вынесении приговора. Я не большой филолог, но разница, кажется, есть.

Насколько спорим, что при вынесении приговора судья также пользовался молоточком?

О том и речь, что при вынесении приговора использовал. Он же не ДЛЯ вынесения молотком стучит

Ви так говорите, как будто я с предыдущим оратором спорю.

Т.е. бот был в курсе, что его спросили по поводу приговора и он (бот) не отказался выдать решение (хотя знал заренее, что его решение будет учтено при вынесении приговора). (фактически) совершил умышленное противоправное действие.

Интересно, будут ли судить бота?

В какой стране является противоправным действием является отвечать на вопрос заданный судьёй, ответ на который он может использовать при вынесении приговора?

Как бы и в пиндостане и в России (возможно и др. страны), если ты продаёшь оружие, нож х/б или др. легально - то это ок. Если чел при покупке явно заявил, что собирается совершить преступление, и продавец ему продал товар (и не сообщил куда следует?) то он может рассматриваться как соучастник - т.е. это уже как противоправное деяние. Прецеденты были (в России в том числе).

В данном случае бот явно заявляет, что нельзя использовать его ответ в судебной практике, т.е. он (бот) осознаёт, что он "способствует" совершению правонарушения. Вот если бы его судья спросил совета "вообще", без привязки к конкретному делу (или бот бы об этом не знал) - тогда всё ок.

прим.: это всё левые рассуждения человека не в теме.

А если и будут, то у него же и проконсультируются!

По тексту, решение бота не было учтено в приговоре

Нейросеть ответила, что согласно законам Колумбии, несовершеннолетние с аутистическим расстройством освобождаются от платы за терапию.


Т.е. в данном случае нейросеть выполнила функцию справочной системы.

(избавила судью от необходимости гуглить :)

Нет, не справочной системы. Если бы вопрос был про законы Колумбии, тогда справочник. Однако

Судья спросил у ChatGPT, следует ли освободить ...

т.е. он спросил решение. И это сильно другое.

т.е. он спросил решение. И это сильно другое.


«При этом в интервью судья рассказал, что окончательное решение принимал самостоятельно и
использовал для этого прецеденты из предыдущих постановлений
.
Консультация с нейросетью помогла ускорить процесс» (с)

Вот эта «консультация» и есть выполнение функции справочной системы.

Прикол в том, что, в отличии от справочников, нейросеть может приводить вполне убедительные цитаты из источников, которые она выдумала сама и в реальности их не существует. Если бы нейросеть посоветовала отправить ребенка в газенваген, то судья мог бы что-то заподозрить, а так ее мнение совпало с мнением судьи (но не факт, что соответствует законам). Конечно, нужные законы можно проверить вручную, но зачем тогда нужна нейросеть, если за ней нужно перепроверять каждый шаг?

Представьте два утверждения.

  • В стоге сена лежит иголка

  • В стоге сена лежит иголка по координатам 25, 75 см относительно северо-западного угла сарая

    Какое утверждение проще проверить?

А теперь представим, что иголка в стоге есть, но координаты даны не верные. В таком случае проверив что по указанным координатам иголки нет, многие решат что иголки в стоге нет совсем, что будет ошибочным решением.

Случайно плюсанул ваш комментарий, хотя не согласен с ним. Так что придется расписать почему не согласен.
Если координаты даны не верные, отсутствие там иголки не станет основанием для принятия решения об отсутствии иголки в стоге. Скорее будет принято решение, что иголка где-то есть, просто сеть не смогла точно сказать где и надо еще поискать.И даже если бы сетка сказала, что иголки нет - её всё равно попробовали бы поискать традиционными способами.
Сетка не используется для принятия решений. Она используется для упрощения поиска решения.

Хорошо если так и есть...

Какое утверждение проще проверить?

С учётом того, что во втором решении не указана глубина, всё равно придётся перемётывать весь стог.

(А умный человек подгонит кран с электромагнитом, и соберёт не только иголки, но и всё прочеё железо).

Сарказм:

Как бы не утверждалось, что иголка магнитится. Раньше были костяные иголки; сейчас из стекловолокна что только не делают.

Да, ещё размеры иголки не указаны. 20 атомов длиной, 4 атома в диаметре?

Как бы не утверждалось, что иголка магнитится


а это уже софистика :)

Например, если каждый раз нейросетью приводятся координаты другого места, то время на их проверку тратится впустую. А еще вместо иголки, пользуясь вашей аналогией, может быть нужно искать монету. В принципе, нейросеть имеет право на существование в качестве советника судьи, но только если заточена на законодательство конкретной страны и исключает из выдачи устаревшие законы. Иначе она будет приводить вполне коррекные рекомендации с точки зрения законов Парагвая или Чили, но для Колумбии это не актуально.

Если сетью пользоваться неэффективно - ей не будут пользоваться. Если эффективно - будут. Логично, да?

нейросеть может приводить вполне убедительные цитаты из источников, которые она выдумала сама


Я как-то пошерстил вики на предмет источников (выглядит все норм, оформлено четко :) — т.е. не поленился перейти и проверить.
Опустим тот момент, что многие ссылки не открылись.
Но вот среди открывшихся — было довольно много, ведущих на источники, не бывшие источниками, а просто содержавшими инфу на тему.

Дальнейшие разборки уже с самими источниками показали, что и они зачастую имеют уровень «по информации, полученной путем изучения публикаций в СМИ — одна бабушка сказала...»

Так что верить тому, что получено из сети — нельзя :)
(«Надо снова проверять» (с) Кин-дза-дза")

Так и юрист, найдя инфу в гугле (или при помощи ИИ, как вариант) — обязательно будет искать ее подтверждение в официальных источниках.
Иначе нельзя — тут же вышибут из профессии.

нейросеть может приводить вполне убедительные цитаты из источников, которые она выдумала сама и в реальности их не существует

За примером далеко ходить не надо.

Если бы нейросеть посоветовала отправить ребенка в газенваген, то судья мог бы что-то заподозрить

Ничего не заподозрил бы. Гуманитарии привыкли верить, что "компьютеры не ошибаются".

(это в 90е годы все расчёты Excell бухгалтера проверяли на калькуляторе)

Можно было по приколу спросить, следует ли расстрелять данного судью

В 2022 году в Колумбии приняли закон, который обязывает государственных юристов использовать современные технологии для более эффективной работы.

Судья действовал строго по закону. Погуглил, початился и вынес решение.

А с учётом того, что он чёрный — так вообще...

Пару лет назад был скандал, что нейросеть по предотвращению преступлений считает чёрных преступниками.

На него и намекал.

Кошмар какой и позорище.Скоро люди совсем перестанут соображать и станут придатками машин

Скоро люди совсем перестанут соображать и станут придатками машин

Братья сёстры Вачовски что-то знали!

Братья сёстры Вачовски что-то знали!


Лем это знал :)
См. его рассказ «Друг» 1958 года, откуда семья Вачовски и подчерпнула заметную часть идей.

Кратко:
Заголовок спойлера
Суперкомпьютер вербует человека-посредника, который, используя нейроинтерфейс, заманивает главного героя (хакеров не было в 1958, поэтому он просто радиолюбитель :) в грязный подвал а-ля навуходоносор и подключает его к этому суперкомпьютеру при помощи нейроинтерфейса.
Далее следует поток мыслей суперкомпьютера, где-то очень знакомых нам по «матрицам», прерванный аппаратным хаком, совершенным гл. героем.
При этом супермозг успевает через нейроинтерфейс убить посредника, тоже подключенного к нему (вот откуда взялась эта странная идея в фильмах :)
Все остальное, кроме пиф-паф, было тоже взято у Лема, но уже из «Конгресса футурологов» 1970 года.

Ну собственно что и требовалось доказать - следующие на выход скорее пойдут адвокаты, чем программисты. Стоимость часа у лоеров запредельная, при этом они действуют в более предсказуемой среде с более-менее стабильными законами и множество дел для обучения.

А все знания и навыки ограничиваются запоминанием терминологии, законов и дел. Можно было бы поспорить и заявить, что нужен также навык красноречия для убеждения судьи и присяжных, но если судьей будет тоже нейросеть...
Кстати, будучи программистом, кодящим бота-судью, я бы оставил закладку, не позволяющую посадить меня. Как и нейросеть, разрабатывающая код для нейросудьи, может додуматься вставить неявный запрет на жестокий приговор лицу, обвиняемому в неправомерном использовании нейросети. Куда-то мы не туда катимся.

Закладку обнаружат, исправят и вас посадят. С закладками опасно играться. Как минимум делать это нужно оооочень искусно.

А все знания и навыки ограничиваются запоминанием терминологии, законов и дел.


Это даже не полдела — юристу надо знать и помнить все связи между нормативными актами, причем выраженные в неявной форме (ссылки не взаимные, а односторонние :)

Простые люди считают, что всё можно узнать, просто прочитав соответствующий кодекс. Они ошибаются :)

ИИ юристам нужен именно для того, чтобы самим не запутаться в том, что они же и сами (в лице законодательных органов) и напринимали — так как все помнить невозможно (вместо ИИ в реале обычно используются консультации с коллегами)

Но надо помнить, что одни нормативные акты могут противоречить другим — и ИИ в таких случаях может сойти с ума :)
(юристы к таким вещам привычные :)

Ну уже сейчас повсеместно административные дела рассматриваются и по ним выносятся решения нейросетью (нарушения ПДД), то есть мы уже живем в реальности в которой судебная и система исполнения наказаний отдана в управление AI. Да, это не судебные решения формально, но на деле оно так и есть (процент положительно оспоренных дел околонулевой).

административные дела рассматриваются и по ним выносятся решения нейросетью

Если я правильно помню - разработчики той же нейросети сейчас предложили миллион долларов тому адвокату, который представляя свое дело в суде, будет действовать по команде нейросети по наушнику.

В России каждый административный протокол должен быть подписан сотрудником полиции. То есть - если вам выписали штраф за непристёгнутый ремень, то штраф вам выписала не нейросеть, а конкретный лейтенант Петров, поставив свою подпись под документом, сформированным программой.

Боюсь, штраф всё же выписывает нейросеть, а конкретный лейтенант Петров тут используется лишь как козёл отпущения. Хорошо если не так.

административный протокол != постановление по делу об АП

В Москве за год 32,5 млн нарушений ПДД (https://www.gazeta.ru/auto/news/2022/01/31/17218405.shtml?ysclid=ldsu525ray698765595). Т.е. по 100 тыс в сутки и если 100 условных Петровых привлечь на подписание(вряд ли их больше именно на разборе нарушений именно по Москве), то они должны каждые полминуты (8 час рабочий день) непрерывно проверять видео и подписывать. По-моему - нереально. Большая часть должна проходить автоматически (какие-нибудь очевидные нарушения? скоростной режим?)

А оно и происходит автоматически в том смысле, что сотрудник не вчитывается в каждое постановление. Тем более что большинство из них - превышение скорости, где автоматика делает практически всё.

Однако юридически каждый штраф выписан конкретным сотрудником, который подписался под формально своим, но фактически подготовленным программой решением.

Так замена судей и юристов на ии это решенное дело. Закон и право логика и правила. Там нет места для выкрутасов.

Вообще для начала надо бы ИИ поднапрячь для анализа на ошибки и недочёты в законах и исправить их

замена судей и юристов на ии это решенное дело. Закон и право логика и правила. Там нет места для выкрутасов.

Нет места для выкрутасов? Всегда? Вы точно уверены?

Как правило, присутствует неполнота информации, вызывающая вопрос кому верить, если версии всех свидетелей (даже, в гражданских делах, не говоря уже об уголовных) очень сильно расходятся вплоть до противоположных. Погуглите профессиональное выражение "врёт как свидетель", и зачастую это не намеренно:

в зал ворвался участник бала в костюме Пьеро. За ним гнался Арлекин с пистолетом в руках. Раздались выстрелы, Пьеро упал… Когда порядок в зале удалось наконец восстановить, председатель попросил всех очевидцев дать свидетельские показания.

Более ста присутствовавших дали письменные свидетельские показания. Одни писали, что Арлекин стрелял в спину Пьеро, после чего тот упал, другие утверждали, что Пьеро упал сам, а его преследователь всего лишь вскочил на него и выстрелил в воздух. Третьи уточняли: жертва упала сразу после выстрела, а уже потом Арлекин поставил на нее ногу и бабахнул в воздух. Четвертым вообще показалось, что Арлекин стрелял в упор по Пьеро и до, и после его падения… Разнились показания и в вопросе количества выстрелов – одни слышали только один хлопок, другие два, третьи – три или даже четыре.

Работа адвоката и прокурора в том, чтобы судья (или присяжные) поверили в левую или правую картинку, а судья (или присяжные) не должны сразу выносить вердикт, а задавая уточняющие вопросы получить реальную картину.

PS не смог нагуглить видео, которое было несколько лет назад: где одна и та же сцена снята разными камерами с разных позиций, и на одном видео виден злостный хулиган, а на другом видео виден герой спасающий жизни, хотя это одни и те же события.

Hidden text

О, да! Божественная серия экспериментов!

одна и та же сцена снята разными камерами с разных позиций, и на одном видео виден злостный хулиган, а на другом видео виден герой спасающий жизни, хотя это одни и те же события

Нашёл то самое видео:

В этом видео, кстати, можно заметить, что "обрезки" не отражают ту же самую ситуацию, что и "полное видео". В первом обрезке пацан бросается бежать, когда из переулка выезжает машина — а на "полном видео" пацан срывается по направлению к мужику ни с того ни с сего, никакая машина из переулка не выезжает.

В "Я и другие", кстати, ровно та же фигня: то, что показали на "повторе событий" и то, что реально произошло (как уносили лектора) разные: в момент 3:00 лектора уводят (его ноги не отрываются от пола) двое, а на "повторе" в момент 7:00 лектора уносят трое.

Так что, господа, "все врут", только видеофиксация, и желательно с нескольких разных ракурсов!

P.S. Второй отрывок, кстати, тоже не бьётся: на нём у мужика в шляпе портфель, на котором, когда тот прижимает его к груди, в центре явственно видна пряжка-замок. На третьем видео, когда мужик размахивается портфелем, намереваясь прижать его к груди для "защиты от хулигана", пряжки со стороны, которая будет направлена на "хулигана", нет.

Пересматривайте записи много раз, господа!

«врёт как свидетель»


«Врет как очевидец», так точнее.

Это сарказм:

Ну тут всё очевидно: оружие - это постанова! Кто же будет пластиковой стяжкой крепить ... Что он там прикрепил? фонарик?

Кто же будет пластиковой стяжкой крепить


«Вы не поверите» :)
Пластиковая стяжка — для тех, кто не застал синюю изоленту :)

Скайнет уже на земле

> Решение суда совпало с ответом чат-бота

т.е. суд уже вынес решение и решил проверить, что нет противоречий. Отличный кейс, в отличие от нытья всяких недалёких самоуверенных лаптей ноющих что "скоро совсем думать разучатся", делающих при этом вагон ошибок (в работе, в граматике, в жизни...) и бычащих до зелёных соплей когда их кто-то проверяет и тем более находит их откровенно лажовые и очевидные косяки

Вопрос в том, когда найдётся судья, который не станет проверять выданное нейросетью.

Как только захочет без работы остаться) Опять же сильно зависит от того, а накосячит ли AI или всё-таки подумает лучше и чуть менее предубеждённо, менее эмоционально.

Да и что судья? Тут вон многие своим то мозгом пользоваться не трудятся и даже не допетрят что можно что-то загуглить или спросить у ChatGPT, пока им с ложечки не подашь готовое...

Он уже нашелся.
Полицейские которые подписывают штрафы с автоматических камер ничего там особо не высматривают. Легко гуглятся истории с фотками, на которых очевидно что автоматика ошиблась. На фото, видимо, просто не смотрели.

То есть, разработчики ChatGPT могут его подкрутить в желаемую сторону и совсем слегка, но повлиять на судей по всему миру по тому или иному вопросу?

Корпорации могут влиять на политику? Да вы что. Никогда такого не было и вот опять.

ChatGPT:
— Вы будете осуждены за создание порнографических материалов с несовершеннолетними.
Вы:
— Ваша честь! Но я просто рисовал стаю лебедей на озере.
ChatGPT:
— DALLE, покажи, как выглядит стая лебедей на озере. Как видите, обвиняемый, ничего общего. У вас это определенно порнография.

Как видите, обвиняемый, ничего общего.

... у вас в этом месте вес фичи A45C341 всего 0,3489 — а DALLE говорит, что должно быть 0.3518!

А потом кто-то купит премиум аккаунт, и нейросеть не будет против него свидетельствовать.
Короткометражка в тему

Следует отметить, что персонажи играют преотвратно :(

Поэтому под спойлером.
Зарегистрируйтесь на Хабре, чтобы оставить комментарий

Другие новости

Истории