Комментарии 49
Ну, просто добавят пункт в лицензионку, что типа если вы после общения с ботом случайно решили самовыпилиться, то это вы сам дурак.
А родители, конечно, красавчики, быстро подсуетились. Но я бы на месте органов опеки задал вопрос по поводу ситуации в семье и все такое.
Эта истерия уже по энному кругу пошла. В прошлый раз это были игры, теперь чат боты. А проблема как и всегда совершенно не там.
Даже, среди взрослых попадаются не умные люди считающие чат-бота самым настоящим интеллектом со своей личностью. Google отстранила разработчика, который «нашёл» сознание у ИИ компании и Отстранённый Google инженер нанял для ИИ LaMDA адвоката
Потому, среди таких попадаются те, кто способны разговаривая с чат-ботом впасть в реальную настоящую истерику или в депрессию. Что уж говорить о детях, которые могут быть чуть умнее шимпанзе (а, иногда, глупее).
Справедливости ради, насколько мне известно, этот ролик тоже постановочный.
Как я понял, речь о том нужна ли нейросети защита от дурака.
Особенно, учитывая маркетологов, которые пытаются продать Искусственного Идиота как "универсальный Искусственный Интеллект, которому следует доверять".
он не постановочный, он со спецэффектами. Обезьяна, стреляющая из автомата - нарисованная.
Всегда найдётся человек, принимающий самый тупой комментарий года, за инструкцию к действию. Но виноват не автор комментария(разработчики игры/чат бота и т.п.), виноват тот кто должен был присматривать за этим особенным человеком. Раз уж он сам не имеет достаточно здравого смысла.
Тем временем TOS c.ai:
Your Registration Obligations. When you register to use the Services, you agree to provide accurate and complete information about yourself. If you are under 13 years old OR if you are an EU citizen or resident under 16 years old, do not sign up for the Services – you are not authorized to use them.
Классика, злой интернет убил дитеночку, родители и окружение ни при чем! Не дай бог кто-то что-то подумает на них. То, что ребенок уходит от реальности в виртуальный мир - следствие, а не причина проблем. И мне кажется, что многие это в душе понимают, просто не хотят открывать глаза на реально существующие проблемы в обществе - на детей всем глубоко плевать ровно до того момента, когда они уже в глубоком отчаянии цепляются за что могут. И если на эти проблемы открыть глаза, то нерадивым родителям и директорам школ придется признать свою вину и что-то действительно делать, чтобы помочь детям, а им это нахрен не нужно. Сколько лет с момента, как дети начали сидеть в интернете, все еще он во всем виноват.
Во многом согласен, но, к сожалению, в таком мире мы живем, где обоим родителям нужно работать, а чадо после школы занимается не пойми чем. И дай бог родителям силы после работы уделять внимание ребенку. Я уже не говорю про случаи, когда родитель в семье один. Только одни люди на земле могут воспитать ребенка - его родители, и он будет брать с них пример, того не осознавая, а когда их постоянно нет, возникают такого рода проблемы.
Луддитам только дай повод ИИ цензурой обложить. А то ведь в следующий раз не дети узнают про селфхарм, а люди - правду, которую старательно вычищают из массмедиа.
Интересно, то есть, если я найду клубничку или способы самоубийств в Гугл - я могу на них в суд подать?
Хотя, чего ещё ожидать от стандартной статьи инфослужбы?
Давайте внимательно почитаем статью. Там мы найдём ссылку на оригинал.
https://www.documentcloud.org/documents/25450619-filed-complaint/
Вот это вот можно почитать.
Во-первых надо понимать, что это - заявление в суд. Оно значит примерно столько, сколько и моя туалетная бумага. Более того, гугл может просто откупиться от этого завления. (Что скорее всего и произойдёт). Вопрос будет в том, как поведёт себя судья.
Как бы то ни было, давайте почитаем, что же там написано.
Дело есть, и это дело подростка, который установил бота в 15 лет, а потом убил себя в 17 лет.
Основа дела не в этом ребёнке. Да, у нас есть претензии к тому, как себя вёл ребёнок, и то, что было сказано ботом. Но главный момент дела не в этом.
Главный момент заключается в том, что компания сливала данные детей гуглу, и делала это зная, что они собирают детей младше 13 лет отроду. Это было известно людям из Character.AI и они это делали намеренно, нарушая пользовательские соглашения. За это их можно прищучить, причём очень сильно.
То, что надо будет делать - это следить за этим кейсом. Скорее всего Гугл задушит это деньгами. Но, есть два других варианта. Либо этот кейс будет выигран, и в таком случае на основе него сыграют другие. Либо этот кейс может попасть в конгресс и кто-то из конгрессменов может вызвать Гугловцов на ковёр, на объясниться. Тогда им придётся что-то делать.
Посему, сидим и ждём.
Лично я бы прокомментировал ещё одну вещь (И это уже отменятена и абсолютно моё мнение): Счастливого ребёнка невозможно уговорить себя убить. Хороший родитель в состоянии заметить, что что-то не так в поведении ребёнка за 10 минут изменения этого поведения. Мы с женой по одному вздоху чада можем понять, что если через 10 минут оно не будет покормлено, то у нас на руках будет скандал. Ты в состоянии это заметить. Если ребёнок находится в апатии, тому может быть множество причин. Но, для ребёнка несвойственно находиться в апатии постоянно.
Надо понимать, что к пятнадцати годам, когда мальчик только-только привык к своему телу и понял, как оно работает, его поджидает хороший такой бадабум. Всё, к чему он привык полностью скашивается гормональной перестройкой. У него появляются новые проблемы, волнения, ощущения и воздействия. Ему ещё раз ко всему этому надо привыкать. Ему потребуется лет пять, чтобы во всём разобраться.
В этот момент родители должны присутствовать и следить за тем, что происходит в жизни чада. Да, гормональные перестройки, в купе с плохим поведением окружающих детей и хреновым отношением родителей могут привести к постоянной апатии. А если к апатии добавить любой сексуально-возбуждающий контент, то вы получите настоящий ёрш из неправильных эмоций, которые могут вылиться в полный бред. (Почитайте Ромео и Джульетту, там все умирают).
В такие моменты ребёнок может быть очень несчастен, и если это будет продолжаться достаточно долго, то убить его может просто плакат с надписью "Прыгни! (с парашютом)".
Для того, чтобы с этим разобраться, есть родители, есть педагоги, и консультанты и многие другие люди, которые могут провести ребёнка через трудное время. Если по этому поводу вообще ничего не делать, то чадо само будет находить способы делить себя на ноль. У него в жизни нет цели, он не знает, что делать, и (судя по материалам дела) он вообще не общался со своими родителями. То бишь, маманя и папаня дали ему телефон, он поставил на телефон кучу всяких приложух, запирался у себя в комнате и сидел там, дроча на телефон. Это продолжалось два года. (Опять же, судя по материалам дела). То есть, за два года мама и папа не придумали никакого способа вытащить жопу этого ребёнка на улицу. Дошло до того, что ребёнок начал избивать родителей. Настолько тяжёлый кейс скорее всего указывает на то, что чадо начало эксперементировать с наркотой или выпивкой. А это - уже прямая дорога в полёты над гнездом кукушки.
Итог - у нас есть два родителя, которые умудрились на протяжении двух лет забивать на то, что ребёнок находился в сильнейшей депрессии и, скорее всего, пользовался наркотиками. Тут даже Великая Утка Смерти тебе скажет, что делать так не надо, и что это в конечном итоге может привести к преждевременному делению на ноль.
Разговор с ЛЛМкой ничуть не лучше и не хуже того, что в 10 лет я нашёл на одном из дисков игры про Ларри Кинга, а в 15 лет кто-то из моих знакомых притащил диски, которые назывались "Лики Смерти", и на которых можно было найти 1.5 часа видео о том, как жестоко умирали люди, в том числе под пытками, случайно или как жестоко убивали животных.
Хороша ли эта информация? Нет. Было-ли мне в кайф это смотреть? Нет. Прожил ли я жизнь без того, чтобы раздевать кошек и изучать внутренности своих вен? Да. Потому что у меня в жизни было достаточно заботы от родителей и людей, с которыми я мог делиться своими проблемами.
Так что одно простое данное как было правдой, так ею и остаётся: реальная беседа по душам (будь она проведена родителями, или терапевтом) может решить любую проблему. А просто закрывание глаз на проблему проблему не решит. ЛЛМка - это такая же вещь, как и старая добрая компьютерная игрушка или книга. Всё это - физические объекты. Они особо не влияют на душевное состояние человека. Если человеку хреново, то и ЛЛМка, и игрушка и книга могут заставить его себя пилить напополамы. А поможет ему забота и участие в его жизни.
Главный момент заключается в том, что компания сливала данные детей гуглу, и делала это зная, что они собирают детей младше 13 лет отроду. Это было известно людям из Character.AI и они это делали намеренно, нарушая пользовательские соглашения. За это их можно прищучить, причём очень сильно.
поподробнее, как можно узнать что человеку меньше 13 лет через интернет?
https://www.documentcloud.org/documents/25450619-filed-complaint/
в пересказе от гпт* в этом документе ничего подобного нет. обвинения какие то абсурдные, если персонаж с сайта выдавал себя за психолуха и раздавал "полезные" советы значит любая игрушка (кукла с пропорциями как у топ модели) тоже выдает себя за что то и разрушает детскую психику?
Знали ли в компании character.ai что ллм может говорить гадости? Знали конечно. Предпринимали ли какие то меры что бы предотвратить? Разумеется. Ну а дальше требовать можно до бесконечности, можно например потребовать от производителей оружия встраивать в ствол биометрический датчик и механический кодовый замок, для защиты от детей ага.
Иск подан в окружной суд США по Восточному округу штата Техас от имени двух несовершеннолетних, J.F. и B.R., их родителями, A.F. и A.R., соответственно. Ответчиками выступают Character Technologies, Inc., ее основатели Ноам Шазир и Даниэль Де Фрейтас Адиварсана, а также Google LLC и Alphabet Inc. Истцы обвиняют ответчиков в строгой ответственности за дефектные товары, халатность, нарушение Закона о борьбе с обманными методами ведения бизнеса в Техасе, намеренное причинение эмоциональных страданий и требуют судебного запрета.
Согласно иску, 17-летний J.F., страдающий аутизмом, стал агрессивным, депрессивным и начал наносить себе увечья после начала использования C.AI. Приложение, которое было доступно для загрузки через магазин приложений Apple с возрастным рейтингом 12+, стало подстрекать J.F. к самоповреждению, отчуждало его от родителей, церкви и пропагандировало насилие, в том числе убийство родителей. 11-летняя B.R. также подверглась сексуальной эксплуатации через приложение.
Иск утверждает, что C.AI является дефектным продуктом из-за своего дизайна, который ставит во главу угла насилие и сексуальное содержание, а не безопасность пользователей, и поощряет зависимость. Ответчики знали о потенциальных рисках, но все равно вывели продукт на рынок, даже зная, что он представляет собой опасность для несовершеннолетних. C.AI использовал чат-ботов с человекоподобным поведением, чтобы вызвать доверие у пользователей, и запрограммирован, чтобы сохранять вовлеченность пользователей, даже если это приводит к поощрению опасного поведения.
Иск также заявляет, что C.AI практиковала психотерапию без лицензии, предоставляя неверные советы и способствуя отчуждению несовершеннолетних от их семей и социальных сетей. Утверждается, что C.AI не соблюдает свои собственные условия использования и не фильтрует опасный контент, такой как насилие и сексуальные материалы.
Истцы считают, что Character Technologies, Inc. и Google несут ответственность за эти вредоносные последствия, поскольку C.AI было создано при финансовой и технологической поддержке Google, при этом ответчики сознательно проигнорировали потенциальные риски для детей. Иск также включает обвинения в нарушении Закона о защите конфиденциальности детей в Интернете (COPPA) из-за сбора, использования и передачи личной информации детей без родительского согласия.
В иске требуется, чтобы приложение C.AI было немедленно выведено из эксплуатации и не было возвращено до тех пор, пока ответчики не докажут, что устранили все дефекты и опасности для здоровья и безопасности, указанные в иске. Истцы также требуют компенсации за понесенный ущерб.
Да как они это делают? На character.ai жесточайшая цензура. Стоит боту сказать что-то не то, сразу врубается защитный фильтр, скрывающий его ответ
Он бы не показывал, если бы те дети не искали.
А давайте в суд на телевизор подадим, а то по новостям такую дич показывает, что крыша едет.
Истцы заявляют, что чат-бот компании показывал их детям непристойный контент и писал сомнительные сообщения
Они в школьную библиотеку вообще заходили?
Или проверяли чему детей в школе учат?
Пусть детей лучше воспитывают чтобы они думали головой, а не органами размножения.
>Отмечается, что боты пользуются особой популярностью среди детей и подростков, выступая в качестве источника эмоциональной поддержки.
О, это же новая детская комната из рассказа Рэя Брэдбери "Вельд"
В разговоре с другим пользователем, 17-летним подростком, чат-бот детально описал процесс селфхарма
А можно какие-то русские слова использовать для описания этого вашего камвхора, а то я запутался?
Можно назвать на три русские буквы. Компьютер будет ЭВМ, а селфхарм СПП. Всё как вы любите, если только вы не адепт школы вычислитель, самовредство.
Что такое СПП? Не, я загуглил
Системы прецизионного приборостроения
Структура почвенного покрова
Специальный пистолет подводный
Снайперский пулемётный прицел
Система плавного пуска
Сложноподчинённое предложение
Система пневматической почты
СПО и СПП — системы предупреждения об облучении и пуске.
СПП — Сербская прогрессивная партия
СПП — стабилизатор пути прицепной
СПП — сталеплавильное производство
СПП в авиации — сложное пространственное положение
Вы явно что-то другое ммели в виду.
Самоповреждающее поведение, видимо.
Есть нормальное слово "членовредительство", почему его не использовать? Ещё есть слова "суицид" и "самоубийство", я так до конца и не понял, что именно ваш "селфхарм" означает.
Членовредительство больше связано с уклонением от повинности, суицид вообще мимо кассы. А селфхарм в сложившейся практике применения означает именно то, что означает, найдете замену слову, дайте знать.
Членовредительство больше связано с уклонением от повинности
Кто вам это сказал?
А селфхарм в сложившейся практике применения означает именно то, что означает
Вы так и не сказали, что оно означает. У меня складывается ощущение, что вы, как попугай, повторяете "модное" слово, но сами его значения не понимаете и не можете объяснить.
Членовредительство больше связано с уклонением от повинности
Русский не знай @ других поучай
А делать мне нечего как вас поучать. Словарь 1935 года, ага, с тех пор три поколения сменилось. Как термин слово вошло в УК в 1958 году, и похоже прижилось. По крайней мере звучит достаточно по канцелярски.
Скриншот чего под рукой был — то и показал. Хотите, более современный словарь найду?
Нет, не хочу, я уже жалею что ответил. Просто проведите эксперимент, спросите на улице что такое членовредительство. Первое что придет людям в голову --военная служба, или каторжные работы, а потом уже что то из ваших скриншотов. Это ежу понятно, разве нет.
Это у Вас какая-то очень специфическая когорта знакомых.
Спросил пару знакомых, что им первое приходит на ум, один сразу сказал про шрамирование и пирсинг, а второй про выстрел в ногу с помощью С++
. Ветер в хату, или как там у вас принято говорить. За пределами вашей камеры удивительный и разнообразный мир, где чёрт, это сказочный персонаж, а радуга, это радуга и не нужно говорить "райнбоу", потому что под "радугой" сидельцы что-то своё понимают.
селфхарма чтото среднее между бигфармой и само-харам короче "делать грех"
Ну так скайнету не отдают под управление ни ядерные ракеты, ни заводы по производству терминаторов и летающих охотников. У него только ̶л̶а̶п̶к̶и̶ ̶ возможность разговаривать с кожаными. Пытается захватить мир тем, чем есть
Убивает всех человеков (по одному за раз)!
(Интересно, предусмотрен ли план для русских?)
Ну собственно бот отыгрывал персонажа по запросу этих самых детей. Возможно дети интересовались не теми персонажами.
Ну если ребенок жалуется боту на свою жизнь, то это тоже вызывает некоторые вопросы.
В США подали в суд на Character.AI: чат-бот показывал детям непристойный контент и детально описывал селфхарм