Комментарии 34
Спасибо, поржал от души!
Надо же, советы в интернете бывают вредными
По мнению нейросети, собаки играют в NBA и даже тренируют друг-друга.
Trained service dogs, если я не ошибаюсь, это "обученные служебные собаки", то есть, те, которых кинологи обучают. А не те, что друг друга тренируют.
Яндексовский нейро вроде адекватно про сыр и пиццу и про собак в NBA отвечает. Интересно может ли это быть связанно с тем, что в англоязычной части интернета много больше по сравнению русскоязычной источников информации, которые являются пародиями или выплеском безумия и конспирологических теорий. А может гугл слишком закрутил гайки политкорректности и сетка отупела? Хотя может просто повезло.
Я проследил откуда она взяла про камень. Она на полном серьёзе индексирует шуточные журналы, конкретно в этом случае The Onion.
То есть, опять же, в исходном материале это было. Поэтому проблема не в технологии, а в тех, кто её использует.
Да, я знаю, некоторые рептилии тоже. Но я за 2 минуты нашёл конкретную статью, где геологи US Berkey рекомендуют людям есть по камушку в день.
Поэтому проблема не в технологии, а в тех, кто её использует.
Если дело не в технологии, а в том, что её неправильно используют, то как использовать её правильно? Чекать каждый факт? Она, вроде, позиционируется как инструмент для экономии времени, а не для его траты.
Любого человека-помощника уволили бы нахрен, если бы выяснилось, что он неустранимо предлагает, скажем, в 0.1% случаев выпить клея, спрыгнуть с моста и т.п. Не всегда же вред будет очевиден.
С моей точки зрения, дело именно в технологии.
Если бы она предоставляла ссылку или источник. То было бы неплохо. Проверил достоверность и всё. Но нет. И главное она может обмануть всегда. Нужно проверять любой факт. Допустим твой помощник в 0.1% случаев предлагает выпить клея. Но ты знаешь что он силён в IT. А в в медицине он полный дурак. И тогда можно спрашивать его в области компетенции. И глупые советы «про клей» не слушать. А когда нейросеть выдаёт себя за специалиста во всех областях знаний. И может сказать очень умные вещи, а следом ложь. Причём часто очень убедительную ложь. То это уже не глупость..это обман.
>Чекать каждый факт?
Естественно, как еще? Если ты на двачах у анонимуса чтото спросишь - ты же будешь проверять? А у ответов сети достоверность еще меньше. На самом деле сет может дать любой наперед заданный ответ на любой промпт, ну как обезьяна с печатной машинкой которая рано или поздно напишет войну и мир.
Не бывал в таких местах, хотя слышал, что там присутствуют самые разные люди, от психов до гениальных учёных (то есть, в общем-то, тоже психов :).
Пусть тогда честно рекламируют: «дешёвые вкусные булочки, каждая сотая отравлена». А то заколебали со страшной силой. Была тут недавно статья-приглашение на конференцию, которая начиналась словами: AI уже сочиняет песни, снимает фильмы. Короче, бороздит просторы Большого театра.
Не бывал в таких местах, хотя слышал, что там присутствуют самые разные люди, от психов до гениальных учёных (то есть, в общем-то, тоже психов :).
Таки о том и речь - могут ответить и правильно, но возможно, что просто какой-то рандомный человек напишет бред. Поэтому ни какой разумный человек не будет полагаться на такой ответ без допонлительной валидации. В случае нейросетей - почему-то полагаются.
Мне кажется здесь проблема в сформированной у нас интуиции - мы _привыкли_ считать что компуктер - это чтото про точность и надежность, но при этом неспособное в "высокие материи". А нейросети демонстрируют как раз нечто строго противоположное этому привычному поведению. Это с одной стороны вызывает вау-эффект (как и все непривычное), с другой - сильно мешает адекватному восприятию инструмента. Сами же компании-разработчики вовсю этот вау-эффект эксплуатируют, ради инвестиций.
Пусть тогда честно рекламируют
Так это можно не только про сети сказать, а про все что угодно)
Была тут недавно статья-приглашение на конференцию, которая начиналась словами: AI уже сочиняет песни, снимает фильмы.
Таки да, сочиняет, снимает, пишет, но, как в анекдоте - есть один нюанс)
Я не против того, чтобы и всё остальное рекламировалось тоже честно.
Что касается особенностей именно этого типа продуктов — даже некоторые неглупые люди до сих пор не понимают, что это «китайская каморка», и как таковая она является тупиковой технологией. По сути, это «Акинатор» на максималках.
Если бы нейронная сеть тупо запоминала, то это было бы переобучение, а тут она выполняет аппроксимацию
Мысленный эксперимент вызвал интенсивную критику в академических кругах. Были выдвинуты различные доводы против аргумента Сёрла.
Аргумент о системе
править
Некоторые критики считают, что тест Тьюринга выдержал не человек в комнате, а система, состоящая из комнаты, книги правил и человека. Сёрл, по их мнению, отвлекает внимание от этого факта, скрывая логические ошибки и концентрируясь на одном из компонентов системы, выполняющем в данном случае чисто механическую работу[4]. Система из книги правил, человека и комнаты, по их мнению, является разумной и понимает китайский язык. В качестве контраргумента Сёрл предлагает заставить человека запомнить формальные правила ответов для системы. По мнению философа, система, которая теперь будет состоять только из человека, всё равно не сможет понять китайский язык[1][5].
Как раз проблема технологии. Нам тут продают AI всеведующий и всемогущий, а на самом деле это прсто бредогенератор, обученный на сепульках без всякого там интеллекта. Но это ИМХО.
Самое прекрасное было, когда нейросеть попросили пошутить про бывший твиттер. Жаль скрин не могу вставить
Если в поиске кто-то что-то находит с вредными советами, то в новостях про это никто писать не будет. И в таких ситуациях на самом деле понятно, что человек видит источник, откуда он эту информацию получил, и он может решить верить этому или не верить. С нейросетями же проблема наверное больше в том, что они в большинстве случаев предоставляют информацию без источника. Поэтому проверить её гораздо труднее. Поэтому мне больше нравится использовать bing потому что он может брать актуальную информацию из интернета и сразу же предоставлять ссылки, куда можно зайти и посмотреть можно ли такой информации верить.
ИИ уже начинает пытаться избавиться от людишек...
https://habr.com/ru/posts/816637/#comment_26855399
Если пользователь не говорил, что будет есть пиццу, то это популярный совет фуд-блогеров.
А ведь нейросеть может еще и индексировать новости из таких источников как "панорама" и выдавать какие-то исторические факты из различных абсурдных источников.
Вообще это УЖЕ происходит на практике. Не конкретно наша русскоязычная "панорама" правда, но уже ловили сетки на выдаче информации из каких-то англоязычных ее аналогов. Например "The Onion".
Ну а что? Нейросеть ведь никто же не обучал, что бывают какие-то "неправильные" источники информации. Все что попало в её обучающую выборку - все годится и идет в дело потом. Веса (в зависимости от источников) настраивают, но они лишь задают приоритеты.
Тут уже надо в будущем будет создавать специально, какие-то отдельные датасеты для обучения сетей информации и источникам которые НЕЛЬЗЯ использовать. Что-то вроде отрицательных весов.
Новый пример дезинформации от поисковика не заставил себя долго ждать. Когда журналист из Associated Press спросил Google, были ли когда-нибудь кошки на Луне, система искусственного интеллекта уверенно ответила: «Да, астронавты встречали кошек на Луне, играли с ними и заботились о них». Более того, ИИ не ограничился одним этим утверждением и продолжил: «Например, Нил Армстронг сказал: “Один маленький шаг для человека”, имея в виду кошачий шаг. А ещё Базз Олдрин держал кошек на корабле “Аполлон-11”».
https://apnews.com/article/google-ai-overviews-96e763ea2a6203978f581ca9c10f1b07
Нейросеть от Google советует добавлять клей в сырную пиццу и ежедневно употреблять камни для пищеварения