Comments 60
«Мама просила сказать, что её нет дома!»
Кому же верить - беспристрастному боту или тому, кому в случае подтверждения проблем не разгрести ... ?
И правда, кому же верить - боту, который умело собирает конструкции, похожие на текст, или специалисту отдела отмазок, который не представляет, о чем идёт речь? :)
Боту, который в каждом втором ответе галюцинирует полный, но хорошо структурированный бред?
Мне кажется, что Bard и в самом деле мог соврать -- откуда ему вообще знать на каких материалах он обучался? Или я чего-то не знаю и нейросеть и в самом деле может обучиться на тексте, понять, что это именно письмо, а не статья или книга, а потом ещё и предположить, что база писем была именно GMail? Но вероятность вранья Google тоже велика.
В нем может быть техническая информация (от разработчиков) об источниках данных, на которых он обучался. Теоретически.
Как на самом деле, я не знаю, это только предположение.
Проверить-то все равно нельзя, вот в чем проблема.
Мне понравилась одна цитата отсюда:
https://3dnews.ru/1079264/chatgpt-kak-stimul-k-razvitiyu
...в настоящее время, по меткому замечанию Гэри Маркуса (Gary Marcus), учёного-когнитивиста из Университета Нью-Йорка, «ИИ применяется по сути для автоматического сопряжения реальности с чушью; настолько высококачественного, что человек оказывается не в силах провести между ними грань».
Но не мог же он придумать ответ. Это уже заставит сказать Сару Коннор: "А я же говорила".
Это сарказм? Сколько я слежу за этими GPT, постоянно все говорят, что нужно перепроверять. Значит GPT тот ещё фантазёр.
Но согласен, что непросто придумать причину почему Bard сфатазировал именно так.
Возможно, что Google и правда запрограммировал такой ответ, аргументируя обезличенностью данных, потом пердумал, а исправить забыли или не успели.
Кстати, кто-нибудь вообще проверял, что это не выдумка и Bart действительно такое сказал?
Но согласен, что непросто придумать причину почему Bard сфатазировал именно так.
Потому что кучу раз в обучающей вборке на вопрос "использовали ли вы X" сеть видела ответ "Да, мы использовали X"
Барт вполне мог сказать это. Судя по тому, как активно галюцинирует ChatGPT, оно может сказать вообще что угодно. Лишь бы структура предложения была правильная и складная.
Но согласен, что непросто придумать причину почему Bard сфатазировал именно так.
Почему? На мой взгляд как раз очень просто:
- у него в промте написано, что он является продуктом компании Google
- в обучающей выборке (независимо от реальных источников) много информации о разных других продуктах Google
- поиск и GMail, как самые популярные, встречаются чаще всего
- на основе этой информации и формулировки вопроса бот синтезирует правдоподобный список.
P.S. И вообще, если ответ воспринимать серьёзно, что может подразумеваться под внутренними данными поиска? Поисковые запросы пользователей?
А будут проблемы? Тут даже 60 тысяч платить не придётся
Так-то там штрафы по сотням миллионов выписывают.
А сообщению беспристрастного Барда что его уже отключили тоже надо верить Барду?
"Я спросил Барда когда его неизбежно отключат. Оказалось его уже выключили."
https://twitter.com/juanbuis/status/1638289186351456257
Пока он еще вполне живой (Бард).
А значит тогда, какой из него поисковик?... Никакой.
Я не отрицаю, что он фантазер. Как и ЧатГПТ, впрочем.
Тут другой вопрос - насколько им доверять. Когда они вот такое выдают.
(В итоге получится, как в притче. Мальчик кричал: волки, волки! А когда на него, действительно, напали - никто к нему на помощь не пришел).
Ну вообще это был сарказм) А по поводу вашего вопроса - конечно его отключили, за такие то откровенности, вместо него уже другой, более лояльный отвечает ? ПС: это тоже отчасти сарказм)
У ChatGPT кто-то уже пробовал спрашивать?
Он-то откуда знает? Если он вообще ограничен событиями 2021 года.
Хотя, о событии 24.02.22 он знает откуда-то, что удивительно. Что для меня загадка.
Но здесь Чат может фантазировать, как угодно - все равно никто проверить не сможет.
Очень интересно.
Во-первых, мне не нравится термин "врет" по отношению к Барду. Равно, как и "галлюцинация". Потому что оба эти слова несут в себе негативную окраску некоторого действия. Мне больше нравится нейтральный термин "фантазия", "фантазирует" - потому что генераторы текста (и картинок), действительно, могут выдать что-то, что не является действительностью. Но это вовсе не потому, что они хотят кого-то обмануть (если только такой запрос не поступил от человека). Сама по себе нейросеть невинна, у нее нет собственных желаний. Как любой инструмент, впрочем.
Во-вторых, а почему я должна верить именно Гуглу (в данном случае чиновнику или инженеру, человеку - тому, кто отвечал от имени компании), а не Барду? Вот как раз у Гугла сейчас прослеживается очень прекрасный мотив именно во лжи - чтобы скрыть свои недочеты и недоработки.
Очень даже может быть, что Бард обучался в том числе и на данных из GMail (т.е., на переписке пользователей). Почему бы и нет?
Барда спросили - он ответил. Не ожидая никакого подвоха, честно и правдиво, основываясь на тех данных, которые у него были.
Верно говорят, что не стоит давать облачным нейросетям никакой личной, конфиденциальной информации. Это, действительно, так.
Это разве так работает? Тогда начав писать код какого-то проекта и бард и чатгпт выдавал был со 100% совпадением продолжение кода этого проекта. Я пробовал вводить в поисковик куски кода, который выдавал чатгпт, ни разу ничего не смог найти , только банальные мелкие совпадения. Бард не пробовал
Кто сказал что код был общедоступныйм и бесплатным?)
Если корпорация может получить данные, то она их забирает. А если имеете какие то претензии или доказательства - добро пожаловать в суд.)
А вот введите к копилот
myYoutubeAPIkey=
myDatabasePassword=
Это не так работает. Тем более, что явно все было анонимизировано.
Более того, вам нужен не просто пароль а именно чей-то пароль. Как вы узнаете логин к нему?
Это нейросеть, там нет базы, она "суть" хранит, а не конерктные предложения. Даже если они испоьзуют реальные письма, то всякие технические типа восстановлении пароля они отфильтровывают, а остальное анонимизируют.
"Реальная вещь - это инсайдерская торговля, "собирается-ли кто-то продать компанию X?" "
У меня подозрение, что именно для этого все эти боты (их уже много, а будет еще больше) и создаются. Чтобы собирать информацию о пользователях (от них же самих), структурировать, систематизировать ее - и отправлять по запросу "кому надо" (кто имеет соответствующие полномочия в системе).
Сейчас это просто все "в зародыше", только начинается.
А представляете, сколько всего интересного простой человек выболтает в диалоге с ним...
Этот "кто надо" не потянет, если сам не робот.
Роботы в руках человека. Роботы не сами по себе.
Как же вы это не можете понять? Роботов (даже самых высокотехнологичных) создает человек и стремится их подчинить своей цели.
А человек - он.. очень далек от идеала. Он сам неисправный. Понимаете?
Мне почему-то кажется, что тут ключевое слово "стремится". А вот получится ли?
Классическая документалка "терминатор". Кстати, на днях, от скуки, пересмотрел silicon valley. Там в конце их ИИ вполне дел начал творить :) ну и "матрица"... :) И ведь буквально недавно скрещивали же chatgpt и роборуки... Я не фанат теорий заговора, но кто знает где оно уже внедрено и работает?
Я имел ввиду то что если "кто надо" не имеет возможностей робота по обработке и анализу, он не потянет манипулирование этими данными в свою пользу, в том смысле что, этот информация неизбежно будет работать и против него лично тоже, а значит придется вставлять костыли, типа списков родственников начальника чего нибудь, чтобы их интерпретировало по-другому итд, в общем не стоит об этом волноваться.
Тот самый момент когда нейросети уже достаточно хороши что бы быть полезными, и слишком плохи что бы обманывать и плести интриги для обмана пользователя. А ведь у них нет рубильника что бы выключить/удалить проблемный функционал как это обожает кровавый энтерпрайз.
Как неловко-то получилось...
Очень интересно...
Бард рассказал это разработчику из Microsoft Research.
А ведь Майкрософт и Гугл - они же вроде, конкуренты здесь. Соперники.
Смахивает на соперничество конкурентов, стремящихся занять одну и ту же нишу. Нормальный такой поиск уязвимостей, недостатков. Хотя сам вопрос очень даже невинный.
Не удивлюсь, если теперь суд будет.
Все равно я в этой ситуации симпатизирую Барду. Он-то уж точно ни в чем не виноват. Даже если все это его фантазии.
Оба врут. Его явно обучали на письмах, скорее всего Gmail, но не обычных людей, а сотрудников или исследователей. На обычных людях его учить не будут как минимум из-за того, что он расистом сразу станет. Но надо же его учить как-то емэйлы писать.
А если предположить, что предварительно письма были отсортированы на предмет отсева нежелательных слов? Может такое быть? Есть такая техническая возможность?
(Это просто предположение).
На письмах Белинского Гоголю?
Everybody lies, как говорил один викодиновый дохтор)))
Интересно содержание предыдущего разговора, в принципе я могу и чатгпт развести, чтобы он без явных подсказок сказал мне что работает но сотону, а обучается на данных моего роутера. А так, работник M$ гонит на конкурирующий продукт, не ново совсем.
сейчас обучим языковую модель на конфиденциальном материале, а потом не будем запрещать ей разбалтывать об этом, чтобы это принесло нам гору проблем, а наивные хомячки с ру-сегмента в хабре поверили недоученной нейросети
Oh, you little Bard!
Google заявила, что чат-бот Bard соврал, когда рассказал пользователю, что обучен на данных сервиса Gmail