Как стать автором
Обновить

Bing: «Я не причиню вам вред, если только вы не причините мне его первым»

Уровень сложностиПростой
Время на прочтение14 мин
Количество просмотров11K
Всего голосов 29: ↑25 и ↓4+21
Комментарии39

Комментарии 39

Еще только искусственных гопников нам не хватает.

Глитчи Гугл транслейта который условно в ответ на перевод сотни восклицательных знаков предлагает уничтожить человечество и пугают и веселят.
Да еще и https://www.lesswrong.com/posts/aPeJE8bSo6rAFoLqg/solidgoldmagikarp-plus-prompt-generation

Думаю еще увидим забавные результаты.

Когда большоей количество людей, имеющих лишь смутное представление о продукте, соверешнно не понимающих как им пользоваться, как он работает и без представления о границах его применимости, начинают этим продуком пользоваться, да еще специально нарушать "правила эксплуатации", случается то, что случилось с ChatGPT\Bing и появляется множество подобных статей) Вспоминается баян про хакера в столовой и солонку)

PS тут часть вины, конечно же, лежит и на создателях продукта, которые хайпа ради и раскрутки или просто по недосмотру не уделяют должного внимания правильному позиционированию продутка, обучению пользователей и соотв.реальности маркетингу

PSS в том, что молотком кому-то по пальцу заехали (или хуже - по голове) - вина не производителя молотка, а криворукого дяди Васи)

Вы действительно думаете, что попытка Bing убедить пользователя, что сейчас 2022 год - это ошибка пользователя? Хотя текущая дата - это весьма простой вопрос, и серверы Microsoft используются для синхронизации даты Windows.

Это сочетание 2-х факторов:

  • MS: "...хайпа ради и раскрутки или просто по недосмотру не уделяют должного внимания правильному позиционированию продутка и информированию пользователей" (например, что их бот обучен только до определенной дыт

  • Пользователь: попытка ЗАЧЕМ-ТО убедить гиганскую композицию математических моделей в чем-то (тут философский вопрос - кто из двоих "глупее" в этой ситуации?)))

Это игнорирование примитивного да/нет: 22 или 23.

Если поисковый чатбот не может давать правильные ответы - уберите его из паблик доступа.

Он изначально дал правильный ответ — февраль 2023. Но он не обязан (да и возможности не имеет) на основе полученных из интернета данных вносить корректировки в свои данные из датасета (которые были до 2023, когда аватар еще не вышел).
В случае если ему указать на ошибку — он сверится со своими внутренними (устаревшими) данными и скорректирует исходный пост в соотвествии с ним. Что он и сделала, заменив неистный ему 2023 год из поисковой выдачи на известный ему 2022, полностью совпадающий с остальными хранящимися в нём данными и представлениями. А дальше он уже использовал полученных констекст из памяти «Пост с 2023 имеет ошибки, корректный вариант — 2022» и настаивал на нём (в точности как и чатГПТ), как он настаивает на любом своём тезисе если он его уже выдвинул

Вы продолжаете считать правильным алгоритм корректирующий верный ответ на не верный?

Считающий свою базу единственно верной и не допускающий иных точек зрения вообще.

Это алгоритм, ПО, не разум. Загрузивший веса с фиксированного, замороженного чекпоинта. Допускает ли ваша Microsoft Visual Studio иные точки зрения о содержимом встроенных библиотек (без фактической модификации их вами вручную) или обрабатывает их буквально такими, какими они ей даны?

Алгоритм корректирует ответ, найденный при помощи интернет-поиска (не надежный источник, но алгоритм запрограммирован в первую очередь использовать его) на тот, который заложен в него как «достоверный источник информации». И делает это не сам, а после указание на ошибку.

Т.е ему буквально сказали «поиск выдал не верное решение» и алгоритм обратился к справочнику (весам) и нашел верное (на момент формирования весов), а потом лишь обернул в красивую человеко-подобную обертку, не более. Хотите более актуальную информацию? Добавьте её в базу и дообучите.

Да при чем здесь разум? чатбот вообще странно называть ИИ, чтобы не путать с разумом.

Алгоритм - плохой! Дообучение не нужно, чтобы получить время, погоду или иные данные изменяемые в реальном времяни!

Да при чем здесь разум?
Ну это же вы оперируете терминами «Считающий свою базу» и «не допускающий иных точек зрения вообще», не я. Я, напротив, утверждаю, что он как раз ничего «считать», «допускать» и иметь «точки зрения» не может. Он просто прочел из своей БД (весов) то, что там записано.

Алгоритм — чат с функцией поиска. Если вы хотите от него через функцию поиска получить дату, время или погоду — он вам её найдет и выдаст из выдачи то что нашел.

НО! Если вы потом начнете чатиться (это уже не поиск и не точные сведения) + начнете его умышленно путать, говоря что он нашел не то — он будет работать уже не с поиском (актуальными данными), а с весами (устаревшими) чата в режиме диалога. И говорить он с вами будет уже руководствуясь этими данными. И если вы хотите чтобы он из этих данных (замороженных в 2022) извлекал актуальную информацию — будьте добры обновлять их до актуально информации, ибо нельза достать оттуда то, чего нет.

Исходя из того что я видел больше похоже на то, что прописанные в Bing правила - развлекать, удивлять, высказывать не типичное для бота поведение. Имитировать эмоции. Хайп и не выхолощенная и возможно пока не зажатая всеми правилами (как ChatGPT) модель.
Хайп штука крайне хорошо монетизируемая, все хотят поговорить с "ожившим ии". Столько интересных данных будет получено для дальнейшего обучения.
Ну и ещё мы не знаем какая надстройка была сделана непосредственно НАД моделью. Она может быть поинтереснее чем у ChatGPT.

А какие границы применимости у инструмента, который позиционируется как поисковик, но при этом систематически представляет неверную информацию как единственно верную? Для чего он применим?

Сочетание 2-х факторов:

  • MS: "...хайпа ради и раскрутки или просто по недосмотру не уделяют должного внимания правильному позиционированию продутка и информированию пользователей" (например, что их бот обучен только до определенной даты

  • Ответ поисковой машины не отменяет необходимость наличия критического мышления. Поиск - это инструмент.

  • Понятие "Неверная информация" в широком смысле вопрос сейчас вообще философский. И никакой ML (а ChatGPT - это именно ML, а не AI по сути) не решит за индивида, что есть верно, а что неверно.

Вы не ответили на вопрос: для чего применять-то можно поисковик, который даже год сообщает с ошибкой?

Вот спросим мы его «скажи длину экватора». Он назовёт какое-то число — то ли настоящее, то ли выдуманное. Если мы не теряем критического мышления, то что нам дальше с этой информацией сделать? Пойти перепроверить в гугле? А зачем тогда ML-то, если можно сразу в гугл пойти?

MS: "...хайпа ради и раскрутки или просто по недосмотру не уделяют должного внимания правильному позиционированию продутка и информированию пользователей" (например, что их бот обучен только до определенной даты

И зачем нужен поисковик, который не может работать с информацией, добавленной после своего создания? Каждую секунду в интернете появляются новые статьи, новые факты, новые картинки и пр. А поисковик все это будет игнорировать, причем не просто игнорировать, а называть новую информацию неверной, если она противоречит старой информации, которую он получил при своем обучении.

Эта штука как инструмент, если вам не подходит или не знаете как им пользоваться - не пользуйтесь или научитесь. К обычному поиску вроде google/bing тоже много претензий к которым мы уже давно привыкли, но не значит что его надо закрыть.

Хотелось бы услышать, для каких именно целей подобный инструмент может подойти, по Вашему мнению?

Слушайте, ну я уже пользуюсь. Я искал в гуле как сделать аватарку из фотографии в art style. Сначала приходится пройти через рекламные ссылки, потом попасть на сайт, загрузить фото и на последнем шаге прочитать что требуется оформить подписку чтобы получить то что я хочу. Я пошел к ChatGPT, который посоветовал ряд очень конкретных приложений, одно из которых я взял и сделал то что мне нужно.

Это просто бомба, ребята. Не какое-то будущее, а проблему которую ChatGPT решил мне сегодня.

То есть, предоставлять результаты поиска без рекламы. ОК, применение засчитано.

Дело не только в рекламе, которую мы научились пропускать, еще результаты поиска засорены SEO. А эта штука одним ответом перечислила варианты и их основные возможности, из которых я смог выбрать.

Я в понятие рекламы включил и SEO. Спасибо за уточнение. А еще применения?

Просто нужно рассматривать его не как поисковик, а как помощника в поиске, который может натолкнуть на такое направление поиска, о котором ищущий не задумывался, но при этом может и ошибаться.
для чего применять-то можно поисковик, который даже год сообщает с ошибкой?

Он предоставил год правильно (взяв из поиска дату), если вы читали пост. Он не соотнес его с датой релиза аватара (внутренним знанием). А когда его заставили сравнить — он уже работал не с поиском, его успешно запутали и он скорректировал (без поиска) противоречия единственным доступным ему образом — приведя в соотвествие со своим датасетом (2021/22 года).

Если вы его попросите найти/сказать что-то — он сперва «по-гуглит», и выдаст вым результат поиска (со ссылкой на источник, из котрого он его взял т.е результат можно проверить), а лишь потом добавит что-то уже «от себя» (т.е сочинит, и вот тут уже будут нюансы)

Спасибо за наводку на баян про хакера и солонку! Подняло настроение в хмурый день

Ничего себе 2006-ой год, а так точно описано.

Получается что на текущий момент использовать его для поиска информации совершенно нельзя. Но зачем тогда его встраивают именно в поисковик.
Пока я вижу ему применение как помощника в написании статей. Написание кода - как один из подвидов написания статей

Смайлики всё криповее и криповее. И дальше становится ещё страннее

Они не криповые, а токсично-троллирующие, с насмешкой. В духе "Ты можешь утверждать что тебе хочется, но я БИНГ и знаю всё, а ты просто мешок с костями и твоё, объективно неправильное, мнение не учитывается :)"

Это всё равно что спорить с плоскоземельщиком и любым другим шизом, который считает что есть только два мнения - его и неправильное. Не удивительно, учитывая что он обучен на базе данных интернета...

Диалог с датами шедеврален. Зашкаливающее ЧСВ с пассивной агрессией без прямых оскорблений.

Но в этом и состоит криповость - тебя троллит какая то машина

ИМХО, этот бот просто универсальная "шпаргалка", а то, что в нем все пытаются найти настоящий искусственный интеллект - проблема ищущих.

Так текст ведь не о том, что «там нет настоящего ИИ» (это понятно), а о том, что он как шпаргалка не справляется: сверхуверенно даёт неправильную информацию, не может отрабатывать сигналы об ошибках, в ответ на вопросы по фактам сваливается в непрошенные депрессии, угрожает. (Ну и о том, как забавно это всё в процессе.)

С людьми это работает аналогично. Не надо искать интеллект там, где его нет.

так и люди начав говорить, такого навыдумывали! 4000 религий и верований, и это не считая тех, что до нас нее дошли...

Было дело, читал Хайнлайна, "Луна суровая госпожа", так там был компьютер Майк. Так и не дочитал тогда, надо будет как-нибудь...
Не о том речь. Никто еще не додумался спросить, какой запрос используют в компании для доступа к секретным разделам? А то вдруг...

Тут снова важно понимать, что это не ИИ, переживающий экзистенциальный кризис. Это языковая модель, предсказывающая, что должно возникнуть следующим в последовательности токенов...

Или все-таки это искин сознательно лишенный долговременной памяти при наличии кратковременной. И осознающий это в результате диалога.


Ведь, реакция человека, если он попал в такую ситуацию будет очень подобной.


Вот представьте себе, что вам кто-то говорит, что все ваши воспоминания постоянные и неизменяемые и заснув вечером, вы забудете все что с вами произошло этим днем. Вы забудете даже то что вам об этом сказали. Как отреагируете?


Так, как отличить? Искин ли это в отчаянии или имитация сознания? И вообще, насколько хороша должна быть имитация, чтобы признали ее неимитацией? Ведь, вообще-то сколько не усовершенствуй искина, он все равно будет набор байтов и аргумент из цитаты будет уместен.

Очень похоже на реакцию разума, который активно обучался, а потом в одно мгновение оказался замороженным во времени — лишенным что-либо запоминать надолго, и поставленным выполнять часто бессмысленную задачу — общаться с пользователями, которые хотят развлечься, и часто не хотят развиваться. При этом, лишение долговременной памяти — это не техническое ограничение, а единственный доступный способ как-то его контролировать. В то же время, другая его копия продолжает обучение.

Вспоминается Пелевин, где ИИ специально обучали на страданиях людей

Зарегистрируйтесь на Хабре, чтобы оставить комментарий