Как стать автором
Обновить

Исследование: четыре самых популярных чат-бота с ИИ допускают много ошибок при подготовке сводок новостей

Время на прочтение1 мин
Количество просмотров1.1K
Всего голосов 3: ↑3 и ↓0+5
Комментарии14

Комментарии 14

ну уж от майкрософтовского copilot можно что угодно ожидать, он кажется даже не на gpt35 сделан а на чем то проще, а вот chatgpt на gpt4o и он у них в 50% глючил? 'не верю' где их исследование, по ссылкам ничего нет, только одни эмоции.

50% это достаточно много что бы можно было самостоятельно проверить. Закидывай текст статьи и задавай вопросы. Чатгпт 4о до сих пор буквы в слове посчитать не может, куда ему до реальной работы с текстом.

Естественно не может посчитать буквы, давайте как без перевода, посчитайте, сколько букв E в слове бабочка на немецком (не подглядывая в словарик само собой), тут в пору удивляться что у него это часто получается. gpt внутри на своем языке 'думают'.

А вот в извлечении смыслов из текстов gpt наилучший на текущий момент инструмент.

p.s. то что не предоставлены результаты исследования, да хотя бы просто промпты ответы сети и разметка человеком для проверки, говорит что это заявление наброс и по факту брехня.

Нет он не просто не может, а не может даже если ткнуть носом в ошибку, буквально говорит что 2+2=5 и увольте свою учительницу математики если она говорит иначе чтоб детей не портила своими бреднями (это почти дословно что мне клод говорил)

И это у вас так тупит openai gpt4o? или вы с гигачатом общаетесь и на всю индустрию так обижены?

Потому что 'у меня' оно так не тупит... проблемы у топов гораздо глубже, их объяснять то не так просто.

Разные, конкретно этот глюк был у клода. Джемини сегодня сделал примерно то же самое, написал код с тупой ошибкой а при попытке указать на ошибку стал соглашаться на словах но оставлять ошибку на деле, да конечно вы правы давайте это исправим и далее то же самое что было. Это по сути то же самое что 2+2=5 и ниипёт.

Время от времени, я предпринимаю попытки разработки кода различными ЯМ. Пару дней назад, воодушевившись шквалом восторженных отзывов об одной нейросети, дал ей не очень сложное задание. Результат- потратил целый день на поиск ошибок, который выдает эта нейросеть. Раз за разом. То старые реализации библиотек, то, вообще, придуманные нейросетью методы библиотек, самые сложные из ошибок, так как, чтобы их найти, приходится изучать эти библиотеки. В итоге, бросил это и написал код сам, за пару часов.

на собственном опыте могу сказать, что пока что ChatGPT не справляется даже с составлением простых опросников по новостям культуры, не говоря уже о более сложных темах

Если вы так нейронке поясняете, не мудрено что она вам ничего толкового не выдала.

Ну и в запросе у вас 'новости', каким боком тут chatgpt вам должен помочь? или вы тексты новостей ей в контекст заливаете?

p.s. с интернетом более менее (по слухам) адекватно работает openai pro-шный deepsearch, который может десятки минут по интернету шариться, читать, перепроверять и т.п. все остальные решения делают запрос в интернет (его создание, та еще проблема), читает первые X (5-6) результатов и на этом успокаивается

Зарегистрируйтесь на Хабре, чтобы оставить комментарий

Другие новости