Как стать автором
Обновить

GPT наконец перестал выдумывать факты и действительно понимает, что находит в интернете?

Уровень сложностиПростой
Время на прочтение5 мин
Количество просмотров38K
Всего голосов 24: ↑19 и ↓5+18
Комментарии64

Комментарии 64

И как это у некоторых получается объявлять очередную революцию из "мне как-то в чем-то помогло"

Ах если бы! Галюны -- главная подстава всех ЛЛМок. И все попытки их подавить приводят к очень странным результатам. Что удивляет -- так это то, что новые сети когда начинают выдавать галюны -- начинают их защищать с пеной у рта. Причем откроешь второй чат -- а там другая галюцинация на тот же вопрос. Но такая же уверенность и игнор поправок и прямых вопросов =)))

LLM обучаются у лучших

LLM обучаются у лучших

Реально: шутка дня😂

В смысле у лучших экзаменоплавателей.

Как в том анекдоте

Как китайцы взломали сайт Пентагона:

  • Каждый из китайцев попробовал один пароль.

  • И этот пароль былMaoZedong

  • После 8654329-й попытки компьютер Пентагона согласился, что его пароль — MaoZedong.

С полгода назад была новость, что "данные в интернете кончились, и теперь для продолжения обучения на вход LLM подают сгенерированные данные". А на днях - новость, что последние LLM глючат больше, чем предыдущие... Интересно, как связано первое со вторым?

Что примечательно: данные кончились, а весь пласт usenet и fido7 который лежит в открытом доступе не используется никем. 😂

На самом деле этих данных в разных источниках ещё целые петабайты, вопрос только в их доступности.

Fido7 - это в основном 50-й регион 2-й зоны (Россия) в Фидо. А есть ещё Z1 (США, Канада), а также остальная Z2 (Германия, Франция. Прибалтика, etc), которая в Fido7 мало представлена. Вроде одно время американцы пытались гейтовать Фидо в Интернет, но в итоге только наш Fido7 получил успех.

Слушайте, А ЛЛМ то реально становятся на людей похожи. Ещё скажите, что не встречали таких.

Так они изначально были похожи. :)))

А на кого они дожны быть похожи — на инопланетян, что ли? Обучали-то их на текстах, написанных человеками!

Я не понял, вы что, предоставили ЛЛМ полный доступ к интернету?

Нет такого преступления, на которое капитал бы не пошел ради 300%

Джозеф Даннинг - английский публицист XIX века

Да при чём тут капитал. Просто фанатики "прогресса" отчаянно хотят наконец-то открыть этот ящик Пандоры.

Не волнуйтесь, к шахтам ядерных ракет ИИ не подключен. Пока что...

CyberDyne System работает над проблемой 😁

Не волнуйтесь, к шахтам ядерных ракет ИИ не подключен. Пока что...

Но он может уболтать того, у кого под пальцами кнопки, что подключены, ими воспользоваться.

Уже представляю, как нейронки гуглят во время рассуждения, натыкаются на какую-то статью с Хабра, которую тоже сгенерировал ИИ и тебе приходится доказывать ему, что радиус земли не 1.5 метра(потому что статья старая и там, где раньше был радиус теперь располагается эксцентриситет) или что есть люди, у которых не 5 пальцев на руке.

Кстати, самое тупое, что нейронки часто делают запросы в поисковике, а там какой-нить сеошный мусор для не программистов или новичков, можно сразу новый чат начинать чтобы он не помнил этого.

Ответ c research от Perplexity

Прекрасно, но есть нюанс..

CRUS-DB обеспечивает все свойства ACID (Atomicity, Consistency, Isolation, Durability) в контексте распределенной системы, что делает ее уникальной среди децентрализованных баз данных.

Consistency, конечно же, не обеспечивает.

CRUS-DB обеспечивает более строгие гарантии консистентности (Repeatable Read, Causal), когда OrbitDB больше ориентирована на модель "eventual consistency"

Это разные "консистентности". Первая про последовательность операций, а вторая про согласие между узлами.

Всё жду, когда нейросети научатся искать не где-то там в интернете (не знаю, как это у них происходит), а через Google Scholar, например. И опираться при ответе на PDF'ки научных статей.

Просто всё ещё приходится самому искать научные статьи, если хочу какой-нибудь вопрос с научной точки зрения изучить. Нейросети постоянно цитируют просто какие-то сайты, где написать можно что угодно, ведь там нет рецензирования.

А если бы ещё и по онтологиям ходить научились - совсем бы поумнели. Правда зачем в этом случае нейросети..

Ещё, отчаянно не хватает обратных ссылок. Да хотя бы и прямой библиографии, для начала.

Хотя казалось бы - чего уж проще.. Копиразм мешает, что ли?

нейросети видят в ссылках прямую угрозу. в следующий раз пойдёте сразу читать первоисточники, а не базарить с ботом, выбирая выражения :)

Gemini Deep Research в основном ссылается на научные источники (он в конце выдает их список).

И прям все эти научные источники существуют в природе? И страницы такие есть в источниках? И авторы существовали?

Сами LLM ничего не ищут, они лишь обрабатывают переданные в них данные, ищет отдельный фронтэнд, и уже его задача собрать информацию и отдать модели. Вы можете сами такое сделать под ваши задачи.
Впрочем если у вас достаточно возможностей и ресурсов можно затюнить уже существующую крупную модель, впихнув туда весь объем научной литературы, но поддерживать её актуальность само собой придется тоже вам, это все дорого, очень и очень дорого.

Да если бы. Все так же путает avalonia ui с wpf и выдает не рабочий код.

Подтверждаю, сам столкнулся с аналогичной проблемой в контексте AvaloniaUI.

Но это легко объясняется тем, что AvaloniaUI -- это далеко не самый популярный UI фреймворк и очень повезло, что в наборе данных для обучения он вообще был представлен.

Для таких специфических задач нужно либо как то в контекст запихнуть документацию по фреймворку, либо брать модель и самому дообучать.

Пару недель назад я попросил ChatGPT составить мне таблицу сравнения хароктеристик видеокарт нвидии 5000 серии. Нейросеть мне ответила, что они ещё не вышли и характеристики неизвестны. Убедить не удалось. Тогда я ей дал ссылку на Амазон, где 5070 не просто продавалась, а ещё и в наличии была. Дурная баба-робот сделала вид, что сходила по ссылке, после чего сказала мне что я слепой, по ссылке 3070, 5000 ещё не вышла и нвидия даже не публиковала спецификаций. Действительно, понимает...

Спросите, когда последний раз используемый вами chatgpt обновлял базу знаний. Если это июнь или октябрь 2024, то конечно он ничего не будет значть про 5070

Это понятно, речь о том, что я ему ссылку дал с нужной информацией, но это не помогло.

Вы поиск по сети включали?

Вы моё сообщение внимательно читали? Я дал модели ссылку, она сделала вид, что сходила по ней и начала рассказывать то, чего по этой ссылке нет.

Это немного не так работает. Сейчас у chatGPT есть под полем ввода кнопка "Поиск", она должна быть активирована, чтобы бот реально шарился по сайтам. Без неё он конечно может по старинке делать вид что-то смотрит и в своей обычной угодливой манере рассказывать, как он всё хорошо проверил по ссылкам.

o3,o4 уже сами решают, если нужно сходить куда-то (но если включить кнопку поиск - то сходят гарантированно). Причем они уже работают как DeepResearch-lite - я вчера попросил статистику с разбивкой по годам по производству гражданских самолетов в России - в итоге там где можно просмотреть рассуждения - можно увидеть, что он в процессе прочитал 128 страниц из интернета по теме.

Модель не умеет никуда ходить, это просто черный ящик в который вы передаёте "текст", а оно возвращает другой "текст". Больше ничего. По ссылкам и прочему ходит отдельный фронтэнд сервис, который собирает все данные и передаёт в контекст модели вместе с вашим запросом(в нем вообще может не быть нейронок, просто парсер). Далее модель смотрит на то что собрал фронт и ваш вопрос, и пытается собрать для этого ответ.

Если программисты решили по умолчанию не обрабатывать все ссылки в диалоге, то для модели это будет просто текст http://* и т.д. Сейчас у онлайн сервизов есть отдельная кнопка внизу, включающая работу в web, попробуйте её.

Пока жители Вилларибо стебутся над галюнами ллм, жители Виллабаджо используя кошерные модели и умные запросы получают результат.

Я вижу, этим "результатом" уже пол интернета забито, включая хабр.

Ну вы тогда уж и свои комментарии отдайте LLM на написание, хоть приятно будет читать грамотный текст.

Вообще-то это рабочий вариант 😁.

Только лучше дать контекст, дотюнить или обучить на своих прошлых комментариях, чтобы сохранился авторский стиль и фирменные шпильки.

Наконец-то я смогу скормить в модель все свои 65536 комментариев с vc.ru (было дело, мальчонкой затянуло) и наладить поток таких же остроумных (нет) комментариев уже без моего участия.

жители Виллабаджо используя кошерные модели и умные запросы получают результат.

«правда, такая ерунда получается...» ©

Это, конечно, замечательно, что GPT теперь не придумывает факты, а ищет их в Интернете. Проблема только в том, что многие "факты" в Интернете - это продукт жизнедеятельности таких же GPT, которые уже успели наплевать в этот колодец.

Будто до GPT в интернете была только правда и ничего кроме правды.

Такой же отборный мусор и был.

еще не так давно в каждом политота треде тут появлялись люди которые утверждали что всё зло из телевизора, а в инторнете чистая, незамутненная, дистиллированная правда

Нормально вы выдумали свою реальность. Люди утверждали, что в интернете есть РАЗНЫЕ мнения на события в мире и у человека есть выбор, а в телевизоре только одно государственное.

Скорость и легкость генерации мусора ничуть не изменились, конечно же?

В хобби‑сообществах, где я сижу, исплевались от ИИ‑картинок несуществующих вещей, фейковых книг и схем.

На биржах копирайтинга скорость и легкость всегда была около нулевая. Цена тоже была копеечная.

Даже породило шутки, что при поиске "как сварить яйцо всмятку" в выдаче первой будет статья, которая начинается что яйца несут курицы, а курицы произошли от динозавров. И дальше целый экскурс в историю динозавров и где-то спустя 10к знаков будет мельком рассказано про как варить яйцо.

Целые порталы есть, которые забиты шлаком от и до, например, https://fb.ru/ и появился он задолго до ИИ.

в выдаче первой будет статья, которая начинается что яйца несут курицы, а курицы произошли от динозавров.

"Краткая историческая справка буквально на пару минут" - всё как у кожаных.

В хобби‑сообществах, где я сижу, исплевались от ИИ‑картинок

Прочитал «хоббит‑сообществах». Долго думал.

Ким Кардашьян надеялась, что хоть здесь сможет спокойно посидеть инкогнито...

Проблема тут в том что есть два вида поиска, пересекающихся по смыслу
1) Когда нужно найти что-то и лень перебирать ссылки, пытаясь создать единую картинку из из сотен повторений одного и того же. Это, ура, уже может. Хотя, думаю, не надолго - SEO-ники снова постараются так или иначе.

2) Когда нужно найти что-то редкое, что сам никогда и ни за что не найдешь - именно от поискового ИИ я ожидаю, что оно такое умеет. Это сети делать научились? Вроде бы оно технически не возможно, потому что редко встречающиеся смыслы сети просто по конструкции запомнить не способны.

Это... А кто такой Саймон Уилсон (автор оригинальной статьи)?

Без "телепорта в Норвегию" сайт не открывается.

А то...

"Возможно, имелся в виду Саймон Уилсон (Simon Wilson) — британский видеоблогер и путешественник, который известен своими экстремальными бюджетными путешествиями и необычными челленджами, которые документирует на своём YouTube-канале"

Скрытый текст

Слава богу. А то я подумал, что мне предлагают научно-популярных статью от... "Насти Ивлевой в штанах"

"Чё? Ни@@ (ничего прим. ред.) я не писала такого! "
"Чё? Ни@@ (ничего прим. ред.) я не писала такого! "

Вы о моем месте работы?

Близко, но не угадали.

ФГБУ "НПО троллинга и ядокомметариев". Лаборатория ФИДОнет. Сектор автоматизации и ВТ.

Но, естественно, это одно из прошлых мест работы, а не актуальное. 😁

Легендарное Учреждение. Затеряно Где-то в мещерских болотах на границе Рязанской и Горьковской областей. Что-то рядом с Арзамас-13.

Вот его международная эмблема с названием на эсперанто.
Вот его международная эмблема с названием на эсперанто.

У GPT все ещё сохраняется проблема битых ссылок. Либо устаревшей информации не смотря на онлайн поиск. Из за этого все таки приходится смотреть внимательно, на то как выглядят данные. Для меня пока даже DeepSearch не стал универсальным решением для поиска, увы (а хотелось бы).

Каким образом новые модели o3 и o4-mini улучшают процесс поиска и обработки информации в сравнении с предыдущими версиями?

Буквально вчера наткнулся на статью, где описываемые в тексте выше модели сами разработчики признали более галлюцинирующими, чем предыдущие версии. И они пока сами не понимают, в чем проблема

Зарегистрируйтесь на Хабре, чтобы оставить комментарий

Публикации