Комментарии 17
DeepSearch в ChatGPT - помойка.
DeepSearch в платном Gemini - топ.
ChatGPT во первых ищет на языке запроса, что бред. Нафига он тогда нужен, если на языке запроса я и сам могу загуглить. А во вторых - кол-во сайтов в поиске - смех.
В Google.Gemini, в отличии от ChatGPT, поиск похоже проходит на мета-языке. Что выдаёт иногда цифры 300-400 сайтов в поиске. Настолько мне понравился G.G, что я через его DeepSearch уже и инструкции составляю и простые "загуглить" делаю.
Ещё в ChatGPT лимит (~20 в месяц, но точно не помню)
В G.G безлимит!
ChatGPT неплохо ищет в режиме исследования. Но тут тоже надо каждый раз смотреть. Из последнего, он полез на разные форумы и использовал срач в них как часть исследования. В других отдавал предпочтение древним источникам. Но правда одно "исследование" в нем занимает много времени, их кол-во ограничено, и повторная их генерация занимает много времени. Но часто удобнее чем искать в поисковике, где тоже куча мусора и пока найдешь, обобщишь их.
Попробуйте DeepSearch от Gemini, если есть такая возможность, то в платной версии за 20$. Это качественно новый уровень поиска, он находит иногда такие дебри, что сам удивляешься.
Я вот когда стал программистские инструкции по Линуксу составлять для функций Девопса офигел от того, как он может складывать информацию из разных источников. Это как фотограмметрия, у которой новый снимок должен покрывать большую часть старого снимка, что-бы общие точки найти и построить модель. Так и G.G выходит с поиском, он одну часть инфы найдёт в одном месте, другую в другом и потом всё складывает в одну картину. Офигенно.
Отдельно могу упомянуть DeepSearch в контексте ипотеки на жильё. Он, благодаря объёму источников, может выдать настолько подробный отчёт (у каких банков какие %, кто какие программы поддерживает, на каких условиях и т.д), что вероятно какой-то проф. риелтор не сразу выдаст такое.
И опять же, в 20$ тарифе DeepSearch безлимитный, а в 20$ ChatGPT - 20 штук.
Однако, в самом начале, как только G.G выкатили функцию DeepSearch, она была отвратительная (как у ChatGPT), так что текущее состояние - результат обновлений и вероятно 2.5 Pro играет здесь не последнюю роль
про ипотеку вы придумали или сами пробовали?
google может найти у банка pdf-ку с тарифами, проанализировать ее и выдать результат, а главное проигнорировать рекламный треп?
Да, попробовал недавно.
ПДФ не знаю, может он и читает их, но мне кажется что он в целом только веб использует
Тут зависит от того, как поставлено исследование автором. Если вы делаете акцент на каких-то конкретных данных, то именно это и будет в отчёте, а реклама это не релевантная информация касательно запроса. А вот если поставить общую цель, допусти собрать информацию обо всех банках, то там конечно же будет информация рекламного характера, как описательная часть
Но относитесь к моим выводам скептически, это мои выводы на основе моих запросов
Dee research в Gemini бесплатный
Бесплатные функции аналогичные DeepResearch есть в разных веб-сервисах: ChatGPT, Gemini, Grok, Perplexity, DeepSeek... И для некоторых запросов они бесплатно выдают достаточно приемлемые результаты. Есть и другие варианты качеством похуже, но тоже подходящие под определение исследований: Qwen, LeChat, YouСom...
Но платные тарифы дают результаты заметно лучше. Например, ChatGPT за деньги посылает на исследование более умную модель o3, а не 4o. Например, Claude в платном тарифе обрабатывает до полутысячи источников и размышляет по полчаса. А Gemini вовсю пользуется базами Гугла.
Вопрос достаточности качества очень сильно зависит от запроса. Кому-то хватает бесплатного, а кому-то и платного не хватает.
Так я про Gemini написал
Claude в платном тарифе обрабатывает до полутысячи источников и размышляет по полчаса.
Это в каком «тарифе» Claude «размышляет по полчаса»?
Тариф Pro просто включает веб-поиск, тарифы начиная с Max добавляют "продвинутые исследования". Но основной фактор, влияющий на глубину и длительность - это сама задача. Если требуется долгосрочный и многоаспектный прогноз, затрагивающий несколько разных областей знаний с интеграцией разных типов информации (научные работы, новости, мнения), да с заданием плана исследования и подкидыванием своей базы, то можно загрузить сервис по полной.
P.S. Сами Антропики пишут, что можно и не полчаса:
Claude can research for up to 45 minutes before delivering a comprehensive report, complete with citations.
Когда вы упоминали человеческую память, то одна из важных проблем всех LLM - это контекст. Сейчас у них только один контекст на основе диалога. У человека гиппокамп держит множество контекстов, что позволяет не забывать детали, возвращаться к более слабыми и в целом удерживать глобальный контекст как группу локальных, выбирая какие данные из них сейчас важны.
Второй момент динамичность. Саморефлексия работает у нас постоянно, и рассуждая в рамках контекста , через петли саморефлексии мы неосознанно "вычищаем" шум из контекста, дополняя его деталями. Это отдаленно напоминает рассуждающие модели, но из за отсутствия множества других механизмов (в том числе множества локальных контекстов) не даёт такого качественного результата и часто приводит к забывание деталей (которые у нас хранятся как множество локальных контекстов).
Не представляю, как без архитектурных расширения моделей такое можно решить
Длинные диалоги можно закидывать в базу RAG, очищая перед сохранением - это позволит лучше "вспоминать" часть деталей. Плюс можно делать отдельную "память" для хранения наиболее важных инструкций, чтобы повторять их перед каждым промптом - напоминает уже реализуемые "заметки о пользователе", "эмоциональное состояние пользователя", "пользовательский промпт", "настройки беседы" и так далее.
Человеческая память предмет очень дискуссионный, потому что есть вещи, которые до сих пор не связаны с какими-либо конкретными механизмами. Токены, эмбеддинг, векторные базы и внимание это топ реализации механизмов, которые более менее понятны. Что наиболее непонятное это множественная перемежающаяся тождественность точек обобщения. Это не сам по себе контекст, это его аттракторы, своего рода опоры. И они очевидно «ныряющие», не непрерывные, но очень устойчивые. Именно они обеспечивают быстрое научение, за одну условную попытку. По моим доморощенным исследованиям, структура этих ядер внимания не очень богатая. Это всего до пяти уровней 6-7 ричного дерева. И в LLM эта структура в общем образовалась, но как пассивная, вроде архитектуры. А в реальной психике она больше похожа на конкурирующие субличности, вплоть до реальной шизофрении. В нормальных условиях субличности не созревают до самосознания и самоидентификации.
Перемежаемость мультиконтекста требует кратного увеличения ресурсов. А LLM пока слишком избыточная по ресурсам модель, чтобы реализовать AGI. Но движется именно туда, что называется, по образу и подобию, без специального фокуса на механиках, они вполне себе эмерджентны. Но внимание это не первое звено цепи, а третье. Будущее поколение перейдет ко второму, сейчас его аналог - температура.
Токены, эмбеддинг, векторные базы и внимание это топ реализации механизмов, которые более менее понятны.
Не думаю, что внимание - это нечто понятное, поскольку в механизме внимания есть сложная часть, которая принимает решение, на что именно следует внимательно смотреть.
множественная перемежающаяся тождественность точек обобщения ... очевидно «ныряющие», не непрерывные, но очень устойчивые ... обеспечивают быстрое научение
Параллельно работающие распределенные нейронные структуры ("точки обобщения"), которые активируются попеременно (перемежаясь) и выполняют схожую функцию обобщения поступающей информации (тождественность)?
Аттракторы или опоры - устойчивые состояния упомянутых структур, позволяющие выстраивать критерии достоверности и важности для отбрасывания и запоминания?
Вы очень точно подмечаете слабости. Да, реализация внимания это экспериментальный и даже гипотетический подход на смеси статистики и случайности в виде температуры и это оказалось удивительно неплохо работающим, хоть и не дает ответов - почему. Тождественность это ключевой метавопрос. Почему близкие векторы иногда схлапываются в «это то же самое», а иногда расщепляются в «не в моем контексте».
Четыре проблемы GPT