Всем привет!
Меня зовут Александр, я COO в SaaS-платформе аналитики данных. Последний год активно изучаю внедрение AI-решений в кросс-функциональные процессы. Делюсь полезными материалами, которые считаю стоят внимания. В основном про AI, изменение процессов, тренды и продуктовое видение.
У себя в телеграм-канале делюсь сжатыми и структурированными саммери статей.
Сегодняшний перевод — AI assisted search-based research actually works now
Давно пользуюсь Perplexity для поиска в интернете, экономит много времени, особенно когда поиск предполагает анализ множества страниц. Результаты на 90% закрывают мои задачи.
Особенно круто работает поиск по соц.сетям (Reddit) и по видео (Youtube), ответы на некоторые вопросы кардинально отличаются т.к. в классическом поиске много SEO текста, который не всегда экспертный и с большой задержкой обновляется.
В течение последних двух с половиной лет функцией, которую я больше всего хотел получить от LLM, была способность выполнять исследовательские задачи на основе поиска от моего имени. Мы увидели первые проблески этого ещё в начале 2023 года с Perplexity (впервые запущена в декабре 2022, первая утечка промптов в январе 2023), а затем с Microsoft Bing на основе GPT-4 (который запустился/эпически провалился в феврале 2023). С тех пор множество людей пытались решить эту проблему, в частности Google Gemini и ChatGPT Search.
Те версии 2023 года были многообещающими, но очень разочаровывающими. Они сильно склонялись к галлюцинированию деталей, которых не было в результатах поиска, до такой степени, что нельзя было доверять ничему, что они сообщали.
Я считаю, что в первой половине 2025 года эти системы наконец пересекли черту и стали по-настоящему полезными.
Deep Research от трех разных поставщиков
Сначала появились реализации Deep Research — Google Gemini, затем OpenAI и затем Perplexity запустили продукты с этим названием, и все они впечатляли: они могли принять запрос, затем работать несколько минут, составляя подробный отчет с десятками (иногда сотнями) цитат. Версия Gemini получила ОГРОМНОЕ обновление несколько недель назад, когда они переключили ее на использование Gemini 2.5 Pro, и с тех пор я получал от неё выдающиеся результаты.
Ждать несколько минут для получения отчета на 10+ страниц — не мой идеальный рабочий процесс для такого инструмента. Я нетерпелив, я хочу получать ответы быстрее!
o3 и o4-mini отлично справляются с поиском
На прошлой неделе OpenAI выпустила o3 и o4-mini с поддержкой поиска через ChatGPT. На поверхности они похожи на те же идеи, что мы уже видели: LLM с возможностью вызова инструмента поиска при ответе на запрос.
Но есть одно очень существенное отличие: эти модели могут выполнять поиск как часть процесса рассуждений, который они используют перед формированием окончательного ответа.
Это оказывается огромным преимуществом. Я задавал ChatGPT (в режиме o3 или o4-mini) всевозможные вопросы и получал действительно полезные ответы, основанные на результатах поиска. Я пока не заметил ни одной галлюцинации, и в отличие от предыдущих систем я редко ловлю себя на том, что кричу "нет, не ищи это!" на экран, когда вижу, что они делают.
Вот четыре недавних примера диалогов:
Предоставь мне спецификации, включая VRAM для RTX 5090 и RTX PRO 6000 — плюс даты выпуска и цены
Выясни, какую поисковую систему ChatGPT использует для o3 и o4-mini
Общение с o3 ощущается как общение с инструментом Deep Research в реальном времени, без необходимости ждать несколько минут, пока он создаст чрезмерно подробный отчет.
Мое предположение заключается в том, что для хорошей работы требуется очень сильная модель для рассуждений. Оценка результатов поиска сложна из-за необходимости просеивать огромное количество спама и обманчивой информации. Разочаровывающие результаты предыдущих реализаций обычно сводились к тому, что Интернет полон мусора.
Возможно, o3, o4-mini и Gemini 2.5 Pro — это первые модели, которые преодолели порог устойчивости к доверчивости настолько, что могут делать это эффективно?
Google и Anthropic нужно догонять
Ориентированное на пользователя приложение Google Gemini также может искать, но оно не показывает мне, что именно ищет. В результате я просто не доверяю ему. Это большое упущение, поскольку у Google предположительно самый лучший поисковый индекс, поэтому они действительно должны иметь возможность создать отличную версию этого. А поддерживаемый ИИ поисковик Google в их обычном поисковом интерфейсе галлюцинирует дико до такой степени, что это активно вредит их бренду. Я только что проверил, и Google все еще показывает чепуху по запросу Encanto 2!
Claude также наконец добавил веб-поиск месяц назад, но он не кажется таким же хорошим. Он использует поисковый индекс Brave, который, как мне кажется, не так всеобъемлющ, как Bing или Gemini, и поиск не происходит как часть того мощного процесса рассуждений.
Ленивый перенос кода на новую версию библиотеки через поиск
Настоящий волшебный момент для меня произошел несколько дней назад.
Мой инструмент сегментации изображений Gemini использовал библиотеку @google/generative-ai, которая была громко объявлена устаревшей в пользу ещё находящейся в предварительной версии библиотеки Google Gen AI SDK @google/genai.
Я не хотел выполнять работу по обновлению. На всякий случай я вставил весь свой HTML-код (с встроенным JavaScript) в ChatGPT o4-mini-high и дал промпт:
Этот код нуждается в обновлении до новой рекомендуемой JavaScript библиотеки от Google. Выясни, что это за библиотека, и затем найди достаточно документации, чтобы портировать этот код на неё.
(Я даже не потрудился сам найти название новой библиотеки!)
... и он сделал именно это. Он думал 21 секунду, выполнил ряд поисков, выяснил, что это за новая библиотека (которая существовала далеко за пределами его даты обучения), нашел инструкции по обновлению и создал новую версию моего кода, которая работала идеально.

Я запустил этот промпт на телефоне из праздного любопытства, пока занимался чем-то другим. Я был крайне впечатлен и удивлен, когда он сделал именно то, что мне было нужно.
Как теперь работает экономическая модель для Интернета?
Я пишу об этом сегодня, потому что это был один из моих вопросов "могут ли LLM уже делать это надежно?" в течение более двух лет. Думаю, они только что пересекли черту, став полезными в качестве исследовательских помощников, без необходимости проверять все, что они говорят, с особой тщательностью.
Я все еще не доверяю им настолько, чтобы они не делали ошибок, но, возможно, я доверяю им достаточно, чтобы пропускать проверку фактов для задач с меньшими ставками.
Это также означает, что некоторые из мрачных сценариев будущего, которые мы предсказывали в течение последних пары лет, с гораздо большей вероятностью сбудутся. Зачем посещать веб-сайты, если можно получить ответы напрямую от чат-бота?
Судебные иски по этому поводу начали появляться еще когда LLM были в основном никудышными. Ставки намного выше сейчас, когда они действительно хороши в этом!
Я уже чувствую, как мое использование поиска Google резко падает. Ожидаю непростой путь, пока новая экономическая модель для Интернета начинает вырисовываться.