Comments 22
Спасибо за бдительность. Там действительно с российского IP происходит редирект с https://www.perplexity.ai/comet/gettingstarted на локаль https://www.perplexity.ai/ru/comet/gettingstarted (который не работает)
Заменю https://www.perplexity.ai/comet/gettingstarted на https://www.perplexity.ai/comet

Классная статья, очень полезно, спасибо!
Спасибо за отзыв. Рад, что оказалось полезно! Для юридических процессов в вашей сфере может быть ещё актуальна функция поиска по патентам https://www.perplexity.ai/patents
Перплексити много чего обещает. И среди прочего доступ к куче современных нейросетей за относительно небольшие (ну как небольшие - 20$ в месяц за про подписку) деньги. Вот только почему-то почти никто не говорит, что доступ к этим нейросетям вы получаете не напрямую, а через ассистента Перплексити, который преобразует все ваши промпты по своему усмотрению и добавляет в них информацию о том, что ответы должны быть как можно короче, чтобы расходовать меньше токенов. И вместо полноценного контекста для каждой нейросети вы получаете небольшой его огрызок и по числу токенов и по числу сообщений.
И даже тред переименовать она не умеет без того, чтобы перегенерировать свой ответ, используя новое название треда в качестве промпта.
Двойственные впечатления на самом деле.
обещали много и предлагали заплатить за год, а срезали лимит с 600 запросов до 25
Да, все так. Perplexity функционирует как надстройка-оркестратор на базе проприетарной LLM Sonar (Llama). То есть поиск любой выбранной вами моделью все равно ограничен жесткими системными инструкциями на уровне Perplexity.
Я дополню этим статью, ибо многие ожидают получить полноценные версии AI-моделей, будто пользуются ими через нативные интерфейсы. Хотя, конечно, тут есть эффект посредника, который заинтересован в снижении расходов токенов и максимально возможной "оптимизации".
Кроме слухов (якобы информация из утечки системных промптов Perplexity), достоверной информации о таких умышленных ограничениях я не нашел, но такое порой "ленивое" поведение Perplexity подтверждается наблюдениями из моего опыта.
По контекстному окну тоже на уровне веб-интерфейса у Perplexity есть ограничение ввода. При этом диалоги сжимаются за счёт агрессивного скользящего окна: старые сообщения сворачиваются в эмбеддинги, и в длинных тредах часть контекста теряется. Этот эффект менее выражен у первоисточников - если пользоваться напрямую ChatGPT, Claude или Gemini.
Долгое время пробую использовать Perplexity Spaces как RAG для json-файла с перечнем однотипных записей и все не получалось получить внятные ответы по числу записей или по поиску подходящих записей по описанию. То ли embedding странный, то ли, как Вы пишите, речь в упрощении самих запросов. Правда не пробовал еще Pro версию. Возможно там тоже маленькое контекстное окно, не знаете?
А где у вас хранится этот json, насколько он большой и насколько часто он обновляется? Спрашиваю, потому что в некоторых случаях Perplexity кэширует какую-то версию файла, и пока вы прямо её не проиндексируете, будет врать, что оперирует актуальными данными.
Файл json весит около 10Мб, в нем 30K+ строк. Загружаю его однократно в Spaces.
При загрузке файла Perplexity разделяет его на текстовые чанки и индексирует (RAG), но ему не хватит контекстного окна, чтобы увидеть все 30k+ записей одновременно для агрегации и поиска ответов на ваш вопрос, и он начинает выдумывать. В вашем кейсе нужно прямо переключить модель с семантического анализа на вычисления, а для этого в Perplexity хорошо подойдет режим Labs.
В Labs есть контейнер, который выполняет Python и JavaScript (Node.js), т.е. он может и код написать, и прогнать ваш JSON через pandas у себя на сервере. Можно один раз сделать дашборд и потом просто актуализировать его из данных нового файла - этакий no-code.
Примерный промпт:
На основе загруженного файла data.json из Assets создай веб-приложение для анализа этих данных. Реализуй функцию uploadNewFile в интерфейсе, чтобы я мог подгружать свежие данные сам, и графики обновлялись автоматически.
Вот что у меня получилось на тестовых данных

Мне нравится,я с помощью ассистента делаю ботов в кодспейсе
Я несколько раз делал подох к Перплексити как к поисковику, и все разы ответ был какой-то скудный. В то же время, ChatGPT справляется на несколько порядков лучше со всеми вопросами.
Например, недавно у меня героически погибла посудомойка и я решил выбрать новую. Я попробовал перплексити с промтом вида: "У меня сломалась посудомойка <модель>, найди мне альтернативы в разных ценовых сегментах с возможность заказать онлайн с беслатной доставкой до дома. Приложи ссылки на карточки для заказа онлайн" и эта задача закончилась полным провалом, т.к. он не смог посмотреть карточки магазинов.
В то же время ChatGPT справился на ура и прислал мне вполне годный результат
В режиме глубокого поиска с pro аккаунтом попросил сравнить 2 модели видеокамер, найти различия, приложил 2 прямые ссылки на сайт производителя, где есть все характеристики в едином формате, написал использовать только их. Сравнило, составило табличку, на первый взгляд все ОК. При проверке оказалось в сравнении просто нет таких мелочей как размер матрицы и температурный режим! Именно в них были основные различия...
Полагаю, такое может происходить из-за особенностей работы Perplexity с индексированными данными. Попробуйте ради эксперимента сделать вот так (как я записал на видео ниже). Промпт для примера "Проведи сравнительный анализ технических характеристик видеокамер и выведи результаты в виде таблицы" и через @ добавляете открытые вкладки как источники поиска.
Это через Comet? Я не хочу его использовать, зачем? Я дал все необходимые вводные в промт...
Даже если в промпте явно указано: "используй только эти URL", Perplexity может подтянуть не весь контент страницы, а только фрагменты, которые посчитает релевантными, или вообще возьмет только закэшированную копию. Тут ещё есть нюанс: краулер Perplexity при переходе по ссылке часто получает "сырой" HTML, а динамический контент, подгружаемый JavaScript (таблицы характеристик, цены), может не попасть в контекст.
При этом Comet Assistant имеет прямой доступ к содержимому (видит актуальное состояние DOM), то есть вы явно даёте ему полный источник данных.
Так что такие запросы, по моему опыту, лучше делать через Comet Assistant.
Если не хочется скачивать Comet, то попробуйте такой промпт (evidence-based extraction):Сравни модели X и Y только по данным со страниц: [URL модели X] [URL модели Y]. Составь список всех характеристик, которые явно указаны хотя бы на одной из страниц. Для каждой характеристики заполни таблицу: значение X / значение Y / “не найдено”. Важно: после каждого значения добавь короткую дословную цитату в кавычках и URL страницы, где это указано. Если значение не найдено - пиши "не найдено на странице" и не делай предположений и дополнений из внешних источников.
Спасибо за совет, конечно, но такой промт сочинять, писать и отлаживать выходит пока дольше, чем решать вручную поставленную задачу...

Perplexity AI: Как превратить ИИ-поисковик в инструмент для работы и учёбы