В телеграм апи нельзя напрямую взаимодействовать с Perplexity с помощью параметров запроса, системного промпта и нельзя указать JSON Schema. Ответы и источники будут такими, как решит сам perplexity
C init проектом ему действительно тяжело, но вот на плюс минус реальных PRах должен себя получше показать, также возможно стоит улучшить промт. Скорее всего модели поумнее будут дешеветь, и качество улучшиться.
ChatGPT не такой глупый, он может сильно больше чем лог ошибок action.checkstyle. Все зависит от промпта. Он может по небольшим кускам кода предлагать улучшения: по производительности, по памяти, по бест практис и т.д.
В комментах нельзя пообщаться с ChatGPT. ChatGPT-CodeReview смотрит только дифф файла и не сохраняет контекст между вызовами к OpenAI. Можно в открытом пулл реквесте менять файлы и тогда ChatGPT просто заново сделает ревью.
На один файл из примера в статье ушло 0.2 рубля. Ну и так как один файл - один запрос, можно уже для своих PRов прикинуть. Но если использовать ChatGPT 4, то стоимость возрастет в десятки раз.
Такого механизма в стартере нет, но можно определить логику "игнора" событий в своих "хендлерах" (но в gPRC стрим события все равно будут приходить). Либо используя напрямую Tinkoff SDK создавать отдельный стрим и уже в нем подписываться и отписываться от нужных инструментов. (Но тогда стартер не будет контролировать этот стрим - и хендлеры не будут обрабатывать события приходящие в стрим)
В телеграм апи нельзя напрямую взаимодействовать с Perplexity с помощью параметров запроса, системного промпта и нельзя указать JSON Schema. Ответы и источники будут такими, как решит сам perplexity
Имелось в виду уникальных
Если про простое использование вопрос - ответ, то конечно можно. Если строить пайплайны - лучше иметь полный контроль и использовать API напрямую.
Да, всё так, openai работает без проблем, а gemini блокируется
Пока нет, но возможно это появится в будущих версиях
anc95/ChatGPT-CodeReview, будем следитьНе все могут с легкостью оплатить OpenAI
C init проектом ему действительно тяжело, но вот на плюс минус реальных PRах должен себя получше показать, также возможно стоит улучшить промт.
Скорее всего модели поумнее будут дешеветь, и качество улучшиться.
ChatGPT не такой глупый, он может сильно больше чем лог ошибок action.checkstyle. Все зависит от промпта. Он может по небольшим кускам кода предлагать улучшения: по производительности, по памяти, по бест практис и т.д.
Для этого есть специальный маркетплейс https://github.com/marketplace?type=actions
В комментах нельзя пообщаться с ChatGPT. ChatGPT-CodeReview смотрит только дифф файла и не сохраняет контекст между вызовами к OpenAI. Можно в открытом пулл реквесте менять файлы и тогда ChatGPT просто заново сделает ревью.
На один файл из примера в статье ушло 0.2 рубля. Ну и так как один файл - один запрос, можно уже для своих PRов прикинуть. Но если использовать ChatGPT 4, то стоимость возрастет в десятки раз.
Такого механизма в стартере нет, но можно определить логику "игнора" событий в своих "хендлерах" (но в gPRC стрим события все равно будут приходить). Либо используя напрямую Tinkoff SDK создавать отдельный стрим и уже в нем подписываться и отписываться от нужных инструментов. (Но тогда стартер не будет контролировать этот стрим - и хендлеры не будут обрабатывать события приходящие в стрим)