Комментарии 8
Отличный материал, спасибо, Алексей!
Подскажите, пожалуйста, почему за основу выбрали именно R, а не тот же python?
Приветствую. Полезный материал за который благодарности. Но при Выполнении примера
> text <- "
+ Купленный товар работает отлично, к нему никаких притензий нет,
+ но обслуживание клиентов было ужасным.
+ Я, вероятно, больше не буду у них покупать.
+ "
> type_sentiment <- type_object(
+ "Извлеки оценки настроений заданного текста. Сумма оценок настроений должна быть равна 1.",
+ positive_score = type_number("Положительная оценка, число от 0.0 до 1.0."),
+ negative_score = type_number("Отрицаетльная оценка, число от 0.0 до 1.0."),
+ neutral_score = type_number("Нейтральная оценка, число от 0.0 до 1.0.")
+ )
>
> str(chat$extract_data(text, type = type_sentiment))
Error in req_perform()
:
! HTTP 400 Bad Request.
• For controlled generation of only function calls (forced function calling), please set 'tool_config.function_calling_config.mode' field to ANY instead of populating 'response_mime_type' and 'response_schema' fields. For more details, see: https://cloud.google.com/vertex-ai/generative-ai/docs/multimodal/function-calling#tool-config
получаю ошибку как и с предыдущим extract_data(). Gemini подсказывает, что проблема в tool_config(), но я не нашел где в пакете ellmer устанавливается эта конфирация. Подскажете?
Все остальное работает.
Язык R у меня тоже основной и поэтому Ваша статья вызвала большой интерес у меня.
Удачи
Здравстввйте, я с этой ошибкой не сталкивался, поэтому затрудняюсь что то подсказать, но дуиаю если вы опишите на github ошибку, то помогут, возможно баг в пакете.
Ниже ссылка на репозиторий
https://github.com/tidyverse/ellmer/issues
Там Викхем разработкой ellmer занимается, так что ответить должны довольно быстро.
разобрался. Вопрос снимается. Хочу подсказать: появился пакет "chores" который упрощает применение LLM и "ellmer".
Удачи
Алексей, доброго дня!
Интересная статья. Помогите понять - в чём преимущество создания чата, разобранного в статье, перед использованием готового чата с LLM, например, с deepseek? Кажется, и код доработать чат "из коробки" может и проанализировать логи, если направить логи
Приветствую, в данном случае интерфейс упрощает отправку лога, да и функционал по генерации кода на основе внутренних пакетов:
Вы просто в приложении выбираете нужную задачу из планировщика по фильтру, например те задачи которые завершились ошибкой, жмёте кнопку проанализировать лог, и лог вшивается в промпт, и идёт на анализ в LLM модель, вам не надо ничего копировать вставлять.
При этом модель уже обучена с помощью системного промпта работе с вашими внутренними пакетами, она хорошо понимает контекст скрипта, за счёт чего качество ответов значительно выше.
Конечно можно всё это постоянно руками делать через веб интерфейс модели, выглядеть будет примерно так:
Создаёте новый чат
Грузите в него отдельным файлом системный промпт, что бы модель понимала контекст ваших скриптов лучше
Копируете содержимое нужного лога (у нас крутится более 350 скриптов), его ещё найти надо будет
Получаете ответ
И это надо будет делать каждый раз, а так в приложении уже есть готовый интерфейс для поиска нужного лога, и отправки его на анализ в уже дообученную модель.
Как то так.
Как мы внедрили LLM в рабочие процессы аналитиков на R — и сделали это бесплатно