Как стать автором
Поиск
Написать публикацию
Обновить

Как мы внедрили LLM в рабочие процессы аналитиков на R — и сделали это бесплатно

Уровень сложностиСредний
Время на прочтение10 мин
Количество просмотров2.9K
Всего голосов 3: ↑3 и ↓0+3
Комментарии8

Комментарии 8

Отличный материал, спасибо, Алексей!
Подскажите, пожалуйста, почему за основу выбрали именно R, а не тот же python?

Приветствую, причина выбора R скорее не техническая, я изначально владею R, это мой основной рабочий инструмент, python знаю очень поверхностно.

В общем в моём кейсе скорее дело привычки и личного предпочтения.

Приветствую. Полезный материал за который благодарности. Но при Выполнении примера

> text <- " + Купленный товар работает отлично, к нему никаких притензий нет, + но обслуживание клиентов было ужасным. + Я, вероятно, больше не буду у них покупать. + " > type_sentiment <- type_object( + "Извлеки оценки настроений заданного текста. Сумма оценок настроений должна быть равна 1.", + positive_score = type_number("Положительная оценка, число от 0.0 до 1.0."), + negative_score = type_number("Отрицаетльная оценка, число от 0.0 до 1.0."), + neutral_score = type_number("Нейтральная оценка, число от 0.0 до 1.0.") + ) > > str(chat$extract_data(text, type = type_sentiment)) Error in req_perform(): ! HTTP 400 Bad Request. • For controlled generation of only function calls (forced function calling), please set 'tool_config.function_calling_config.mode' field to ANY instead of populating 'response_mime_type' and 'response_schema' fields. For more details, see: https://cloud.google.com/vertex-ai/generative-ai/docs/multimodal/function-calling#tool-config

получаю ошибку как и с предыдущим extract_data(). Gemini подсказывает, что проблема в tool_config(), но я не нашел где в пакете ellmer устанавливается эта конфирация. Подскажете?

Все остальное работает.

Язык R у меня тоже основной и поэтому Ваша статья вызвала большой интерес у меня.

Удачи

Здравстввйте, я с этой ошибкой не сталкивался, поэтому затрудняюсь что то подсказать, но дуиаю если вы опишите на github ошибку, то помогут, возможно баг в пакете.

Ниже ссылка на репозиторий

https://github.com/tidyverse/ellmer/issues

Там Викхем разработкой ellmer занимается, так что ответить должны довольно быстро.

разобрался. Вопрос снимается. Хочу подсказать: появился пакет "chores" который упрощает применение LLM и "ellmer".

Удачи

О, надо будет и chores глянуть, спасибо!

Алексей, доброго дня!
Интересная статья. Помогите понять - в чём преимущество создания чата, разобранного в статье, перед использованием готового чата с LLM, например, с deepseek? Кажется, и код доработать чат "из коробки" может и проанализировать логи, если направить логи

Приветствую, в данном случае интерфейс упрощает отправку лога, да и функционал по генерации кода на основе внутренних пакетов:

  1. Вы просто в приложении выбираете нужную задачу из планировщика по фильтру, например те задачи которые завершились ошибкой, жмёте кнопку проанализировать лог, и лог вшивается в промпт, и идёт на анализ в LLM модель, вам не надо ничего копировать вставлять.

  2. При этом модель уже обучена с помощью системного промпта работе с вашими внутренними пакетами, она хорошо понимает контекст скрипта, за счёт чего качество ответов значительно выше.

Конечно можно всё это постоянно руками делать через веб интерфейс модели, выглядеть будет примерно так:

  1. Создаёте новый чат

  2. Грузите в него отдельным файлом системный промпт, что бы модель понимала контекст ваших скриптов лучше

  3. Копируете содержимое нужного лога (у нас крутится более 350 скриптов), его ещё найти надо будет

  4. Получаете ответ

И это надо будет делать каждый раз, а так в приложении уже есть готовый интерфейс для поиска нужного лога, и отправки его на анализ в уже дообученную модель.

Как то так.

Зарегистрируйтесь на Хабре, чтобы оставить комментарий

Публикации