Обновить
2
Александр Бирюков@Biryukovlex

Руковожу ИИ командами, чтобы решать бизнес-задачи.

5
Подписчики
Отправить сообщение

Да вот думалось мне тоже: "ну как так, обрабатывать табличные данные LLMкой - ну не должно работать".

Но нет. Работает, и хорошо)

Важный момент, который есть в посте — это локальный proof of concept) В прод, конечно, необходимо это выводить после ревью.

Ну и как и все LLM — Claude может ошибаться, конечно. Никто не претендует на отсутствие галлюцинаций. Это компромисс на который мы все идем, когда используем LLM.

С точки зрения секьюрности данных — если у вас enterprise подписка, и между компанией и Anthropic подписано соглашение — обработка всей информации происходит секьюрно и не используются для обучения моделей. Принцип тот же, как при использовании других облачных решений в enterprise.

Возможно, придется воспользоваться сами знаете чем) Возможно какие-то проблемы с доступом из вашего региона

Вообще LLMкам в 2025 уже должно быть пофиг, на каком языке запрос. Все приличные LLM говорят на всех самых распространенных языках мира, а думают они все равно на английском.

Я не представитель Яндекс Браузера. На эту тему ничего прокомментировать не могу

Точно нет - на видео все тесты можете увидеть сами, было бы грустно после стольких тестов генерировать LLM-кой статью :) Использовал функцию "типограф" встроенную в Хабре для проверки текста на опечатки - мб она подкинула сюрприз. В любом случае поправил, спасибо!

GRWC, ARISE, APEX и др - это всего лишь акронимы разных комбинаций того, что я текстом тут итак описал. И эта статья сделана специально, что не грузить людей терминологией, а дать самую суть.

Что же касается CoT, RaT и десятка других подобных механик - все они заслуживают отдельной статьи. Это интересные механики, но прирост качества ответа моделей от использования подходов, описанных в этой статье, к начальному уровню промптинга несравнимо больше, чем от применения CoT/RaT. Да и не стоит забывать, что например GPT-5 сам включит ризонинг модель, когда посчитает запрос достаточно сложным, а она, по сути, сама использует chain of thought подход.

Благодарю, поправил 🫡

Ещё не привычен к форматированию Хабра. Там было зачеркивание части заголовка, но оно слетело.

Это правда. Например, Google по умолчанию сохраняет и используют все вашу историю перемещений (географию), пока сам это специально в настройках не отключишь

Не пошарить с корпорациями перс данные нынче очень непросто. Особенно в условиях, где они еще друг другу их передают и перепродают.

Но в качестве противовеса выступает публичная огласка. Если ИИ агенты сольют какому-то юзеру зарплату - шумиха будет, репутационные потери и тд. Главное не стать этим юзером 😉

Информация

В рейтинге
Не участвует
Зарегистрирован
Активность

Специализация

Менеджер продукта, Директор по продукту
Python