Да вот думалось мне тоже: "ну как так, обрабатывать табличные данные LLMкой - ну не должно работать".
Но нет. Работает, и хорошо)
Важный момент, который есть в посте — это локальный proof of concept) В прод, конечно, необходимо это выводить после ревью.
Ну и как и все LLM — Claude может ошибаться, конечно. Никто не претендует на отсутствие галлюцинаций. Это компромисс на который мы все идем, когда используем LLM.
С точки зрения секьюрности данных — если у вас enterprise подписка, и между компанией и Anthropic подписано соглашение — обработка всей информации происходит секьюрно и не используются для обучения моделей. Принцип тот же, как при использовании других облачных решений в enterprise.
Вообще LLMкам в 2025 уже должно быть пофиг, на каком языке запрос. Все приличные LLM говорят на всех самых распространенных языках мира, а думают они все равно на английском.
Точно нет - на видео все тесты можете увидеть сами, было бы грустно после стольких тестов генерировать LLM-кой статью :) Использовал функцию "типограф" встроенную в Хабре для проверки текста на опечатки - мб она подкинула сюрприз. В любом случае поправил, спасибо!
GRWC, ARISE, APEX и др - это всего лишь акронимы разных комбинаций того, что я текстом тут итак описал. И эта статья сделана специально, что не грузить людей терминологией, а дать самую суть.
Что же касается CoT, RaT и десятка других подобных механик - все они заслуживают отдельной статьи. Это интересные механики, но прирост качества ответа моделей от использования подходов, описанных в этой статье, к начальному уровню промптинга несравнимо больше, чем от применения CoT/RaT. Да и не стоит забывать, что например GPT-5 сам включит ризонинг модель, когда посчитает запрос достаточно сложным, а она, по сути, сама использует chain of thought подход.
Это правда. Например, Google по умолчанию сохраняет и используют все вашу историю перемещений (географию), пока сам это специально в настройках не отключишь
Не пошарить с корпорациями перс данные нынче очень непросто. Особенно в условиях, где они еще друг другу их передают и перепродают.
Но в качестве противовеса выступает публичная огласка. Если ИИ агенты сольют какому-то юзеру зарплату - шумиха будет, репутационные потери и тд. Главное не стать этим юзером 😉
Да вот думалось мне тоже: "ну как так, обрабатывать табличные данные LLMкой - ну не должно работать".
Но нет. Работает, и хорошо)
Важный момент, который есть в посте — это локальный proof of concept) В прод, конечно, необходимо это выводить после ревью.
Ну и как и все LLM — Claude может ошибаться, конечно. Никто не претендует на отсутствие галлюцинаций. Это компромисс на который мы все идем, когда используем LLM.
С точки зрения секьюрности данных — если у вас enterprise подписка, и между компанией и Anthropic подписано соглашение — обработка всей информации происходит секьюрно и не используются для обучения моделей. Принцип тот же, как при использовании других облачных решений в enterprise.
Возможно, придется воспользоваться сами знаете чем) Возможно какие-то проблемы с доступом из вашего региона
Почему? Все работает
Вообще LLMкам в 2025 уже должно быть пофиг, на каком языке запрос. Все приличные LLM говорят на всех самых распространенных языках мира, а думают они все равно на английском.
Я не представитель Яндекс Браузера. На эту тему ничего прокомментировать не могу
Точно нет - на видео все тесты можете увидеть сами, было бы грустно после стольких тестов генерировать LLM-кой статью :) Использовал функцию "типограф" встроенную в Хабре для проверки текста на опечатки - мб она подкинула сюрприз. В любом случае поправил, спасибо!
GRWC, ARISE, APEX и др - это всего лишь акронимы разных комбинаций того, что я текстом тут итак описал. И эта статья сделана специально, что не грузить людей терминологией, а дать самую суть.
Что же касается CoT, RaT и десятка других подобных механик - все они заслуживают отдельной статьи. Это интересные механики, но прирост качества ответа моделей от использования подходов, описанных в этой статье, к начальному уровню промптинга несравнимо больше, чем от применения CoT/RaT. Да и не стоит забывать, что например GPT-5 сам включит ризонинг модель, когда посчитает запрос достаточно сложным, а она, по сути, сама использует chain of thought подход.
Благодарю, поправил 🫡
Ещё не привычен к форматированию Хабра. Там было зачеркивание
частизаголовка, но оно слетело.Это правда. Например, Google по умолчанию сохраняет и используют все вашу историю перемещений (географию), пока сам это специально в настройках не отключишь
Не пошарить с корпорациями перс данные нынче очень непросто. Особенно в условиях, где они еще друг другу их передают и перепродают.
Но в качестве противовеса выступает публичная огласка. Если ИИ агенты сольют какому-то юзеру зарплату - шумиха будет, репутационные потери и тд. Главное не стать этим юзером 😉