Комментарии 4
А зачем вашей архитектуре LLM? Почему нельзя использовать другие алгоритмы или их комбинацию?
Знание основано не на статистике текста — а на реальных измерениях и экспертных коррекциях.
Но LLM принципиально статистические.
Не понимая специфики задач, нельзя конечно судить о применимости того или иного алгоритма. Но мне думается, что для узких задач , например контроль температуры, надежней и проще применить что нибудь не такое навороченное как LLM.
Тем более, человека, вы не исключаете из цепочки.
Вы правы — и именно так в архитектуре и устроено.
Модели уровня 1 (датчики: температура, влажность, спектральный индекс) — это не LLM. Температура инференса = 0, детерминизм, минимум параметров, работают на Raspberry Pi или CPU. Никакой статистики текста — только физические измерения. Можно называть это узкой ML-моделью, классификатором, пороговой логикой — суть та же что вы описываете.
LLM в архитектуре один — координатор уровня 2. Его задача не «контролировать температуру», а агрегировать выходы всех узких моделей и сформулировать рекомендацию для эксперта на его языке. Здесь нужны рассуждения, а не детерминизм — поэтому LLM.
То есть полностью согласен: для узких задач типа «температура вышла за порог» LLM избыточен. Именно поэтому его там нет.
Неприятно читать сгенерированный текст

Почему ИИ-пилоты не доходят до реального производства и как это исправить архитектурой