Обновить

Почему ИИ-пилоты не доходят до реального производства и как это исправить архитектурой

Уровень сложностиСложный
Время на прочтение9 мин
Охват и читатели11K
Всего голосов 8: ↑7 и ↓1+6
Комментарии4

Комментарии 4

А зачем вашей архитектуре LLM? Почему нельзя использовать другие алгоритмы или их комбинацию?

Знание основано не на статистике текста — а на реальных измерениях и экспертных коррекциях.

Но LLM принципиально статистические.

Не понимая специфики задач, нельзя конечно судить о применимости того или иного алгоритма. Но мне думается, что для узких задач , например контроль температуры, надежней и проще применить что нибудь не такое навороченное как LLM.

Тем более, человека, вы не исключаете из цепочки.

Вы правы — и именно так в архитектуре и устроено.

Модели уровня 1 (датчики: температура, влажность, спектральный индекс) — это не LLM. Температура инференса = 0, детерминизм, минимум параметров, работают на Raspberry Pi или CPU. Никакой статистики текста — только физические измерения. Можно называть это узкой ML-моделью, классификатором, пороговой логикой — суть та же что вы описываете.

LLM в архитектуре один — координатор уровня 2. Его задача не «контролировать температуру», а агрегировать выходы всех узких моделей и сформулировать рекомендацию для эксперта на его языке. Здесь нужны рассуждения, а не детерминизм — поэтому LLM.

То есть полностью согласен: для узких задач типа «температура вышла за порог» LLM избыточен. Именно поэтому его там нет.

Спасибо, понял

температура инференса = 0,

Где вы описываете уровень 1.

Вот это сбило с толку. ))

Неприятно читать сгенерированный текст

Зарегистрируйтесь на Хабре, чтобы оставить комментарий

Публикации