Обновить

Комментарии 6

Почему не langchain выбрали - https://t.me/ena_ai/235 написала пост в тг на эту тему)

Очень похоже на sgr подход. Если убрать весь маркетинг, то суть очень простая - контролируйте контекст.

Оукей, а кейсы того как этот код сделать достаточно гибким, что бы это было не просто огромным скриптом для решения конкретной задачи, а многоцелевым решением - конечно же не будет, тогда логичный вопрос, а зачем тут вообще стохастический подбор вероятностей от LLM ? Ну запихайте "когницию" в скрипт и все тогда, чет не понял нифига.

В конечном итоге вы всеравно вынуждены будете ИИ и создать - это та самая система принятия решений. Или получите попугайчика что пользователю на разный лад бесполезную информацию выдает (но теперь еще и будет делать вид что понимает), а с этим и обычный чатбот справится

отличная статья!

больше всего мне понравился вот этот момент:

В нашей архитектуре роль нейросети сведена к минимуму: она выполняет функцию Semantic Renderer. Она — не мозг. Она — «речевой аппарат».

колесо это не машина! но машине что бы ездить нужны колеса. звучит логично правда? =) отсюда "языковая модель не мозг, а речевой аппарат"

люди думают словами. логика в словах. вы только что попали в ловушку своей собственной биологической нейросети ))

а то что вы предлагаете создать по сути что-то вроде насекомого с модулем-переводчиком. говорящий муравей, не способный к обучению в диалоге. зачем нужен такой муравей, которому нельзя показать два-три примера и сказать "мне надо вот так же"? должен специально обученный человек на каждый кейс писать новый стейт, гениально. вы предлагаете создать натуральную "китайскую комнату", в которой ллм это тот самый "человечек", который "не знает китайского, а действует по прописанным кем-то правилам"

может лучше все таки "человечка" китайскому научить? ))

Люди не думают словами. Не путайте внутреннюю речь с мыслеобразами. Коллега, изучайте когнитивные науки

В статье верно подметили, что LLM - это всего лишь "говорящий рот". Но важно понимать: в когнитивно-символьных системах (КСС) этот принцип "разделения труда" реализован гораздо глубже и эффективнее, уже 2 десятка лет. "Мысли" (логическое ядро) отделено от обработки текста (модуля интерфейса). Работать с текстом напрямую как с символами - это вычислительный тупик, и КСС это давно прошли.

Несмотря на то, что я стою на позициях символизма, хочу похвалить авторов статьи. Они подошли к проблеме по-своему, в рамках коннекционизма (LLM), и принятое ими решение - выделить LLM лишь роль "говорящего рта" при "ИИ-агенте" - абсолютно верное. По сути, авторы интуитивно пришли к тому, что в КСС уже давно является стандартом.

Зарегистрируйтесь на Хабре, чтобы оставить комментарий

Публикации