Комментарии 5
Мне нравится наблюдать как рассуждает Дипсик, ну если есть время, и если вижу ошибку или уходит не туда, останавливаю его и уточняю
Ответ - никак. Как можно про любой детерминированный алгоритм сказать, что он "думает"?
ллм не детерминированы. они при температуре 0 становятся "почти детерминироваными", т.е. на один и тот же вопрос будут с очень большой (не 100%!) вероятностью давать один и тот же ответ
если бы ллм были детерминированы то такая дисциплина как AI alignment была бы не нужна
природа ллм стохастическая, а не детерминированная
человеческий разум тоже набор различных алгоритмов. тем не менее мы можем говорить про человека что он думает
Да, современные ИИ могут генерировать последовательности текста, которые структурно изоморфны человеческому процессу рассуждений. Ключевое слово — структурно. ИИ не переживает "момент озарения" или "сомнение", но его выходные данные можно разметить теми же категориями (анализ, план, проверка), потому что он обучался на человеческих текстах, где эти паттерны запечатлены. Это не "мышление" алгоритма, а симуляция его внешних проявлений. Однако такая симуляция небесполезна: понимая, по каким "сценариям" работает модель, мы можем делать её рассуждения более надежными и управляемыми, даже не наделяя её разумом. Это инженерия, а не психология.
Таким образом, работа важна не как доказательство "мышления" ИИ, а как мощный инструмент для его отладки и контроля.
Это важная статья. Там описано то, чего не хватает в области ИИ сегодня — теоретически обоснованного инструмента для интерпретации процесса рассуждения, а не только его результата.
Меня эта работа касается напрямую. Я — независимый исследователь в области Human-Computer Interaction (HCI), и уже больше года разрабатываю и тестирую на практике «Протокол Честного Диалога». Его суть — ровно в том, о чём пишется в статье, но с фокусом не на пост-анализ, а на live-взаимодействие.
Если коротко: это набор коммуникативных правил для LLM, который побуждает модель не просто дать ответ, а вести «репортаж с места событий»: проговаривать свои шаги в реальном времени на понятном пользователю языке. Фактически, это прикладное применение того, что описано выше: заставить модель самой вербализовать эпизоды Analyze (как я декодирую запрос в статье), Plan (какую стратегию выбора ответа я использую), Verify (почему я считаю этот путь корректным) — прямо в диалоговом окне.
Работа, описанная в статье,это мощное научное подтверждение того, что разложение reasoning на эпизоды не только возможно, но и необходимо. А мой протокол — попытка превратить эту аналитическую схему в рабочий инструмент для построения психологического доверия между человеком и машиной. Мы с разных сторон подходим к одной цели: превратить «чёрный ящик» в прозрачный процесс.
Мой вопрос к экспертам: Как вы считаете, можно ли схему разметки эпизодов (Read, Analyze, Plan, Implement, Verify) использовать не только для анализа, но и как основу для промптов или правил, которые бы направляли модель на более структурированный и прозрачный диалог с пользователем в реальном времени? Мне кажется, здесь есть пространство для синергии.

Как думают ИИ-модели: раскладываем рассуждения на эпизоды