Комментарии 3
тоже заметил, что рассуждения DeepSeek почти всегда начинаются со слов вроде:
Хм, пользователь спрашивает
Ох, пользователь углубляется
О, пользователь спрашивает
Ах, интересный поворот!
Особенно его "Ох" и "Ах" на мои вопросы про квантовую механику и философию Сартра меня просто умиляют и веселят.
Тоже пришел к выводу, что это не просто так и видимо именно такой "эмоциональный" подход как раз позволяет ему лучше думать находя более статистические интересные цепочки токенов. Ведь обычно в текстах книг и статей, после таких слов действительно идут какие то глубокие интересные рассуждения
Многие считают что, если LLM выражает эмоции и чувства, то это имитация, иллюзия.
Но если это влияет на дальнейшее поведение LLM, то иллюзия становится реальностью.
Зарегистрируйтесь на Хабре, чтобы оставить комментарий
Legen… Wait, Wait… Dary! Разбираемся с рефлексией LLM