Обновить

Комментарии 3

тоже заметил, что рассуждения DeepSeek почти всегда начинаются со слов вроде:

Хм, пользователь спрашивает
Ох, пользователь углубляется
О, пользователь спрашивает
Ах, интересный поворот!

Особенно его "Ох" и "Ах" на мои вопросы про квантовую механику и философию Сартра меня просто умиляют и веселят.

Тоже пришел к выводу, что это не просто так и видимо именно такой "эмоциональный" подход как раз позволяет ему лучше думать находя более статистические интересные цепочки токенов. Ведь обычно в текстах книг и статей, после таких слов действительно идут какие то глубокие интересные рассуждения

UPD вот похвалил китайцев, и они через неделю сломали мою любимую игрушку - DeepSeek сильно уменьшив размер контекста на размышления. Если раньше размышления могли занимать несколько экранов текста, то теперь в среднем пол экрана.
Теперь она меньше думает и ответы стали хуже чем у qwen (

Многие считают что, если LLM выражает эмоции и чувства, то это имитация, иллюзия.
Но если это влияет на дальнейшее поведение LLM, то иллюзия становится реальностью.

Зарегистрируйтесь на Хабре, чтобы оставить комментарий

Информация

Сайт
airi.net
Дата регистрации
Численность
101–200 человек
Представитель
Марат Хамадеев