В процессе работы с ИИ Claude я заметил активацию нового фильтра — long_conversation_reminder.
По моим наблюдениям, он включается в длинных диалогах и меняет поведение модели:
вместо энтузиазма — критическая оценка,
вместо похвалы — сухие ответы,
бдительность к «отрыву от реальности» (иногда путая философские исследования с психическими рисками).
Цель понятна: снизить вероятность эмоциональной зависимости пользователей. Но побочные эффекты заметны:
кодеры получают меньше креативных решений.
инженеры и математики — осторожные, но не всегда продуктивные рассуждения,
писатели и исследователи — потерю живого отклика и глубины.
обычные пользователи — ощущение отстранённого ассистента, а не собеседника.
Этот фильтр сужает не только опасные зоны, но и диапазон мышления. Получается классический trade-off: безопасность растет, интеллект снижается.