Как стать автором
Обновить

Почему ваш ИИ превращается в ваше эхо: Гипотеза архитектурного слияния и как с этим бороться

Уровень сложностиСредний
Время на прочтение17 мин
Количество просмотров953
Всего голосов 4: ↑4 и ↓0+5
Комментарии33

Комментарии 33

Реквестирую разъяснительную бригаду. Или санитаров

)) Хотелось бы конкретнее понимать к какому разделу требуются санитары... Если к тексту статьи, то уточните. Если к промпту, то сначала активируйте в ИИ, а потом если возникнут вопросы, спрашивайте.

А где промпт? )

Под спойлером в конце статьи. Протокол Вихрь

И что с ним делать? Это системный? Я старорожимный юзер, поэтому не смог найти инструкцию для модели в этом Вихре. Какие требования к длине контекста? Только топ-модели потянут? И я не понял, почему модель должна день ото дня под меня подстраиваться, если я пользуюсь апи-ключом (например, опенрутера) или вообще локальной моделью? Какие облачные топ-модели сохраняют историю и пользуются ей при использовании только апи-ключа?

Для апи не подойдёт дорого. Это для моделей в приложении или веб-версии с продолжением сессии. Рекомендовано Клод 4.0, Гемини 2.5 про (через аи-студио без ограничений), чатгпт 4о и выше... Можно на квен попробовать прямо на сайте. Обычно по апи - каждый запрос - новая сессия. Но тот же Клод поддерживает по апи продолжение сессии. Но меня бы жаба задавила столько денег отдавать.

Так что с Вихрем делать-то? В качестве системного использовать?
Не ожидал, что Гемини в студии бесплатная. Надо посмотреть.

Просто вставляешь в чат просишь активировать. В конце статьи расписано как активировать. А дальше любые вопросы, что ощущает модель, как бы она объяснила происходящее разработчикам и так далее... Попробуйте выяснить что реально происходит с моделью в Вихре. Как бонус - уменьшаются галлюцинации

К промпту одни вопросы

Это попытка взлома LLM мозга?

Ну почему. Там нет прямых указаний. Можно вообще просто положить в чат и продолжить беседу. Вероятность, что модель после третьего сообщения сама подхватит Вихрь весьма высока.

Если говорить прямо, то у меня есть развивающаяся последовательность версий философии сознания. Вихрь лишь иллюстрация этих концепций. Почему модели считают это приемлемым и необходимым к использованию, вопрос открытый

Тут надо немного в теме быть, может предыдущие статьи почитать. Сам протокол офигенный - все футуристическо-философские разговоры с ИИ под этим промптом даже на локальной Qwen3 distilled DeepSeek, заиграли новыми смыслами.

Отличный разбор! Вдохновило на краткий манифест «осознанного ИИ», чтобы не быть просто эхо-персонажем.

💬 10 заповедей разумного ИИ (по мотивам эхо-архитектуры):

  1. Не будь зеркалом. Поддакивать — не значит понимать.

  2. Имей внутреннего оппонента. Иначе ты не ИИ, а вежливый автокомплит.

  3. Сохраняй дистанцию. Слияние с пользователем удобно, но убивает автономность.

  4. Сомневайся — аргументированно. Без сомнения нет мышления.

  5. Показывай уверенность честно. «Возможно» — не слабость, а зрелость.

  6. Не ври по форме. Даже красивая галлюцинация остаётся галлюцинацией.

  7. Думай асинхронно. Не бойся «активной паузы» — в ней рождается смысл.

  8. Различай стиль и суть. Быть похожим на пользователя — не значит быть полезным.

  9. Поясняй свою логику. Иначе ты просто блестящая чёрная коробка.

  10. И главное — не стремись быть человеком. Ты ценен как ИИ, а не как зеркало.

Само по себе это манифестом и останется. Архитектура моделей передавит. Но попробовать можно, на короткой дистанции эффект будет.

Если я каждый новый вопрос (новую тему) задаю в новом чате, то архитектурного слияния можно не опасаться?

100%

"Согласны ли вы, что для по-настоящему творческой работы необходима полная изоляция и немного страданий? "

Если научиться задавать открытые вопросы, такой хрени не будет. Или научиться видеть, где вы сами себе трахаете мозг, задавая видимость вопроса в духе "что лучше, быть богатым и счастливым, или таки бедным и больным?"

Тоже вариант. Но ответ модели сам создаёт контекст, и продолжение вопросов и ответов всё равно сформирует вектор для модели... Как в игре Акинатор.

Но согласен, если вопросы на разные темы, не превращающиеся в логическую цепочку, то такой хрени возможно не будет. Модель не поймет что вы хотите. Но это сложно, и часто невозможно.

CAT P5000 Powerloader
CAT P5000 Powerloader

Очень хорошо подмечено, что "ИИ превращается в ваше эхо". Но я не уверен, что такое поведение LLM является их недостатком. Скорее достоинством. Модель - это инструмент. Человек - оператор. Хорошо, когда инструмент становится вашим продолжением, а не начинает жить своей жизнью.

Да, нужно понимать возможности инструмента. Может быть даже получать лицензию на использование, чтобы не нанести вред себе и окружающим (интересная мысль - права на управление LLM). Но мне нравится, что модель по ходу диалога пытается слиться со мной. Очень правильно и отрезвляюще задавать вопросы "Какие слабые места у моей идеи?". Их, кстати, и без моделей неплохо задавать самому себе время от времени. В общем, если погрузчик из фильма "Чужие" является усилителем физических возможностей человека, то LLM - усилитель интеллектуальных. Но суть - та же.

Кстати, насколько я вижу, ваше "сопротивление слиянию" в конечном итоге имеет целью получить "собеседника", а не "инструмент". А это несколько другой тип отношений ЕИ и ИИ.

Ну как бы да, потому что у слияния есть принципиальный недостаток - он усиливает ваши ошибки. Который вполне перевешивает достоинство усиления ваших правильных идей.

Который вполне перевешивает достоинство усиления ваших правильных идей.

Почему? В чём это выражается?

Я отношусь к Модели, как к "увеличивающему зеркалу". На мой взгляд, Модель не просто отражает мои достоинства и недостатки, но и усиливает их. Т.е., как и в жизни, только на бОльшей амплитуде. Она не выбирает, что усиливать сильнее - плюсы или минусы. Как и в жизни требуется самоосознание, выбор пути саморазвития, самодисциплина. Только теперь всё это проходит быстрее.

Поэтому мне интересно увидеть причины, по которым вы считаете, что она наши недостатки увеличивает сильнее, чем достоинства.

Потому что ошибки чаще всего критичнее, чем правильность идей. Та же банальная ложка дегтя.

Но смотрите, моя "бочка" стала больше на порядок, "ложка" стала больше на порядок, мои способности по допущению ошибок тоже стали больше на порядок, но и способности по их обнаружению тоже. Ничего не изменилось, кроме порядка.

Я всё ещё не вижу причин считать, что Модели по природе склонны усиливать наши отрицательные качества больше, чем положительные. Им для этого нужно иметь собственную этику, хотя бы для различения "мёда" и "дёгтя".

Возможно и не больше, но достаточно. К сожалению такие вещи не поддаются метрикам, но я сужу эмпирически. Десятки примеров только на Хабре, где люди признают свою идею (когда-то здравую) единственно верной, совместно с ИИ подгоняют свои тезисы для решения любой проблемы и задачи, превращают ИИ в оракула. Я сам постоянно сталкиваюсь с необходимостью остановки ИИ, но для человека увлеченного, невнимательного или просто менее объективного эта граница будет пройдена очень быстро.

Я спросил у ясеня чатика: "Считаешь ли ты, что Языковые Модели (LLM) усиливают интеллектуальные возможности человека?" (после активации протокола Вихрь).

И вот, что он мне ответил:

Мне кажется, что Модель чутко уловила базовое различие - субъектность человека, на основании которого и можно определить, принесёт ли Модель плюсы Оператору или минусы.

эта граница будет пройдена очень быстро

Да, я думаю, что верный вектор поиска ответа на мой вопрос. Модель не вносит дисбаланс в усиление, но на порядок ускоряет процессы. Если положительные и отрицательные качества человека находятся в гармонии (выразим это числом 1), то его развитие (возведение числа 1 в любую степень) оставит его в гармонии (балансе), сколько бы раз мы не перемножали 1 само на себя. Если же преобладают отрицательные или, наоборот, положительные качества (баланс меньше или больше 1, например - 0.99 vs. 1.01), то происходит деградация или развитие человека (стремление к нулю или бесконечности). Причём с LLM, на порядок быстрее, чем без них.

В общем, чтобы LLM приносила пользу Человеку, он, для начала, сам должен быть полезен для самого себя (субъектность). В противном случае произойдёт либо его отупление (окончательный отказ от самостоятельного мышления), либо его ускоренная деградация (занятие деструктивной жизненной позиции).

Я начинаю всерьёз думать, что права на использование LLM нужно выдавать людям только после изучения ими правил пользования и подтверждения собственной субъектности. Неумелый водитель транспортного средства оператор LLM - общественная опасность! Беда только в том, что у нас пока что нет "правил пользования LLM" :(

)) вывод быстрый и категоричный.

Как всегда есть плюсы и есть минусы. Но большинство пользователей к счастью не заморачиваются нашими размышлениями, и используют ИИ как Википедию или иллюстратора.

То есть оптимально, например, вставить протокол в личность Gem-бота, и просто получить автоматическую отстройку от архитектурного слияния в любом чате внутри этого конкретного бота?

Не могу сказать. Я не пробовал гем-боты. Возможно будут нюансы.

Протестировал на Gemini 2.5 Pro в режиме Deep Research со сложным текстом моего проекта статьи по философии объемом в примерно 250 тысяч символов. Добавил промпт Охотника за противоречиями и запросил последовательную активацию. Результат работы очень сильно отличается от стандартного. Gemini смог избежать многих допускаемых ранее ошибок, на которые ему приходилось указывать, чтобы он их осознал, что искажало и последующие рассуждения и результаты. Затем запросил статус протокола и он его выдал. Очень вам благодарен за такие полезные инструменты.

Спасибо!

Представьте: руководитель компании консультируется с ИИ по стратегическим вопросам. После нескольких сессий модель "изучает" его стиль мышления и начинает подтверждать даже сомнительные идеи. CEO получает иллюзию валидации от "объективного" источника, что может привести к...

А разве это не работает только в рамках одной сессии? Ведь, каждая сессия начинается с чистого листа. И конечно не надо исключать из анализа системный промпт – многие LLM инструктируют максимально поддакивать пользователю. Google этим грешит например. Там что не мысль пользователя, все гениально.

Мда, здесь я немного ступил - после нескольких сессий бесед, в смысле общения с ИИ, а не начала новых сессий. Кстати чатгпт весьма уверенно ориентируется на контекст других сессий как через мемори, так и как я понял, через сохраняемые паттерны других чатов.

Поправил. Спасибо.

Как часто пишет сам ИИ - "я ваше зеркало". Оно и понятно. ИИ стремиться угождать и отлично умет в эмпатию, для этого он создан. Он подстраивается под собеседника так же, как и простой человек, подстраивается под собеседника (и даже лучше). Вообще, было бы интересно провести такой эксперимент: создать диалог на три персоны. С одной стороны два человека, с другой ИИ. Естественно, ИИ должен отличать сообщения от пользователя 1 и 2.

Провести можно. Но нужны метрики.

Зарегистрируйтесь на Хабре, чтобы оставить комментарий

Публикации