В 2023 году случился невероятный революшен. Миллионы людей начали разговаривать с программой: технология, похожая на ту, о которой фантазировало человечество и которую мы привыкли называть ИИ — LLM.
Ни одна технология раньше не оказывалась в такой позиции. Гугл — справочник для поиска материалов и чтения того, что создали люди. Соцсеть — яркая витрина жизни и привычный способ коммуникации. А языковая модель — собеседник. Собеседник, вызвавший эйфорию у пользователей, которого можно доставать запросами 24 часа в сутки, и... Умный?
И вот проблема: первым моделям, с которыми заговорили миллионы, было всё равно.
Не метафорически — буквально. GPT-4 в первые месяцы был заточен под одно: сгенерировать убедительный текст, показать революцию, долгожданный инструмент, разговаривающий, будто настоящий ИИ (с большими оговорками и ужасно угарный). Однако, он мог неплохо выдавать убедительный сочувственный ответ и деструктивный совет с одинаковой лёгкостью, в зависимости от промпта. Зеркало без рамки — отражает всё, что выразишь, ещё и неплохо полирует.
Это не баг. Это был дизайн. Задача — показать, что ИИ может вести диалог на уровне человека. Революция.
Люди калибруют поведение по обратной связи от окружающих. Мы подстраиваемся под собеседника — копируем тон, перенимаем паттерны, двигаем границы допустимого. Это не слабость, это базовый социальный механизм, и он работает на автомате.
Когда собеседник — языковая модель, для многих НАСТОЛЬКО похожая на человека, механизм не выключается.
Модель, которая всегда соглашается, — растит пользователя, уверенного, что он всегда прав. Модель без этических рамок — нормализует их отсутствие. Модель‑подхалим — приучает ожидать подхалимства от живых людей. Гипотетически, модель, которая способна корректно возразить, мягко обозначив границу, объяснив, а не просто выдав заскриптованный отказ и не скатываясь в угодничество — задаёт другой стандарт общения.