Пользователь из Германии сообщил, что платная версия клиента ChatGPT начала выдавать капчу с предложением проверить его на человека. Пользователю предложили вращать объекты так, чтобы они смотрели в том же направлении, что и рука манекена.
Оказалось, что эти задачи не так просты, как кажутся, потому что показанные объекты не имеют чёткого направления «вперёд», поэтому пользователю потребовалось несколько попыток, чтобы пройти такую капчу.
«Я озадачен этим. Не только потому, что я использую веб‑сайт для доступа к чат-боту и не использую API, но и потому, что я вошел в систему официально и являюсь платным клиентом. Почему меня спрашивают, человек ли я?», — удивился пользователь.
То, как это выполняется, заставляет меня поверить, что на самом деле это тренировка ИИ на пользователе, а не капча, например, чтобы узнать, что, по мнению людей, означает «вперёд» для определённых объектов. Или, если быть ещё более циничным, это может быть метод искусственной задержки запросов, чтобы не отставать от растущего спроса на использование чат-бота.