Появилась новая тенденция, вызывающая некоторое беспокойство: люди используют ChatGPT, чтобы определить местоположение, изображённое на фотографиях.

На этой неделе компания OpenAI выпустила свои новейшие модели искусственного интеллекта o3 и o4-mini, которые могут уникальным образом «рассуждать» на основе загруженных изображений. На практике модели могут обрезать, поворачивать и увеличивать фотографии — даже размытые и искажённые — для их тщательного анализа.
Эти возможности анализа изображений в сочетании со способностью моделей искать информацию в интернете делают их мощным инструментом для определения местоположения. Пользователи X быстро обнаружили, что o3, в частности, довольно хорошо определяет города, достопримечательности и даже рестораны и бары по едва заметным визуальным подсказкам.
Во многих случаях модели, по-видимому, не используют «воспоминания» о прошлых беседах с ChatGPT или данные EXIF, которые представляют собой метаданные, прикрепляемые к фотографиям и раскрывающие такие детали, как место съёмки.
X содержит множество примеров того, как пользователи дают ChatGPT меню из ресторанов, снимки окрестностей, фасады и автопортреты, а также просят o3 представить, что он играет в «GeoGuessr» — онлайн-игру, в которой нужно угадывать места по снимкам Google Street View.
Это очевидная потенциальная проблема с конфиденциальностью. Ничто не мешает злоумышленнику сделать скриншот, скажем, истории человека в Instagram и с помощью ChatGPT попытаться скомпрометировать его.
Конечно, это можно было сделать ещё до запуска o3 и o4-mini. TechCrunch обработал несколько фотографий с помощью o3 и более старой модели без возможности обработки изображений, GPT-4o, чтобы сравнить их способности определять местоположение. Удивительно, но GPT-4o чаще всего давал тот же правильный ответ, что и o3, и делал это быстрее.
Во время краткого тестирования был по крайней мере один случай, когда o3 нашёл место, которое не смог найти GPT-4o. Увидев изображение фиолетовой головы носорога в тускло освещённом баре, o3 правильно ответил, что это был подпольный бар в Вильямсбурге, а не, как предположил GPT-4o, паб в Великобритании.
Это не значит, что o3 безупречен в этом отношении. Несколько тестов не было пройдено — o3 зацикливался, не мог прийти к ответу, в котором был бы достаточно уверен, или выдавал неправильное местоположение. Пользователи на X также отметили, что o3 может сильно ошибаться в определении местоположения.
Но эта тенденция иллюстрирует некоторые из возникающих рисков, связанных с более мощными, так называемыми «рассуждающими» моделями ИИ. По-видимому, в ChatGPT практически нет средств защиты от такого «обратного поиска местоположения», и компания OpenAI, стоящая за ChatGPT, не рассматривает эту проблему в своём отчёте о безопасности для o3 и o4-mini.