После анонса iPhone 16e Apple сообщила, что функция Visual Intelligence появится на iPhone 15 Pro и 15 Pro Max. С её помощью пользователи могут направлять камеру смартфона на объекты и получать сведения о них.

Изначально функция Visual Intelligence была эксклюзивной для iPhone 16 Pro и 16 Pro Max. Компания привязала её активацию к кнопке Camera Control. Если кнопки в смартфоне нет, то и получить доступ к функции не получится. При этом аппаратно старые модели могут с ней работать.

С выходом iPhone 16e компания пересмотрела своё решение. У нового смартфона нет кнопки Camera Control, поэтому активацию функции привязали к Action Button. Также поддержку Visual Intelligence добавят и в iPhone 15 Pro и 15 Pro Max. Компания не сообщила о дате релиза, но инсайдеры считают, что поддержка появится в iOS 18.4.

Visual Intelligence — нейросетевая функция из набора Apple Intelligence, похожая на Google объектив. С её помощью пользователи могут направлять камеру на объекты и получать сводку от модели машинного обучения. Например, больше расскажет про туристический объект, подскажет название растения или добавит в календарь мероприятие с постера.