
OpenAI представила обновленный голосовой режим, который уже доступен во всех подписках ChatGPT (учитывайте, что запуск на всех пользователей может занять определенное время). В нем голосовой диалог ведется не на отдельном экране, а сразу в чате. Это значит, что пользователь в реальном времени может видеть расшифровку разговора, а модель может не только давать ответы, но и искать картинки и запускать виджеты. В демонстрации OpenAI ИИ использовал Google-карты, чтобы указать локации с наиболее высоким рейтингом в указанном районе, а затем нашел подробности о меню выбранного места.
Новый голосовой режим включен по умолчанию в веб-версии ChatGPT и мобильных приложениях. Если нужно вернуться на старую версию, то в настройках голосового ассистента следует включить опцию separate mode.
Учитывайте, что даже при включенном чате в голосовом режиме с пользователем работает более простая модель — предположительно, одна из версий GPT-4o. Она хорошо подходит для поддержания диалога, быстрых ответов и простого поиска в сети, но может делать ошибки в сложных задачах — для их решения лучше переходить в текстовый режим и включать GPT-5.1 Thinking.
P.S. Поддержать меня можно подпиской на канал "сбежавшая нейросеть", где я рассказываю про ИИ с творческой стороны.
