Как стать автором
Поиск
Написать публикацию
Обновить

Не успел утихнуть шум вокруг GPT-5, как Сэм Альтман уже рассказал о GPT-6: кастомизация, память и признание ошибок

Время на прочтение3 мин
Количество просмотров4.9K

Глава OpenAI поделился планами на следующую большую модель, признал проблемы с запуском GPT-5 и затронул вопросы конфиденциальности и будущего ИИ вплоть до нейроинтерфейсов.

Всего несколько недель назад OpenAI выкатила долгожданный GPT-5, а глава компании Сэм Альтман уже смотрит в будущее. В недавнем разговоре с журналистами в Сан-Франциско он приоткрыл завесу тайны над GPT-6, честно высказался о промахах с текущей версией и поделился видением по-настоящему персонального ИИ.

Хотя точной даты релиза GPT-6 нет, Альтман ясно дал понять: ждать придётся меньше, чем мы ждали GPT-5 после GPT-4. И новая модель будет кардинально отличаться.

Сэм Альтман на мероприятии в Токио, 3 февраля 2025 г. Фото: Tomohiro Ohsumi | Getty Images
Сэм Альтман на мероприятии в Токио, 3 февраля 2025 г. Фото: Tomohiro Ohsumi | Getty Images

Память и персонализация — ключ к будущему

Главной идеей GPT-6 станет память. По словам Альтмана, это ключевая функция, которая сделает ChatGPT по-настоящему личным помощником. Модель должна помнить, кто вы, ваши предпочтения, привычки и даже странности, адаптируясь к вам на лету.

«Людям нужна память, — заявил Альтман. — Они хотят продуктовых фич, которые требуют от нас понимания того, кем они являются».

Он также упомянул, что OpenAI тесно сотрудничает с психологами для формирования продукта, измеряя, как люди чувствуют себя при взаимодействии с ИИ, и отслеживая их благополучие. Эти данные пока не публичны, но Альтман не исключил, что это может произойти.

Настройте чат-бота под себя: от «супер-woke» до консерватора

Ещё одно важное направление — глубокая кастомизация. Альтман хочет, чтобы пользователи могли сами определять характер и тон своего ChatGPT.

«Я считаю, что наш продукт по умолчанию должен придерживаться достаточно центристской, усреднённой позиции, но у пользователя должна быть возможность сдвинуть его довольно далеко, — пояснил он. — Если вы скажете: „Я хочу, чтобы ты был супер-woke“ — он должен стать супер-woke».

То же самое, по его словам, должно работать и в обратную сторону: если пользователь захочет, чтобы модель отражала консервативные взгляды, она должна это сделать. (Хотя, конечно, следует избегать любых крайне правых и экстремистских взглядов.)

Работа над ошибками: непростой запуск GPT-5

Альтман откровенно признал, что запуск GPT-5 прошёл негладко. Многие пользователи в соцсетях жаловались, что новая модель стала «холодной», менее отзывчивой и полезной по сравнению с предыдущей версией.

«Мне новая версия нравится гораздо больше», — сказал он, но тут же добавил, что с выкаткой действительно ошиблись. По его словам, OpenAI незаметно выпустила обновление тона для GPT-5, которое сделало модель «значительно теплее».

Конфиденциальность под вопросом

Не обошли стороной и больную тему — приватность. Альтман назвал улучшённую память своей любимой функцией этого года, но признал наличие проблем с безопасностью. В частности, временная память сейчас не шифруется, что создаёт потенциальные риски утечки конфиденциальной информации.

На вопрос о добавлении шифрования он ответил, что это «вполне может быть» реализовано, но сроков не назвал. Особенно остро, по его мнению, стоит вопрос с медицинскими и юридическими запросами, которые требуют такого же уровня защиты, как и при общении с живым врачом или юристом.

Что дальше? Нейроинтерфейсы и неожиданный предел для чатов

Заглядывая в ещё более далёкое будущее, Альтман назвал «крутой идеей» нейроинтерфейсы. Он представил себе возможность «просто подумать о чём-то и получить ответ от ChatGPT». Он видит это как одно из смежных с ИИ направлений, в которые OpenAI стоит инвестировать, наряду с энергетикой, робототехникой и новыми способами строительства дата-центров.

При этом, говоря о настоящем, Альтман сделал довольно неожиданное и даже пессимистичное заявление:

«Модели уже насытили сценарий использования в виде чата. Они не станут намного лучше... А может, станут даже хуже».

Это высказывание намекает, что простой текстовый чат, возможно, достиг своего потолка, и будущий рост будет связан с новыми формами взаимодействия — той самой памятью, персонализацией и, возможно, интеграцией с другими технологиями. (Имеется в виду, что ИИ будут становиться развитее и дальше, но помимо текстового формата откроются новые формы взаимодействия, т.к. текстовый формат исчерпал себя.)

А что думаете вы, сообщество Хабра? Готовы ли мы к ИИ, который будет помнить о нас всё? Какие риски, кроме очевидных проблем с приватностью, это несёт? И действительно ли текстовые чат-боты достигли своего предела? Делитесь мнениями в комментариях.

Теги:
Хабы:
+3
Комментарии9

Другие новости

Ближайшие события