Comments 2
Alex, отличная статья! Спасибо! Учитывая ограничения в передаче данных от внешнего приложения к GPT-чату, какие альтернативные архитектурные решения вы бы предложили для создания более гибкой системы двусторонней коммуникации?
Спасибо на добром слове :) У Open AI в ChatGPT я в принципе не вижу возможности доставки информации до пользователя без его на то явного пожелания. Их фишка не коммуникация, а ИИ.
И вот если пользователю в разговоре с ИИ понадобится информация от внешнего источника, только в этот момент появляется возможность предоставить информацию пользователяю. Другими словами, пользователь может запросить погоду в своём городе у GPT-чата и чат сможет сформулировать запрос и отправить его к внешнему источнику (если он подключен), а затем представить результат пользователю (pull-модель отношений).
Если же бизнесу в его отношениях с пользователем нужна push-модель, то придётся создавать альтернативный канал доставки информации от бизнеса к пользователю (email, мессенджер, Web Push, наконец).
Для двусторонней коммуникации с пользователем наиболее интересно для меня выглядит "туннель" от пользователя к OpenAI API внутри мессенджера (Телеграм, например). Но это, разумеется, если бизнес готов (и может!) платить за использование ИИ сам. Или у него есть ресурсы самому запускать LLM в достаточном объёме. В таком случае пользователь, не выходя из своего мессенджера, может взаимодействовать через него с ИИ, а бизнес может не только модерировать запросы пользователя (создавать дополнительный контекст, исходя из имеющихся у него данных по пользователю), но и в любой момент напрямую отправлять данные пользователю (например, по крону). В том числе и с предварительной обработкой данных пользователя через ИИ,
Голосовая аутентификация через GPT