Ну как минимум приложение не связан с банком непосредственно, да и добавлять/удалять адреса там удобно, причем можно добавить адрес вообще любой и получать информацию об оплате по этому адресу.
Мне не совсем понятно как они хостят chatgpt для всех, тем более агентов. Ведь всем нужен свой уникальный контекст для ответа, при этом его нужно где-то хранить и не испортить модель для других запросов, это же очень накладно. Я предполагаю, что они используют кластер chatgpt из оригинальной модели и по мере необходимости арендуют один ai из кластера для конкретного запроса и сверху каждый раз накидывают контекст для ответа на запрос? А агенты это будет оригинальная модель с сохраненным контекстом, расширенная для всех?
То что нужно перед запуском теста подготовить этот SL, в зависимости от того как написан код, SL может создавать проблемы или делать невозможным параллельное выполнение тестов.
А взять на работу в ФБР под присмотром чтобы огромные возможности использовать во благо мозгов не хватает или религия не позволяет?
Переклеивать наклейки и менять копирайты?
Пока нет подробного описания железа и ПО, где как и откуда, не поверю.
Ну как минимум приложение не связан с банком непосредственно, да и добавлять/удалять адреса там удобно, причем можно добавить адрес вообще любой и получать информацию об оплате по этому адресу.
Есть же нормальный 4 способ, оплачивать скопом с помощью приложений платосфера или квартплата плюс.
Как насчет whatsapp и т.п. приложения? Не все могут в принципе звонить и отвечать на звонки по сотовой связи.
А еще пикапы - это идеальный автомобиль для привоза всяких грузов себе на ранчо.
А кто-нибудь в курсе, интернет на Кубу уже завезли или еще нет?
Будет третий (1+2) сценарий.
По которому Греф потеряет работу, но найдет новую.
Причем потребуется не один еще Греф, в то время как Грефов и сейчас не хватает.
А если вместо писать МЗТ - прокатит?
Как-будто это что-то плохое))
Контекст разве не должен влиять на веса так, что бы модель в процессе диалога дообучалась, чтобы выдать корректный ответ с учетом контекста?
Мне не совсем понятно как они хостят chatgpt для всех, тем более агентов. Ведь всем нужен свой уникальный контекст для ответа, при этом его нужно где-то хранить и не испортить модель для других запросов, это же очень накладно. Я предполагаю, что они используют кластер chatgpt из оригинальной модели и по мере необходимости арендуют один ai из кластера для конкретного запроса и сверху каждый раз накидывают контекст для ответа на запрос? А агенты это будет оригинальная модель с сохраненным контекстом, расширенная для всех?
Одно другому не мешает)
При такой оплате они как раз собирают процент
Наоборот, в той вселенной их еще не изобрели)
То что нужно перед запуском теста подготовить этот SL, в зависимости от того как написан код, SL может создавать проблемы или делать невозможным параллельное выполнение тестов.
ServiceLocator это антипаттерн, усложняет unit-тестирование и добавляет лишнюю зависимость на конкретную реализацию DI SL
Это плохо? Как минимум интересно)
Ок, буду знать, но вместо критики, посоветуйте реально хорошего мастера с адекватными ценами и сроками.
Не реклама, если что-то с железом, то я бы отдал специалисту канала YT notebook31.