
Комментарии 7
Не уловил, обращение к gemini-2.5-flash через API?
Веса модели не публиковались - так что вроде без вариантов.
Да, через API (https://generativelanguage.googleapis.com/v1beta/openai/). Локальную модель для рассуждений тоже можно затащить в проект, но нужно железо соответствующее.
Интересное решение, спасибо. Сколько времени заняла разработка?
Хороший пример пилотного проекта интеграции чат-бота с конкретной базой данных. По скринкасту пользователь ведёт диалог через клавиатуру набирая текст своего вопроса и получает ответ или уточняющий вопрос в текстовом виде. Вероятно возможен и аудио-формат диалога (телефонный) с выкладываем ботом при необходимости сопутствующей видео-информации. В приведенном примере магазина кроссовок приложению проще и короче в табличном виде предложить (запросить) у пользователя интересующие кроссовки с конкретными свойствами, отмечая их галочками (возможно и в несколько уточняющие шагов) и программно для этих условий сформировать текст(ы) соответствующих select-запроса(запросов) выдавая информацию в привычном табличном виде с комментарием этого же чат-бота.
Да, вы правы - всё так. Взаимодействие не стал усложнять(н-р по типу того, что вы описали) т.к. главная задача была показать, что ИИ-агент в принципе может правильно использовать инструменты. Усложнение же взаимодействия требует и более крупной доработки ТГ-бота, ну и вероятно самого агента. В следующий раз попробую сделать более продакшт-ориентированного агента.
Создание собственного ИИ-агента с RAG, SQL-базой и поиском в Интернет