Gemini ➜ OpenAI API прокси. Serverless
Демо
Зачем
API Gemini бесплатен, но существует множество инструментов, которые работают исключительно с API OpenAI.
Проект openai-gemini позволяет с лёгкостью создать персональный Gemini API-endpoint, совместимый с OpenAI, бесплатно.
Serverless?
Хотя прокси и работает в облаке, для его функционирования не требуется обслуживание сервера.
Его легко развернуть у различных провайдеров бесплатно (с некоторыми довольно щедрыми ограничениями, более чем подходящими для личного использования).
Локальный запуск прокси также возможен, хотя такой вариант удобен скорее для разработки.
С чего начать
Вам понадобится персональный ключ Google API.
Даже если вы находитесь за пределами поддерживаемых регионов, всё равно можно получить его при помощи VPN.
Разверните проект на одном из провайдеров по инструкциям, которые приведены на странице проекта. Проще всего воспользоваться готовыми кнопками [ Deploy ... ], но приведены и другие варианты.
Доступен выбор из нескольких провайдеров: Vercel, Netlify, Cloudflare, Deno.
За пределами поддерживаемых регионов следует предпочесть Vercel. Будет работать и Netlify (кроме edge), но в таком случае следует учесть его ограничение на время выполнения запроса — 10 секунд, чего в некоторых случаях может оказаться недостаточно.
Возможно также локальное использование прокси — через Node, Deno, Bun.
Как пользоваться
Если вы откроете ваш только что созданный прокси в браузере, вы увидите только сообщение 404 Not Found
. Это ожидаемо, поскольку API не предназначен для прямого доступа через браузер.
Чтобы использовать его, необходимо ввести адрес вашего API и ключ API Gemini в настройках программного обеспечения, которое предполагается использовать.
Не все программы позволяют задать нестандартный адрес OpenAI API, но очень многие позволяют (хотя эти настройки иногда могут быть глубоко спрятаны).
Как правило требуется указывать базу API в таком формате: https://my-super-proxy.vercel.app/v1
Соответствующее поле может быть обозначено как “OpenAI proxy
”.
Возможно, вам придётся поискать в разделе “Advanced settings
” или аналогичном. Или в каком-то конфиг-файле (стоит поискать подробности в документации).
Для некоторых утилит командной строки может понадобиться задать переменную окружения, например:
OPENAI_BASE_URL="https://my-super-proxy.vercel.app/v1"
..или:
OPENAI_API_BASE="https://my-super-proxy.vercel.app/v1"
Модели
В запросах используется указанная модель, если её имя начинается с "gemini-", "gemma-", "learnlm-" или "models/".
В противном случае применяются следующие значения по умолчанию:
chat/completions
:gemini-2.0-flash
embeddings
:text-embedding-004
Если возникнут какие-либо вопросы — с радостью отвечу в комментариях.
Приятного использования!
P.S.
Аналогичный проект: GitHub Copilot ➜ OpenAI API прокси. Serverless