для того чтобы телеграмм пропускал файлы более 50мг нужен TelegramBotAPIServer https://github.com/tdlib/telegram-bot-api , я его как раз использую и он идет в сборке, никаких танцев с бубном не нужно чтобы им пользоваться, если говорить о коде то единственное отличие с ним и без него
по поводу того почему качаю видео а потом достаю от туда аудио – делается это потому что собирается база fileId и складывается и когда в след раз кто-то захочет скачать повторно тот же файл я достану fileId и отдам файл без скачивания самого файла, поэтому при первой загрузке делается сразу полная скачка всего.
Ничего не обходил, вся работа происходит в рамках yt-dlp. Единственное, что тут предпринято для "обхода" это http прокси, еще давно я подсчитывал 1-ого прокси хватает примерно на 300 скачиваний, потом просит ввести каптчу это единственное ограничение которое я заметил.
в докере все манипуляции с БД реализованы, нужно только собрать контейнер и все готово к работе. Go я не включал в контейнер по причине того что в докере GO под мак не использует GPU из оф. документации
"Ollama handles running the model with GPU acceleration. It provides both a simple CLI as well as a REST API for interacting with your applications.
On the Mac, please run Ollama as a standalone application outside of Docker containers as Docker Desktop does not support GPUs."
на счет «кафки», ActiveMQ - я MQ систему не изобретал, как раз эта либа работает на очередях.
И вообще, если у вас запрос «упал», то лучше разбираться почему это произошло, а не долбить в сервер n-раз. - ситуации бывают разные, бывают ситуации когда сеть моргнула в микросервисах или допустим система на другой стороне висит (я отталкиваюсь от реального кейса когда интеграция при интеграции с другой системой на их стороне висела api) в таких ситуациях библиотека помогает, тут так же можно внутри ее обработать и ситуации падения, внутри прописать сценарий логирования и увидеть проблему, не обязательно просто долбить - можно и залогировать и разобраться
микросервисная идея) мне нравится
для того чтобы телеграмм пропускал файлы более 50мг нужен TelegramBotAPIServer https://github.com/tdlib/telegram-bot-api , я его как раз использую и он идет в сборке, никаких танцев с бубном не нужно чтобы им пользоваться, если говорить о коде то единственное отличие с ним и без него
по поводу того почему качаю видео а потом достаю от туда аудио – делается это потому что собирается база fileId и складывается и когда в след раз кто-то захочет скачать повторно тот же файл я достану fileId и отдам файл без скачивания самого файла, поэтому при первой загрузке делается сразу полная скачка всего.
есть бесплатные, есть платные, в моем случае я их покупаю и для работы достаточно v6 прокси.
Ничего не обходил, вся работа происходит в рамках yt-dlp. Единственное, что тут предпринято для "обхода" это http прокси, еще давно я подсчитывал 1-ого прокси хватает примерно на 300 скачиваний, потом просит ввести каптчу это единственное ограничение которое я заметил.
увидел, исправил.
в докере все манипуляции с БД реализованы, нужно только собрать контейнер и все готово к работе. Go я не включал в контейнер по причине того что в докере GO под мак не использует GPU из оф. документации
"Ollama handles running the model with GPU acceleration. It provides both a simple CLI as well as a REST API for interacting with your applications.
On the Mac, please run Ollama as a standalone application outside of Docker containers as Docker Desktop does not support GPUs."
там такая схема, делается запрос в БД,
в retrievedDocs релевантные данные из БД и они потом прокидываются в запрос в ИИ как контекст
ранее я не знал про данный паттерн, но вы правы она реализует его по сути.
на счет «кафки», ActiveMQ - я MQ систему не изобретал, как раз эта либа работает на очередях.
И вообще, если у вас запрос «упал», то лучше разбираться почему это произошло, а не долбить в сервер n-раз. - ситуации бывают разные, бывают ситуации когда сеть моргнула в микросервисах или допустим система на другой стороне висит (я отталкиваюсь от реального кейса когда интеграция при интеграции с другой системой на их стороне висела api) в таких ситуациях библиотека помогает, тут так же можно внутри ее обработать и ситуации падения, внутри прописать сценарий логирования и увидеть проблему, не обязательно просто долбить - можно и залогировать и разобраться