Комментарии 15
Диспозить client в "фасаде" не нужно.
Почему?
using уже указан для него
общепринятый дизайн
Спасибо за внимательность. Да, using можно было не писать. Поправил.
А почему Ollama ? Я тоже делал, только без Microsoft.Extensions.AI. Подключался по API.
Мне не хватало удобного перемещения по вопрос-ответ, и сделал простенькую форму и кнопки вверх-вниз для быстрого перемещения по чату. Но получается что это обертка над оберткой. И попробовал использовать LLamaSharp, что оказалось очень удобным.
Кстати в Ollama можно легко грузить модельки с huggingface.co
Правильно ли я понял, что возможности модели ограничены лишь способностями разработчика? Т.е. я могу научить модель работать с информацией, находящейся в файлах word и excel, например? Количество токенов на входе и выходе будет зависеть только от железа или не только или вообще не от железа? Заранее благодарю за ответы.
Можно вообще обойтись без Ollama: https://habr.com/ru/articles/914392/.
С windows и linux все просто, а вот с android... Так ещё что бы сторонние приложения получали доступ, это уже сложнее. Весь хабр уже перечитал.
Посоветуйте какую модель попробовать для AMD Phenom II X4 965 + DDR3-12Gb. Что бы отвечала в пределах 1 минуты примерно...
Разворачиваем локально ИИ при помощи клиента Microsoft.Extensions.AI и Ollama