Comments 10
За это прямо МЕГА РЕСПЕКТ!!!) Сейчас пустил в интернеты GPT oss 120b. Шуршит китинка там))))
Подсунул ей проект с гитхаба, она объяснила (туповато) что проект делает и показала его код.
Для "домашнего использования" я нашел два варианта: поисковик duckduckgo
Для поиска использую локальный контейнер с метапоиском - SearXNG
Своим инстансом можно пользоваться по SearchAPI. Тут можно найти список публичных серверов - https://searx.space/
Идеально. А вот такой момент. Мне с сайта надо данные забирать а там капча. как это можно реализовать? можно ли вернуть капчу узнасть что на ней и вернуться к сайту. или придется еще вторую модель ии в лм держать и у нее спрашивать что там в капче изображено.
с# но так хорошо разжевано. Но скомпилировать и как работать с С# в visual studio code я попросил ИИ. Все работает. но скажите вот ии скомпилировало
""
Проект успешно скомпилирован! Процесс занял около 4 минуты (234 секунды). Компиляция завершилась с созданием исполняемого файла по пути:
bin\Debug\net8.0\win-x64\SampleMcpServer.dll
Однако есть 34 предупреждения, которые рекомендуется исправить для улучшения качества кода:
Основные типы предупреждений:
CS8618 - Свойства не допускающие NULL должны быть инициализированы в конструкторе
CS8602 - Разыменование вероятной пустой ссылки
CS8604 - Возможно передача аргумента-ссылки, допускающего значение NULL
CS0168 - Переменные объявлены, но не используются
Task Completed
C# проект SampleMcpServer успешно скомпилирован. Исполняемый файл создан в bin\Debug\net8.0\win-x64\SampleMcpServer.dll. Компиляция завершилась с 34 предупреждениями, которые не препятствуют запуску приложения, но рекомендуются к исправлению для улучшения качества кода.
"" на сколько предупреждения кретичны? или не парится
А вот как раз насчет RAGTools... эмбеддинг модель выглядит по другому. Может поэтому в итоге файл то видит, но начинает писать про бин-содержимое и далее по списку, т.е. не разбирает файл...


Ваша модель запустила read_file - это чтение текстовых файлов. Снимите напротив этой функции галку что бы ее игнорировать. Должна вызываться rag_search.
Статья обзорная, все функции в одну кучу, для примера.
В одном mcp сервере две похожие с точки зрения модели функции read_file и rag_search. Возможно стОит в описании функции read_file (FileOperationsTools.cs, ReadFile) заменить или дополнить описание: вместо "Read file from the specified path." написать "Read text file from the specified path." и тогда модель не будет путаться при выборе нужной тулзы.
А как использовать связку модель и mcp из lm studio снаружи (в своем чате) или запрос делать в Lm studio но чтоб он использовал mcp server?
Если вы хотите использовать LM Studio как сервер, то в любой доступной web оболочке умеющей общаться с LM Studio через OpenAI API (например в этом проекте один файл index.html: https://github.com/YorkieDev/LMStudioWebUI) указываете подключение к вашему LM Studio и готово.
Где посмотреть строку подключения:

В Web оболочке указываем адрес и общаемся:

Но LM Studio использует mcp-server только в своем интерфейсе. Он доступен для внешнего ПО как сервер моделей, без mcp функционала.
Вам нужен такой клиент, который умеет использовать mcp серверы.
Открываем RAG и интернет для LM Studio