Даже если предположить, что LLM превратятся в системы, которые смогут ответить на любой заданный вопрос, то на человеке всё равно остается первая часть этой задачи - задать вопрос, а правильный вопрос - это, как известно, уже половина ответа. Так что на человеке всё равно остается критически важная половина работы.
Гугл предоставляет и OpenAI совместимый интерфейс, можно код писать используя OpenAI клиент и потом уже направлять куда угодно, включая локальные модели
Ну вроде бы никто и не утверждал что революция докера заключается в какой-то хитрой изоляции процессов - для этого он полагается на функции операционной системы.
Революция ведь заключается в том что они сделали удобный стандарт для образов и их создания.
Даже если предположить, что LLM превратятся в системы, которые смогут ответить на любой заданный вопрос, то на человеке всё равно остается первая часть этой задачи - задать вопрос, а правильный вопрос - это, как известно, уже половина ответа. Так что на человеке всё равно остается критически важная половина работы.
достаточно устаревшая статья вроде бы
сейчас это уже встроенная функциональность: https://docs.github.com/en/copilot/customizing-copilot/adding-repository-custom-instructions-for-github-copilot
если коротко, то все дополнительные инструкции можно записать в .github/copilot-instructions.md
Гугл предоставляет и OpenAI совместимый интерфейс, можно код писать используя OpenAI клиент и потом уже направлять куда угодно, включая локальные модели
Ну вроде бы никто и не утверждал что революция докера заключается в какой-то хитрой изоляции процессов - для этого он полагается на функции операционной системы.
Революция ведь заключается в том что они сделали удобный стандарт для образов и их создания.