Pull to refresh

Comments 7

 Главной причиной этого оказалось ограничение по объему текста, так как целиком код .cpp и .h файлов не уместился в одном ответе. 

То есть если снять это ограничение и выдать GPT подробное ТЗ, то задачу он решит?
Дальше надо чтобы он произвел отладку, тестирование и выдал готовый продукт на проверку человеком.
Так это же круто!

Это лишь одна из проблем бота, о чём автор и написал:

Следует помнить об ограничениях GPT и его текущих возможностях создания
кода для  Unreal Engine. Важно понимать, что GPT не является заменой
опыта и компетенции разработчика. Он может быть полезным инструментом,
но не всегда предоставляет исчерпывающие и точные ответы, особенно при
сложных проблемах.

Думаю, при большем усердии можно было бы добиться от ChatGPT лучших результатов, а потом переиспользовать систему промптов для других объектов. Но, в целом, я согласен, что пока контекст болтается в районе 4-16к токенов - для полноценного создания кода LLM-ки использовать не получится. Только как вспомогательный инструмент.

Возможно, авторы Copilot научатся эффективно работать с большими объемами кода в своем проекте GitHub Copilot for Your Codebase. Возможно, ML-инженеры смогут раздвинуть окно контекста у GPT без деградации способностей. Благо, есть много задач, где большой контекст или не нужен, или проблема решается эмбедингами, поэтому пока можно тренироваться на них. А потом - посмотрим.

У 4ки 32. Этого вполне хватает. Автор видимо 3,5 использовал.

Главной причиной этого оказалось ограничение по объему текста, так как целиком код .cpp и .h файлов не уместился в одном ответе.

Я могу порекомендовать поиграться с песочницей GPT-4, а не с самим чатом.
Выходит дешевле (можно закинуть всего 5$/5 евро например), выбрать максимальную длину ответа в токенах. 4 версия появляется в списке после вноса средств на баланс. Плюс доступ к API ключам, которые могут использоваться в сторонних приложениях (н. Cursor)

У меня вопрос - как влияет ограниченность GPT модели по датам? Датасет вроде бы был до 2021 года, 2 пропущенных года для движка - это же наверняка много?

Не стоит также использовать русский при общении с cgpt - крадёте у себя токены, и возможно снижаете вероятность получения правильного ответа из-за лишнего шума в семантике.

Sign up to leave a comment.