Pull to refresh

Comments 4

благодарю, исправила 🤝

По-хорошему исходя из того что происходит необходимо выбирать модель по величине контекстного окна. Так как они все построены и обучены +- по одинаковым датасетам и по результату не особо сильно отличаются. А вот контекстное окно, включая возможность его платного расширения - это уже гораздо более существенная особенность, позволяющая "скормить" модели необходимые данные без боязни что она их "забудет" или будет с каждым новым промтом генерировать нечто другое, плюс главное - обратная связь по результатам работы внешних инструментов, ошибки компилятора, исключения и срабатывания assertion. Интересно сколько сейчас физически это окно, т. е. сколько десятков килобайт кода модель "осознаёт" и может трансформировать достоверно. По-хорошему для практически значимых проектов это должен быть хотя бы 1 МБ минимум.

Не могу согласиться, Гугл всегда кичился своим огромным контекстным окном у гемини, но по качеству моделька только сейчас подобралась к гпт/Клоду, вдобавок есть инструменты для того чтобы оптимизировать входные данные и диалог с нейронкой. А на длительном таймлайне даже это не может помочь, когда проект большой - и приходится создавать документацию чтобы ллм понимала что и где искать

Sign up to leave a comment.

Articles