Контекст до млн. Все работает. "Но есть нюанс" - чем больше вы работаете в рамках одного диалога, тем больше возникает путаница. Причем и как до 500к - если было множество маленьких взаимодействий и особенно, если меняли темы, так и после, даже если самих итераций было мало.
Что я заметил и что помогает мне:
Четко следовать теме - 1 "проблема" (то есть даже например разработка 1 функции в одном файле) - 1 диалог.
После того, как тема решена - просить составить описание проекта, файлов, их взаимосвязи, текущее состояние, глобальную цель и дальнейшие шаги. Это позволяет относительно "безболезненно" начинать новый диалог.
Имейте ввиду, что модель может выдумывать версии библиотек, методов и т.д. - по возможности прикладывайте документацию, а еще лучше спрашивайте периодически "Какие файлы тебе нужны" - часто можно обойтись 1-2 файлами с гитхаба и модель здорово решает вопрос, на котором ходила кругами.
Если "ходите кругами" - иногда новый диалог помогает. Еще заметил что запрос в ЧатГПТ 03 - его краткий ответ часто решает проблему замкнутого круга. Просто потом пересылаешь это обратно в ГуглСтудио и продлолжаешь. (Осознанно, а не просто копировать)
Модель может больше верить комментариям, чем коду!
По возможности разбить код на блоки и заменять и просить выводить только блоки (так быстрее и меньше путаницы)
Очень хорошо помогает посте постановки задачи и приложения файлов попросить сеть сперва написать как и что она поняла и что будет делать. Помогает отсеять ошибки мышления уже в начале и "не утонуть".
Ну и последнее - это логи - нужно больше логов хороших и разных.! Это в разы облегчает работу.
Вот такие мои наблюдения. П.с. я не проф. программист - скорее хобби и пет проекты, но может кому поможет.
Интересная статья. Расскажите, вы все 2 870 "токенов" используете? Если да, то каким алгоритмом пользуетесь для поиска возможностей?
Интересно что с API? Сколько запросов и как часто? Это платно или нет?
В целом, какая цель сканера?
Спасибо.
Контекст до млн. Все работает. "Но есть нюанс" - чем больше вы работаете в рамках одного диалога, тем больше возникает путаница. Причем и как до 500к - если было множество маленьких взаимодействий и особенно, если меняли темы, так и после, даже если самих итераций было мало.
Что я заметил и что помогает мне:
Четко следовать теме - 1 "проблема" (то есть даже например разработка 1 функции в одном файле) - 1 диалог.
После того, как тема решена - просить составить описание проекта, файлов, их взаимосвязи, текущее состояние, глобальную цель и дальнейшие шаги.
Это позволяет относительно "безболезненно" начинать новый диалог.
Имейте ввиду, что модель может выдумывать версии библиотек, методов и т.д. - по возможности прикладывайте документацию, а еще лучше спрашивайте периодически "Какие файлы тебе нужны" - часто можно обойтись 1-2 файлами с гитхаба и модель здорово решает вопрос, на котором ходила кругами.
Если "ходите кругами" - иногда новый диалог помогает.
Еще заметил что запрос в ЧатГПТ 03 - его краткий ответ часто решает проблему замкнутого круга. Просто потом пересылаешь это обратно в ГуглСтудио и продлолжаешь. (Осознанно, а не просто копировать)
Модель может больше верить комментариям, чем коду!
По возможности разбить код на блоки и заменять и просить выводить только блоки (так быстрее и меньше путаницы)
Очень хорошо помогает посте постановки задачи и приложения файлов попросить сеть сперва написать как и что она поняла и что будет делать. Помогает отсеять ошибки мышления уже в начале и "не утонуть".
Ну и последнее - это логи - нужно больше логов хороших и разных.! Это в разы облегчает работу.
Вот такие мои наблюдения. П.с. я не проф. программист - скорее хобби и пет проекты, но может кому поможет.