Да, согласен, это в целом хороший подход — разбивать задачи и не раздувать сессии.
Я как раз пришёл к похожему выводу: длинные диалоги быстро начинают «засоряться» и хуже работают.
В моём случае проблема была чуть в другом — хотелось сохранять и переносить уже накопленный контекст между устройствами, а не терять его при переключении.
Поэтому и появился инструмент для синхронизации.
Но как альтернатива — да, короткие сессии + явное сохранение контекста (в markdown или git) выглядит хорошей стратегией. При этом это скорее дополняет подход, чем заменяет — в моём случае как раз хотелось сохранить и переносить накопленный контекст между устройствами без ручных действий.
Sonnet 4.6 — это модель от Anthropic (Claude), а не из экосистемы OpenAI Codex. У них модели ChatGPT разных версий и ChatGPT-codex
Но поведение, которое вы описываете, в целом похоже: при очень длинных сессиях (особенно если там много контекста/кода) ответы могут заметно замедляться.
В таком случае обычно помогает:
начать новую сессию
перенести краткий контекст вручную
«Две недели по несколько часов в день» — это как раз тот случай, где контекст уже может быть очень большим.
Если разберётесь, от чего именно зависит задержка — будет интересно узнать
Похоже, это скорее про сам Codex, не про синхронизацию.
Уточните, пожалуйста, какие модели используете? Если с сильным рассуждением (reasoning), то они действительно могут отвечать заметно дольше, особенно на длинных сессиях.
Из наблюдений:
чем длиннее диалог, тем сильнее может расти время ответа
иногда помогает начать новую сессию и перенести краткий контекст
У вас примерно какой объём сессии сейчас?
Я сам с таким сильным замедлением пока не сталкивался, поэтому интересно понять, в каких условиях это проявляется. Если вдруг найдёте обсуждения или решение (например, на Reddit или профильных чатах) — будет полезно, если поделитесь здесь.
Такое ощущение, что и сама статья написана с помощью ИИ с минимальным редактированием и исходный код тоже ИИ писал активно. И по самому названию Sentinel - довольно любимое слово у ИИ в данном контексте
Коллеги, зачем вообще обсуждать новости от ДжетБрейнс, когда они из России ушли? In accordance with EU export control requirements, JetBrains is required to disable Code With Me functionality inside of its IDEs for users located in the Russian Federation and Belarus. We sincerely apologize for any inconvenience this may cause you. The functionality will be disabled on October 18, 2022, at 12:00 CEST.
Sizolution – сервис для подбора одежды подходящего размера при заказе онлайн.
Количество переходов по этой ссылке ограничено.
Пожалуйста, зайдите в ваш сервис хранения файлов напрямую,
чтобы получить доступ к файлу.
Название файла: Sizolution_teaser___tilda1136018.pdf
Кто-нибудь может подсказать, как сохранить матрицу в свой Google Drive или экспортировать в Excel? Простое копирование не помогает. Думаю распечатать в pdf, но не хотелось бы.
Да, согласен, это в целом хороший подход — разбивать задачи и не раздувать сессии.
Я как раз пришёл к похожему выводу: длинные диалоги быстро начинают «засоряться» и хуже работают.
В моём случае проблема была чуть в другом — хотелось сохранять и переносить уже накопленный контекст между устройствами, а не терять его при переключении.
Поэтому и появился инструмент для синхронизации.
Но как альтернатива — да, короткие сессии + явное сохранение контекста (в markdown или git) выглядит хорошей стратегией. При этом это скорее дополняет подход, чем заменяет — в моём случае как раз хотелось сохранить и переносить накопленный контекст между устройствами без ручных действий.
В старой сессии попроси выжимку в md файл сделать.
Похоже, вы сейчас не про Codex.
Sonnet 4.6 — это модель от Anthropic (Claude), а не из экосистемы OpenAI Codex. У них модели ChatGPT разных версий и ChatGPT-codex
Но поведение, которое вы описываете, в целом похоже: при очень длинных сессиях (особенно если там много контекста/кода) ответы могут заметно замедляться.
В таком случае обычно помогает:
начать новую сессию
перенести краткий контекст вручную
«Две недели по несколько часов в день» — это как раз тот случай, где контекст уже может быть очень большим.
Если разберётесь, от чего именно зависит задержка — будет интересно узнать
Похоже, это скорее про сам Codex, не про синхронизацию.
Уточните, пожалуйста, какие модели используете?
Если с сильным рассуждением (reasoning), то они действительно могут отвечать заметно дольше, особенно на длинных сессиях.
Из наблюдений:
чем длиннее диалог, тем сильнее может расти время ответа
иногда помогает начать новую сессию и перенести краткий контекст
У вас примерно какой объём сессии сейчас?
Я сам с таким сильным замедлением пока не сталкивался, поэтому интересно понять, в каких условиях это проявляется. Если вдруг найдёте обсуждения или решение (например, на Reddit или профильных чатах) — будет полезно, если поделитесь здесь.
Такое ощущение, что и сама статья написана с помощью ИИ с минимальным редактированием и исходный код тоже ИИ писал активно. И по самому названию Sentinel - довольно любимое слово у ИИ в данном контексте
На сколько я знаю, наш МС 21 единственный пассажирский самолёт из современных, кто смог сделать мёртвую петлю
Коллеги, зачем вообще обсуждать новости от ДжетБрейнс, когда они из России ушли?
In accordance with EU export control requirements, JetBrains is required to disable Code With Me functionality inside of its IDEs for users located in the Russian Federation and Belarus. We sincerely apologize for any inconvenience this may cause you. The functionality will be disabled on October 18, 2022, at 12:00 CEST.
А изображений на текущий момент в гитхабе то нет....
Скажите пожалуйста, а из каких почтовый серверов ещё возможна миграция?
Количество переходов по этой ссылке ограничено.
Пожалуйста, зайдите в ваш сервис хранения файлов напрямую,
чтобы получить доступ к файлу.
Название файла: Sizolution_teaser___tilda1136018.pdf
упс…