Обновить

Комментарии 12

мы платим за токены

Кто платит за токены?

кожанные мешки

а какой смысл сравнивать самые современные opus 4.6, codex 5.3 и древнюю gemini 2.5? ладно 3.1 только вышел, но 3.0 уже довольно давно по меркам жизни ллм существует и значительно обходит 2.5.

за инструмент спасибо ) надо погонять его ) интересно что там и как у меня

речь скорее о специфичных эвристиках и сценарных промтах самих агентов, которые задают верхнеуровневые стратегии поведения и использования базовых инструментов, а не о самих ллм. qwen и opencode агенты, например, с одной и той же подключенной ллм ведут себя совершенно по-разному.

использую KiloCode - в нем есть эта диаграмма сразу, и можно сделать экспорт всего контекста (т.е. увидеть "сырой" запрос, все что происходит "под капотом" чата).

Интересно, что подписка на copilot не ограничивает токены, но считает запросы. https://github.com/features/copilot/plans. То есть нужно ставить задачу максимально чётко, чтоб по ходу не уточнять мелочи. Либо сперва уточнить все детали с бесплатной моделью, а потом уже "позвать взрослого"...

Да это работает, но переключение туда сюда вместо поставил задачу и забыл - раздражает.

Что работает?

Это только начало, вот когда разрабы перестанут понимать совсем, что пишут. Вот тогда ИИ хваленый поднимут ценники до небес и ниче заплатите))

Интересно, что покажет junie от jetbrains?

Интересная статья и эксперимент, с удовольствием прочитала. Спасибо.

Теперь нужно сравнить платные модели с облачными опенсурс версиями^ ^

Зарегистрируйтесь на Хабре, чтобы оставить комментарий

Публикации