Обновить

Claude Code: маршрут обучения и полезные ресурсы (2026)

Уровень сложностиПростой
Время на прочтение3 мин
Охват и читатели19K
Всего голосов 19: ↑15 и ↓4+14
Комментарии6

Комментарии 6

благодарю, исправила 🤝

По-хорошему исходя из того что происходит необходимо выбирать модель по величине контекстного окна. Так как они все построены и обучены +- по одинаковым датасетам и по результату не особо сильно отличаются. А вот контекстное окно, включая возможность его платного расширения - это уже гораздо более существенная особенность, позволяющая "скормить" модели необходимые данные без боязни что она их "забудет" или будет с каждым новым промтом генерировать нечто другое, плюс главное - обратная связь по результатам работы внешних инструментов, ошибки компилятора, исключения и срабатывания assertion. Интересно сколько сейчас физически это окно, т. е. сколько десятков килобайт кода модель "осознаёт" и может трансформировать достоверно. По-хорошему для практически значимых проектов это должен быть хотя бы 1 МБ минимум.

Не могу согласиться, Гугл всегда кичился своим огромным контекстным окном у гемини, но по качеству моделька только сейчас подобралась к гпт/Клоду, вдобавок есть инструменты для того чтобы оптимизировать входные данные и диалог с нейронкой. А на длительном таймлайне даже это не может помочь, когда проект большой - и приходится создавать документацию чтобы ллм понимала что и где искать

Обучение вайб-кодингу?? А грейды там уже появились? Джун вайб-кодер, Сеньер вайб-кодер...

А можно нечто подобное про Google Antigravity сделать? У вас очень классная статья получилась.

Зарегистрируйтесь на Хабре, чтобы оставить комментарий

Публикации