Обновить
9
18.8
Даниил Охлопков@ohld

CTO, Data Lead

Отправить сообщение

Глупцы, прозрейте!

AI это будущее

Один раз подсядешь, не сможешь остановиться.

Если AI раз за разом делает что-то не так, значит, его неправильно настроили) посмотрите, что на вход подается в качестве контекста.

При этом (на январь 2026) если использовать Claude Code с моделью Opus 4.5, то он по умолчанию очень хорошо с этим работает. Если только конечно пользователь не установил кучу ненужных плагинов, MCP, скилов, которые засоряют контекст ненужными для задачи данными. Ну и начинать новый чат всегда нужно не забывать. А остальное -- дело практики :)

попробуйте) потратьте 1520 рублей на собственное образование -- не пожалеете!

Я раньше пользовался исключительно ChatGPT Codex - мне нравилось, что он разворачивает мой код у себя на серверах, тестит и запускает, а на выходе кидает PR.

Но после перехода на Claude Code CLI, который все делает локально, мне стало гораздо удобнее: он работает в разы быстрее.

Конечно у кодекса тоже есть CLI, но я пока доволен CC.

Либо асики для трансформеров выйдут в массы и микро-ллм будут крутиться прямо на ноутах / телефонах. Для голосового ассистента, например, много не надо.

какой был запрос у человека выше)

я всегда за то, чтобы заплатить за передовые технологии и не тратить время на развертку всего локально ради прайваси.

главное -- что это работает в твоем кейсе.

Если что, много MCP могут тоже выедать контекст модели. Советую периодически чекать /context в CC.

Когда пересаживаются с велосипеда на автомобильно, не у многих получается сразу кататься.

клод код просто работает без танцев с бубном, с SOTA моделью и полезными тулами для жизни из коробки. Конечно можно все опенсорс локально настроить, но сколько это займет доп часов?

Я бы тоже так думал, если не встречал фулл тайм разработчиков + ярых противников CC, которые рискнули попробовать сами его в конце 2025 и быстро переобулись.

Я пока что очень скептически отношусь к библиотекам для агентов, которые выстраивают работу с ним (например, как gastown). Это какой-то умный чел написал свою систему промптов, организацию файлов и спеков и говорит, что она умнее, чем Claude Code из коробки.

Мне все-таки пока что гораздо интереснее пробовать понимать, какую инновацию они привнесли -- и добавить это в свой проект. Тащить за собой большой обвес чужих промптов, которые многие даже не читают, чтобы уменьшать свободный контекст модели, мне лично не очень хочется.

Если AI выдал не то, что ты захотел, значит, ты в контекст добавил слишком много лишнего или не добавил нужного. Полезно иногда вбивать /context и ревьюить, что же там происходит на самом деле.

В добавок могу посоветовать посмотреть сериалы про WeWork или Uber -- там конечно не совсем правдивая история показана, но принцип больших венчурных историй станет понятен. Они жгут инвесторские деньги, а мы, обычные потребители, кайфуем за их счет (пока что).

Опенсорс модели, асики под ллм трансформеры и тп тоже кайфуют. Все в плюсе. VC гемблят на то, кто станет монополистом. Щепки летят во все стороны -- и это прекрасно.

Прикол именно Opus 4.5 в том, что ему все меньше нужно "разбивать до строчек". Он уже прогает лучше, чем мы все. Чтобы убедиться в этом, достаточно попробовать и научиться с ним работать.

Я думаю, самый легкий способ приблизиться к качеству Опуса 4.5 можно просто подождав годик, когда выйдет очередная опенсорс модель, обученная на миллионах логов общения с опусом + самый лучший обвес в виде генерации спеков, планирования и тп.

Но за этот год сама индустрия уже сделает шаг дальше -- и пока что эти шаги все еще большие, а не как обновления последних iPhone или iOS.

Мне это хочется видеть в таком ключе:
Раньше люди пололи грядки руками, а теперь появились машины, которые делают это за нас и которыми мы управляем.

Раньше мы прогали руками, а теперь управляем целым паровозом, чьи возможности мы все еще только изучаем.

Как раз про умную работу с контекстом написан целый параграф в статье -- про создание спецификаций -- много маленьких deeply cross-linked .md файлов. Личная дока, которая по факту занимает гораздо меньше контекста, а из-за линковки ллм читает только нужные файлы для текущей задачи, оставляя больше места в контексте под полезную работу.

Claude Code -- это инструмент работы с файлами на компьютере. Код -- это только частный случай файла. Он отлично читает, например, текстовые файлы, я его использую как second brain (посмотри референсы выше в комментах).

SQL генерится с нуля очень хорошо. Если он где-то ошибся, это значит ты не до конца объяснил, покажи, как надо было, и попроси запомнить. За несколько итераций можно сделать норм писателя SQL.

Анализ данных и генерация гипотез тоже теперь автоматизирована: даешь возможность исполнять эти самые SQL, он читает данные, делает выводы. Попроси сгенерить html страничку с рисерчем и графиками. Если результат не нравится -- это уже skill issue, который решается практикой работы с AI. Это на порядок быстрее, чем самому руками это делать.

Очень надеюсь, что при этом у LLM Operators, после увольнения кадров, зп все-таки повысится, а не останется такой же. Хотя есть у меня в этом сомнения.

Всегда лучше сделать, чем не сделать. Удачи!

Могу посоветовать только поизучать похожие проекты, например: https://github.com/steveyegge/gastown

Вы хотите на мой код посмотреть? Боюсь, это уже не актуально: я сам на него не смотрел.

Сгенерите свой :)

Информация

В рейтинге
380-й
Зарегистрирован
Активность