Search
Write a publication
Pull to refresh

Comments 162

Вы ещё не поняли, что работаете на закрытые корпоративные платформы тестеровщиками?И как только тестирование закончится тарифы сразу же поменяются... Но в разработку открытих инициатив почти ни кто не чешется.

на крайний случай можно будет развернуть kimi или deepseek и через ollama подрубиться в cline и использовать это в обход тарифов всех платформ. В итоге это будет без корпоративных платформ, как вы сказали. Но это геморрно, поэтому это и крайний случай. А так, лично мне и моей команде это сильно помогает в тестах, документации, простых фичах, проектировании, багфиксинге и так далее

Хотя, безусловно, они косячат и пока разработчиков не заменят, особенно когда речь идёт про сложные функции

Kimi или deepseek локально - нужно оперативы с пол-терабайта как минимум. Да и скорость работы будет очень "не очень". Вариант может и рабочий, но не сильно масштабируемый локально.

поэтому я и написал, что это крайний случай. Но у меня в канале как раз про такое человек в комментариях спрашивал, поэтому кому-то это видимо уже сейчас нужно

Да и на хабре уже неоднократно писали, так что рецепт известен - AMD EPYC 7002 + 512Gb DDR4 дает около 3-4 т/сек для deepseek в Q4 кванте, если не ошибаюсь.
Добавить RTX 3090 - будет быстрее процентов на 50.

Kimi v2, судя по всему, даст схожие цифры, может чуть быстрее даже - активных параметров у нее 32b вместо 37b у deepseek. Но и в 512Gb Kimi v2 Q4 не влезает уже...

И стоит это порядка 250к на вторичном рынке.

Для полноценной работы этого маловато будет, даже если экстремально малые кванты использовать (что еще может ускорить раза в 1.5, но и качество ниже, а главное - есть тесты, что ответы объемнее становятся, так что ждать приходится даже дольше, см https://habr.com/ru/articles/919452/).

Альтернативный вариант (если бюджет позволяет) - смотреть на Mac Studio M3 Ultra на 512Gb, будет шустрее раза в 2-3 (но и дороже раза в 4-5).

А если взять RTX PRO 6000 92GB? Да, дорого, но и шустро.

Нужно чтобы вся модель влезала в VRAM (и под кеши оставалось место) - тогда будет быстро. Для deepseek надо 5-6 таких карт (навскидку, скорее даже больше) - что сильно небюджетно получится.

По цене одной RTX PRO 6000 как раз примерно выходит Mac Studio M3 Ultra на 512Gb - так что я бы Mac Studio предпочел (для личного использования).

Если сравнивать пропускную способность памяти (где узкое место в выводе), то у Mac Studio она где-то в два раза ниже - так что RTX PRO 6000 не сказать что на порядок лучше будет. Но Mac Studio выйдет на порядок дешевле (или около того).

Если речь о корпоративном использовании на много пользователей (и в пакетном режиме) - то 512Gb памяти не хватит, скорее всего. Так что в пачке RTX PRO 6000, возможно, и есть резон - но я не копал в этом направлении. Так что это оценка очень "на вскидку".

MACUltra не юзабельно - будут те же 3tok/s. Единственный юзабельный вариант 2TB DDR5 Ram+4(8)H200 по 10-25$ в час

Откуда такие цифры?
Тесты показывают 18 ток/сек для deepseek-r1 в q4-кванте.

Это когда его обзорщик на ютубе спрашивает "hi" и радостно смотрит на вывод lm studio в 18t/s, а когда ему скармливают в контекст пару сотен тыщ знаков из кода и задают вопрос - там наступает глобальный ой, на реддите уже несколько тредов попадалось на эту тему

18t/s вполне соответствует пропускной способности памяти в 819 ГБ/с.
Глобальный "ой" - просто по тому, что 512ГБ мало для длинного контекста (хотя со свапом MoE-модели работают относительно быстро, насколько я видел, но как раз pp и страдал).

И опять же, любитель запросов "hi" показал, что маки хорошо кластеризируются. Так что пара Mac Studio M3 Ultra на 512Gb должна решить и эту проблему.

В любом случае, Mac Studio M3 Ultra на 512Gb - это то, лучшее, на мой взгляд, что можно купить за более-менее адекватные деньги для локальной работы с deepseek с адекватной скоростью.

Да, это не идеальный вариант, маловато памяти для действительно больших моделей. Да и стоимость очень высока. Но альтернативные варианты какие есть?

А расскажите где её взять? А то у меня сложилось впечатление что она существует лишь на обзорах ютуба. Любая попытка дойти до реального продавца упирается в "через 2-3 месяца привезем", причем эти 2-3 месяца постепенно также и сдвигаются..

PS. Соврал немного, еще в облаках иногда встречается, но это тоже не очень про "взять"

У меня RTX 4090 + Jetbrains Rider/Clion + LMStudio/Ollama + devstral. Работает локально, быстро, но по качеству конечно не сравнится с "большими" моделями. Но лично мне хватает, я использую нейросети чисто для помощи(аля stackoverflow) при затыках.

По моему опыту - devstral неплох, но у него проблемы с пониманием русского языка.
Лично мой фаворит - Qwen3-30B-A3B с /no_think. Очень быстро работает даже на CPU, с русским проблем нет, по качеству если и уступает, то совсем немного.

Иногда сравниваю один и тот же запрос на Qwen3 / devstral / deepseek (v3, иногда и r1 подключаю).
И в большинстве случаев - или все проваливались в моем вопросе, или Qwen3 справлялся неплохо. Было достаточно немного ситуаций, где Qwen3 провалился, а deepseek справился.

Devstral обычно именно на понимании языка заваливается - сделает как надо, но какой-то нюанс упорно не хочет понимать и делает по своему. Свежайший пример - попросил накидать bash-скрипт - справился отлично (лучше чем qwen3, к слову). Но не смог убрать комментарии из скрипта, когда его об этом попросили.

MCP сервер, что бы rider файлики проекта/выделенный текст/схемы бд в контекст запроса подгружал сами писали или уже готовые появились?

Так есть дистиляты, которые не сильно хуже по качеству но и в 48гб озу влезают и даже в 12vram. Я с такими и работаю на связке idea + continue + ollama и в качестве помошника они отлично справляются. Правда сам continue как будто вайбкодерами написан (как кстати большая часть новомодных ai инструментов, которые кривые косые) и безбожно глючный, замену бы ему.

Да, есть модели попроще, кто же спорит.
Лично я использую Qwen3-30B-A3B на CPU - и доволен результатами.

Ну а что "дистиляты не сильно уступают" - уступают и заметно. Это просто еще один вариант модели определенной размерности, сравнивать ее надо с моделями этой же размерности.

Неправильно выразился. Я имел ввиду, скорее что падение качества с дистилятами не линейное, и есть ощущение, что "достаточное качество" наступает уже где-то на уровне 48b моделей. И не обязательно сразу упарываться в полную модель, можно постепенно докупая железо остановиться на устраивающем уровне.

Как с принципом паретто - если 20% модели дают 80% результата, то может те оставшиеся 20% результата и нафиг не нужны)

А какие есть модели на 48b? 32, потом 70, 48 не знаю, тем более заточенных под кодинг.

В целом, по ощущениям, 32b отстают от лидеров (claude/gemini/openai) примерно на год.

90 процентов проектов по ai оставляют впечатление что созданы вайбкодингом. PoC, часто устаревшие, написанные без понимания как писать правильно (для использования) а не просто как демонстрашку... API тоже меняется быстро.

Сейчас прохожу huggingface курсы, voice agent API - запускаю демо проект - работает, запускаю рекомендацию из readme проекта с компиляцией модели - падает. Начинаю копаться в питоне (в котором новичок) - нахожу баг, смотрю в проекте - он висит с декабря 2024. Сел, покопался, исправил, написал коммент в тикете, приложил патч (кривоватый но рабочий, там еще одну библиотеку надо пропатчить). Нет ребята, качество низкое. LM Studio, Ollama, LangChain - нормально, но почти вся мелочь это минное поле.

Как вариант:Roocode(ну или Cline) + Deepseek R1-0528/V3 Free (1k запросов бесплатно в день с Openrouter'а. Я помню что там по умолчанию 50 запросов бесплатно, читайте внимательно условия) либо + Featherless AI план за 25 USD в меся(там R1-0528 есть но при этом - жестко лимит на 1 одновременный запрос дипсика и прочих тяжелых моделей, если что-то 7-13B то больше, и у того дисика - 32K лимит контекста).

Ну и по желанию - через Docker ставим LibreChat c LiteLLM и прочим и цепляем Roocode через него. Имеем ChatGPT-style +интерфейс + логгирование/повторы запросов и прочее.

Если надо Android - ProxyAI / AI Coding

Если надо совсем свое - думаем как поднять Deepseek на своем (хоть в каком то смысле) железе или идем на Qwen3 хоть. "Свое" железо - может быть и Runpod например (есть там serverless интерфейс, с очень быстрым (секунды) запуском пода и посекундной тарификаций, другое дело что с single-user режиме - мне кажется дешевле будет хоть openrouter хоть requesty хоть vsegpt/proxyapi).

Открытых инициатив достаточно. Открытые LLM, открытые агенты - чего именно не хватает?
Да, в чем-то хуже по качеству, не столь отточено работают. Но и сфера достаточно свежая, конкуренции хватает. Так что не вижу недостатка в открытых инициативах.

А где вы возьмёте 5000 GPU чтобы запускать открытую модель?

даже дистиляты с нормальной скоростью на обычном компе не работают, контекстное окно нужно на размещать на GPU

Смотря какую модель. Для большинства из них хватит и пары стареньких карточек на 24Gb vRAM, типа RTX3090. Если хочется запустить "топовую" модель, тогда извольте платить соответственно.

как только тестирование закончится тарифы сразу же поменяются

Как вам скажет любой дилер, «первая доза — бесплатно!»

Как вам скажет любой дилер, «первая доза — бесплатно!»

Подскажите, где такие щедрые автомобильные дилеры водятся.

Если бы все ТО стоило как сам авто я думаю подобные предложения бы были :)

В любом приличном автосалоне, конечно же. «Тест‑драйв» называется.

Ну слушай, я конечно не на стороне вайбкодеров. Но этот тезис такой себе. У меня нет цели разрабатывать какие-то открытые инициативы. Моя цель сделать нужный МНЕ проект. Если какая-то платформа временно предлагает что-то, что может помочь мне сделать мой проект (пусть даже на условиях бета-теста) - я буду ее использовать.

Ну и собственно базовое - Иди чеши делать свои открытые инициативы. А, что ? Компетентность не позволяет? Нет финансирования? Личные проблемы? Занятость? Принципиальная сложность илм невозможность осуществить задуманное с которой надо что-то делать? Ну так мой дорогой у всех так, никто не обязан тебе воплощать твои хотелки, ценой своих интересов.

допустим, ты не видишь построчно, что поменялось, и не можешь в каждом файле откатывать изменения, как в Cursor

Я использую такой способ даже с запросами из Курсора:

  1. включаю правила на примение всех изменений и запрещаю Клоду трогать комманды гит (это можно один раз в правила прописать)

  2. добавляю все файлы в staging перед запросом Интерфейс просмотра изменений через гит-лесс мне тупо больше нравится, в сравнение с курсоровским.

2025й год - разработчики разучились писать код самостоятельно.

1975й год - разработчики разучились писать в машинных кодах
2000й год - разработчики разучились писать на ассемблере

3000й год до нашей эры - люди разучились выполнять арифметику в уме и начали использовать счеты

люди уже давно разучились считать в уме.

я сам в студенческие годы считал чеки в магазинах на автомате, сейчас так не могу.
мешает ли это мне? да нисколько

люди разучились выполнять арифметику в уме и начали использовать счеты

Проблема в том, что у тому времени они забыли, как использовать счёты

Есть, однако, одна небольшая, но существенная разница. Разработчики разучились писать на низком уровне в массе своей, потому что они могли писать на языках высокого уровня, но все тулзы для этого не могли быть отключены по щелчку пальца. Невозможно представить ситуацию, что Керниган с Ричи вдруг заявят "Так, ребят, вы тут все теперь на Си пишете, а ну заносите нам бабла", и для пущего эффекта отключат всем компиляторы языка Си.

Видимо вы или забыли историю или не знаете её. До того как появились ПК - активно использовались мейнфреймы и терминалы. Дома у человека стоял терминал через который через телефонную сеть он подключался к мейнфрейму и программировал. А уже позже появились непосредственно ПК.

Уже сейчас есть решения (дорогие) которые вам тот-же полный deepseek позволяют гонять локально (m3 ultra). В будущем будет больше возможностей чтобы гонять локально LLM-ы.

Уже сейчас есть решения (дорогие) которые вам тот-же полный deepseek позволяют гонять локально (m3 ultra). В будущем будет больше возможностей чтобы гонять локально LLM-ы.

Не думаю, что эти возможности будут сильно дешевле - просто потому, что нужен очень мощный комп для этого (по памяти, по пропускной способности памяти, по вычислительной мощности), и принципиально этот момент меняться не будет. Это базовые ценности для ПК, которые в таких объемах нужны в очень специфичных случаях (если не брать LLM).

Другое дело, что развитие LLM идет вперед, появляются новые алгоритмы, подходы и т.д. Появятся открытые модели, который лучше заточены под конкретную задачу - и они хорошо будут ее решать на относительно слабых ПК.

Не думаю, что эти возможности будут сильно дешевле

Ну у apple как-то получилось 512 гигов unified памяти сделать сильно дешевле чем у той-же nvidia видеокарты с таким числом памяти? Может и другие тоже подтянутся.

Да собственно уже появляются - вспомнить тот же AMD Ryzen AI Max+ 395 - устройство с 128 Gb быстрой RAM стоит около $2000. Может deepseek и не запустить, но что-нибудь попроще - вполне себе.
Nvidia собирается выпустить что-то с похожими характеристиками и специально под LLM (правда в 2 раза дороже).
Так что да, устройств будет больше. Но это явно не самые бюджетные решения.

мейнфреймы и терминалы. Дома у человека стоял терминал

Дома?! Только если у очень непростого человека, да и то сомнительно.

Именно что дома. До появления ПК у профессоров университетов, у разработчиков работающих на крупные компании и тд были домашние терминалы, подключались к мейнфреймам через телефонную линию. Понятное дело не массово.

40025 год - техножрецы поклоняются духу машины, совершая ритуалы эпохи темной эры технологий, смысл которых утерялся во времени.

Дык уже: бессмысленно засовывают докер, ООП, ORM и ещё кучу всего куды ни попадя

В такой аналогии есть смысл, но всё-таки есть большая разница между компилятором с высокоуровневого языка (сколь угодно высокоуровневого, хоть пролог, хоть хаскель) и LLM как транслятором с "человеческого" языка на ЯВУ. С компилятором ЯВУ вы хотя в деталях и не контролируете машинный код, который будет сгенерирован, но точно знаете, что сгенерированный машинный код делает в точности то что вы описали на ЯВУ (исключения — баги компилятора, которые в последние 30-40 лет большая редкость, или UB в C++, над которым смеются не хуже чем над вайб-кодерами). LLM как транслятор... ну, можно встретить единичные истории, как 60+ лет назад люди писали на фортране, а потом перепроверяли ассемблерный выхлоп, "потому что мало ли что".

Ну подождите, "мало ли что" у ИИ тоже рано или поздно починят

Подождать-то подождём, чего не подождать. Только мне кажется не починят, т.к. ИИ подражает не компилятору, а наоборот, человеку. А для человека ошибки скорее норма, чем исключение. Но да, подождём, посмотрим.

Большие надежды у меня на специализированные смешанные системы. Т.е. например берёте разворачиваете локальную LLM в вашей инфраструктуре, пишете скрипты-обвязки вокруг LLM (ну наверное потом и коммерческие продукты будут с такой обвязкой), и потом LLM вам не просто пишет код; она же его вашим же сборочным скриптом компилирует, читает сообщения об ошибках, правит их, потом запускает это всё на вашем дженкинсе, читает сообщения об ошибках в тестах, правит код... И да, ещё чтобы под это не приходилось отдельное здание датацентра со своей электростанцией строить. Ждём :)

забавно, но именно такое уже существует) то что вы описали это тренд вокруг MCP

А что там чинить? Эта проблема то не в ИИ, а в исходном языке.

LLM не детерминированна, в отличие от компилятора

Квантовые вычисления тоже, а вон как ими пугают, что пол криптографии накроется. (да, я знаю что там недерерминированность разная)

Это неверно. Как раз LLM строго детерминирована. Но - она может постоянно менять своё состояние, если это предусмотрено её конструкцией, плюс она может обращаться к внешним недетерминированным источникам данных.

Но при детерминированных источниках данных и идентичном внутреннем состоянии она всегда будет давать один и тот же ответ на одном и том же железе.

Возможно, но мы такого не наблюдаем

Недетерминированность LLM в софте, а не в моделях.
В целом, ничего не мешает сделать строго детерминированный вывод LLM. Но да, куча нюансов полезет, особенно если за скоростью вывода гнаться.

Не, не говорите за всех разработчиков (кто-то ими даже не является в наше хAIповое время) :) Кому действительно нравится программирование, тот всё ещё пишет программный код (самостоятельно) и прекрасно себя чувствует, даже когда есть продвинутые LLM.

Так а в чем кайф? Если буковки печатать - то можно просто перепечатывать книги. ЛЛМ сейчас - просто продвинутая печатная машинка со встроенным стековерфлоу.

Набросал идею в одном файле - попросил нейронку порефактрить, чтобы красиво было. Потом попросил тесты накатать. Вся рутина компуктеру, тебе же остается только писать самую суть, не отвлекаясь на особенности языков. Ошибки лечатся быстрее. Сиди да давай команды - остается только кодревью сделать. Но вот давать осмысленные команды без опыта программирования не получится пока. Так что на мой взгляд, нейронки как раз таки оставляют весь кайф от программирования, при этом убирая скучные вещи

Так а в чем кайф?

Ну, если Вы не видите в программировании "кайфа" (или оно просто не доставляет Вам особенного удовольствия), то Я, наверное, ничего тут Вам не объясню.

Я просто из тех людей, кому сам этот процесс программирования доставляет удовольствие. С 9-го класса мечтаю стать "тем самым программистом" :) Пока что с переменным успехом. Ещё не стал, а уже профессию выкидывают за борт и лишают её будущего.

Вся рутина компуктеру, тебе же остается только писать самую суть, не отвлекаясь на особенности языков

Да многие так говорят... но, я не верю в это. Потому что рутиной человек может сделать всё что угодно. Рутину берёт на себя, рутину ИИ быстро решит, рутину, рутину... для кого рутина, а для кого - ценный коммерческий опыт. Скоро ничего кроме рутины такими темпами не останется. "Писать саму суть, а ИИ отдать рутину" - просто отговорка или идея, которая призвана адаптировать человека-программиста к неизбежному - ликвидации специализации как таковой.

Так что на мой взгляд, нейронки как раз таки оставляют весь кайф от программирования, при этом убирая скучные вещи

Ну... кому-как :) Не могу представить, чтобы мне нравилось копипастить код от LLM и гордо утверждать, что я решил какую-то задачу... лучше, когда сам обладаешь огромной базой знаний в своей голове, пишешь программный код решающий определённую задачу, понимаешь как устроены многие паттерны, алгоритмы и т.д. Но это моё мнение.

Ну я класса с 4-го программирую и в профессию пошел, потому что нравится. Уже как 20+ лет занимаюсь кодом, и все так же прикольно.

Я же спрашиваю, в чем кайф писать буквы самому? Вот мне надо тестом покрыть какой-то сервис. Раньше я для теста обычно больше время тратил, чтобы написать мок или тестовые данные подготовить, чем писал сам тест. Очень увлекательно, да. Или кусок кода выделить в отдельный сервис и подключить. Это тоже прям кайф.

Писать саму суть, а ИИ отдать рутину

Замените ИИ на джуна/стажера. Это тоже адаптация к тому, что всех сеньеров заменят стажеры?

сам обладаешь огромной базой знаний в своей голове

А пишешь банальную фигню, потому что не всегда интересные задачи по работе. Которую прекрасно можно автоматизировать.

Решающий определённую задачу, понимаешь как устроены многие паттерны, алгоритмы и т.д

Использование LLM не сколько не уменьшает кайф. А наоборот увеличивает его. Потому что теперь ты не боишься потратить уйму времени на рефакторинг когда фича нужна еще вчера. А спокойно объясняешь LLM как именно сделать нормально, какую архитектуру и какие алгоритмы применить, и получаешь результат в течение 1-2 минут.

Наконец-то тебе не надо спорить с менеджментом и просить его выделять время на техдолг. Используя LLM ты наконец-то можешь сделать всё архитектурно хорошо и красиво и тебе не надо для этого неделю времени.

Потому что рутиной человек может сделать всё что угодно. Рутину берёт на себя, рутину ИИ быстро решит, рутину, рутину... для кого рутина, а для кого - ценный коммерческий опыт.

Дело не в рутине. LLM не может полностью делать и поддерживать в долгосроке крупные системы. Он ошибается, галюцинирует в простых вещах, берет не подходящую архитектуру, копипастит, делает кривой рефакторинг без нормальных указаний, правит тесты когда надо править бизнесс логику и наоборот. И это общая проблема, нейронки пока что не заменили ничего хоть сколько-нибудь интеллектуального. До создания полноценного AGI по прежнему нужен человек-в-середине.

Потому что теперь ты не боишься потратить уйму времени на рефакторинг когда фича нужна еще вчера. А спокойно объясняешь LLM как именно сделать нормально, какую архитектуру и какие алгоритмы применить, и получаешь результат в течение 1-2 минут

Редко когда сам редфакторинг занимает кучу времени. Обдумывание архитектуры и оптимальных решений - да, занимают время, но сам процесс написания кода - нет. LLM за вас не обдумает оптимальное решение, он максимум может подогнать код по уже созданное вами описание. Мне не страшно потерять 1-5 минуты на рутинные операции и рефакторинг, а если говорить и про то, что для хорошего промпта нужно время выделить, то примерно также и получается, что 1-5 минут описание почти ничего не компенсируют.

Наконец-то тебе не надо спорить с менеджментом и просить его выделять время на техдолг. Используя LLM ты наконец-то можешь сделать всё архитектурно хорошо и красиво и тебе не надо для этого неделю времени

Это вообще забавно читать. Т.е. без LLM нельзя сделать всё архитектурно хорошо и красиво за короткий срок? Я сколько LLM пользовался, так понял что в архитектурные истории и бизнес контекст они не умеют на prod уровне (уровня middle-senior). Я уже молчу что за техдолг такой, который состоит только LLM-level проблем. Почему нельзя сразу написать хорошо?) (вопрос извечный, понимаю, но всё же. Одно дело "забить" но комплексную проблему, решение которой будет либо долгим (сделать изменения в одной репе -> развернуть изменения, сделать изменения в другой репе и поднянуть новый сервис -> развернуть изменения, потратить время на девопсов, чтобы развернули то, что тебе нужно), другое дело игнорировать пустяк, который можно решить LLM (если ты видишь, что нет пагинации - добавь, это не сложно. Всё, что может делать LLM, можешь и ты, поэтому смысл вообще простые задачи оставлять на кого-то, если их можно не оставлять)?



LLM - круто, но это на данном этапе не "конкурентное преимущество", а просто одна из незначительных оптимизаций. Я пишу на vi-подобном редакторе коде и могу также говорить, что я продуктивный, что я не трачу время на mouse-use actions. Я действительно меньше времени трачу на рутины действия, но это не значит, что я продуктивнее людей, которые используют продвинутые IDE. Также касаемо и LLM. Да, если взять нескиллового эникея, то он может думать что он "офигеть как продвинулся в написании кода". Но по факту, если бы он просто также открыл поисковик и вписал то, что ему нужно: "развернуть сервер на <ваш фреймворк>", "написать месенджер без смс и регистрации", то он получил бы тот же самый результат, только в другом виде. Но тут дело вкуса. Я не против того, что люди предпочитают LLM вместо поисковика или документаций, но у меня дергается глаз, когда эти люди говорят про оптимизацию и продуктивность

Уже молчу про людей (вайб-кодеров), которые чаще всего не знают что пишут, доверяя от и до сгенерированному коду. Великое горе для современной IT индустрии сгенерированный непровалидированный код, что работает и который попадает на прод

У меня препод по матану так говорила - программирование это ваше, это просто пальцами в кнопки тыкать, а матан - вот тут наука)))

А на деле - программирование, это что-то на уровне решения задачек из игр - логических головоломок (portal там, talos principal, the witness или viewfinder) - когда у тебя есть кусочки пазла, куча идей как его сложить, и нужно выбрать лучшую, сложить и чтобы работало.

Есть люди, которым это весело) и по соревноваться с машиной и убедиться, что все эти вайбкодерские штуки пока в реальных задачах весьма сомнительны - тоже весело) и когда llm тебе выдаёт крутой код - а ты такой "подиш ты, че могёшь" - и идею конечно подворовываешь, чтобы в будущем использовать - тоже.

А тем кто пришёл в программирование "деньги лутать" - им и промпты писать через два месяца тошно станет, и ломающийся непонятно почему код, и споры с машиной вида - "но выдаёт ошибку - исправил - но всё равно выдает - исправил - но теперь другую выдаёт" - осточертееют - они все равно обречены)

А на деле - программирование, это что-то на уровне решения задачек из игр - логических головоломок

Спасибо, я знаю. Со школы по всяким олимпиадам гонял по своей воле. Но когда вырастаешь, то понимаешь, что в мире все немного не так. Интересно делать что-то уникальное. А в проектах 20% - это решение задач, а 80% - писанина очередного сервиса/компонента/контроллера, который похож на соседний, только немного другая логика и немного другие сущности. Когда ты пилишь свой пет-проект, то становился лень сотый раз с нуля писать примерно похожую архитектуру. Лень писать тесты, потому что там букв много (мокнуть кучу сервисов, данные подготовить) а смысла мало.

Почему-то вы решили, что надо либо все через промпт делать, либо все руками.

Скорее всего вы ошиблись со специализацией. Есть направления где однотипные задачи, есть где разноплановые. Я намерено устраивался в компании, где "происходит какая то дичь" и намерено же брал все задачи, которые никто не знает как делать и не берет - и соотношение было куда веселее чем 20% на 80)) буквально 3 года у меня были только задачи уровня - "такое никто не делал, как сделать" или "похожий баг во всем интернете в поиске 1, он на китайском стаковерфлоу и без решения". После такого ещё и те задачи, в которых надо писать однотипный код - воспринимаются не как скука, а как моменты передышки перед новым эпическим сражением))

Я бы рекомендовал попробовать сменить либо направление либо работодателя и на бояться тех, кто на собеседовании говорит что у них свой фреймворк, 4 языка программирования в проекте и надо ещё немного уметь писать стихи - вот у таких будут самые интересные задачи - но будет сложно))

И да - про то, что нельзя использовать llm я не говорил, отвечал только на вопрос "в чем кайф".

Ошибки лечатся быстрее.

Семнадцать раз ха-ха.

Так суть не в буковках (сами по себе они смысла не имеют), а в "словах" и "предложениях" - более высокоуровневых конструкциях. И разница в том, что на ЯП формулировать чёткую мысль проще и от того приятнее, чем сочинять сложноподчинённые инструкции для БЯМ на естественном языке. Естественные языки плохо подходят для описания алгоритмов.

В курсор все еще можно откатиться на старый формат тарифного плана)

Через настройки в личном кабинете, держу в курсе

Есть ли возможность в курсор использовать локальную модель бесплатно?

Вот прям сейчас взглянул и видимо это не возможно)

Пункт меню "Override OpenAI Base URL" наверняка позволяет прокинуть ссылку на http://127.0.0.1:1234 и подключиться к локальной модели, развернутой в Ollama\LM Studio (они оба совместимы с OpenAI).

По идее да, но я не буду так заморачиваться да и железо у меня не то.

Не получится. Не даёт он указать локалхост, только если она ь через какой то прокси, например ngrok

Насколько я помню, запрос от вас идет на сервер курсора, там дополняется, идет на сервер LLM и потом только возвращается к вам, т.е. хост с LLM должен быть открыт для доступа снаружи

Это что за гуй такой

...с бугра?

Локальные модели как и свои api-ключи можно только с подпиской активной пользовать и локальные модели только в режиме чата, насколько я понял по причине недостачи каких-то методов в api, глубоко не копал

у меня это уже пропало, они закрыли дверь уже для многих

Можно вернуться обратно на 500 запросов:

1. Go to cursor.com/dashboard?tab=settings

2. Look for "Advanced Account Settings"

3. You can opt out of the unlimited usage model there

у меня уже этого нет, они это убирают у многих

hi@cursor.com - напиши им в поддержку. Там можно договориться. Достаточно быстро отвечают и идут навстречу

Действительно помогло. После обращения вернули на старый тариф с 500 запросами.

А что именно написали?

Написал что хотел бы переключиться на старый тариф с 500 запросами.

Если рассматриваете cline для vsc, то почему не попробовать Gemini code assist? Фулл беслатаное, никаких лимитов, топовые модели (2.5 flash / pro, по моим наблюдениям, pro тоже часто используется). Да, гугл юзает нас, как данные для обучения (не в открытую, но всё же), и — не факт, что всегда будет бесплатно. Но пока что офигенный вариант

да, тоже классны вариант. Просто для js/ruby (мой случай) claude работает лучше. Но вот для java/kotlin, например, gemini лучше себя показывает

Что делать? Научиться хотя бы писать на питоне, про раст и прочие c++ уже даже не говорю. Или выйти наконец из ай-ти.

Учитесь. Будете за вайбкодерами всё исправлять, на вес золота станете. Тем более что с нейронками код быстрее не пишется, за ними нужно всё перерабатывать самому

"Программист по подписке" - новая профессия )

Встречайте вайб-галеры! В смузи по щиколотку.

Тут прикол в том, что сам программист - по подписке. А когда не оплатил - превращается в разнорабочего, потому что сам не.

Курсор проходит классический этап становления стартапа - от работы в убыток до поиска удачной модели монетизации. Насколько выбранная ими ценовая политика будет успешной (как для самой Anysphere, так и для её клиентов) - покажет время, но серьёзно переломить ситуацию с выгодой для последних может появление нового и сильного конкурента, которого, пока, особо-то и не видно на горизонте, за исключением, пожалуй, Claude Code.

Что делать вайбкодеру? — учить язык

Тут один экс-вайбкодер(то есть тот, кто наконец смог осилить жабаскрипт+цсс) мне по секрету сказал, курсор та ещё дрянь, если после неё пытаться что-то исправлять.

Вы какую-то фантастику предлагаете

в том то и дело, что языки мы знаем, у меня 20+ лет коммерческой разработки; но за последние три месяца я не написал ни строчки кода (и практически не имел выходных), только правлю то что создает Claude code. Сейчас ситуация такая - либо ты изучаешь все современные инструменты генерации кода, либо уходишь из профессии.

А правка за Calude это разве - не написание кода? По опыту править за кем-то сложнее чем новое писать :) И как оцениваете лично для себя ускорение, которое я так понимаю есть раз 3 месяца пользуете для всей работы?

Правки незначительные. Пока все офигенно, буквально за пару месяцев сделали образовательную платформу, который скоро выкатим на арабский рынок. Причем, там будут и user analytics, и engagement tracking, и marketing analytics и много других крутых слов. Вручную мы бы это допиливали пару лет. Посмотрим, надеюсь заработает, иншаллах

Пользую Claude Code с подпиской за 200, благо компания компенсирует 70% на личную придурь. Но использую его больше ради забавы — посмотреть, насколько оно сможет хоть сколько-нибудь простую либу сделать, которую нет возможности скачать с интернета. При работе с легаси энтерпрайз от него толку разве что при флоу, когда есть пул реквест и его можно взять как паттерн. И то, всё же самому быстрее будет наплагиатить. А так, да, штука забавная, по сравнению с курсором и прочим — смотрится как мегапушка (для тех, у кого эмулятор терминала не вызывает дрожь). Наверное по флоу с ним мог бы сравниться разве что Cline. Но то для совсем богатых. Настроил флоу из нескольких агентов для того, чтобы либу пилили — архитектор, техлид, разраб и оркестратор. Даже без всяких MCP, Claude достаточно умный, чтобы самому выступать оркестратором.Так вот, при том что либа по сложности слегка выходит за пределы hello world, взаимодействие даже двух агентов довольно шустро сжирает лимиты на Opus. Ну и конечно, эти цифровые могут в итоге через 2 часа фикса свалившегося теста прийти консилиумом к тому, что тест этот и не так важен, и вообще есть не просит, так что воркфлоу завершён.Ну или линтер выдавал 500 ошибок, они пофиксили то, что можно автоматическим исправлением, а остальное им не мешает, ибо у нас так задумано, а переписывать правила для данного — плохая затея, ибо мы можем засайленсить реально важные проблемы. Поэтому пусть 100 предупреждений валятся, это к добру. Только эти долбодятлы, как оказалось, уже провели и первую брачную ночь, и первый медовый месяц с конфигами линтера и все как один решили, что целибат не так и плохо.

Нет такого ИБ в enterprise, которое позволило бы использовать курсор для легаси. Так, что, полагаю, вы только у себя в голове enterprise.

Я полагаю (верю), что вы сможете сделать усилие над собой, и так, вдумчиво, с расстановкой, прочитаете еще разок первые пару строк. Если не дойдет, постарайтесь осилить абзац, ну а если и тут смысл будет ускользать, то обращайтесь за пояснениями.

При работе с легаси энтерпрайз от него толку разве что при флоу, когда есть пул реквест и его можно взять как паттерн.

Вот эта фраза звучит как "я попробовал в enterprise - не получилось". Хотя задумывалось, я так понимаю, как "я попробовал для себя, экстраполировал на enterprise - предполагаю, что не получится".

Ваша изначальная гипотеза верна :) я так и написал, что на больших проектах толку от него не много. А что там у товарища выше не срослось с ентерпрайзом, для меня останется загадкой. Со времен первой версии курсора, время от времени, даю шанс очередной гениальной технологии заместить меня на рабочем месте. Думаю годик другой кожаные еще продержатся.

А что там у товарища выше не срослось с ентерпрайзом, для меня останется загадкой.

Рискну предположить, что "не срослось" банальное "нельзя отправлять энтерпрайзный код для обработки на стороне", судя по упоминанию ИБ. Скорее всего, во многих случаях это самое серьёзное препятствие, даже если сама по себе технология рабочая.

Благодарю :) видимо разница в региональных особенностях. У нас есть список инструментов,которые прошли секьюрити и легал аудит, курсор к стати туда входит. Но даже, если на уровне компании 'нельзя', то на уровне индивида не вижу проблем ставить эксперименты. Хотя, может, это прирогатива удаленщиков :) за сим откланяюсь, пора бы на боковую, приятно было пообщаться 🙃

Про Cursor не скажу, но Copilot официально используем. Но мы сертификат ставим, чтобы к github коннектиться. Возможно как раз из за ИБ - что бы они там благодаря MITM смогли смотреть что мы пишем.

AI ассистенты развращают. Уже ломка, как от наркоты, у программиста:)

Тоже по стилю текста это подумал. Человека одолела паника

Нет, за 200 баксов, Opus 4 закончится через запросов 5-10.

Так что же делать?

А почему нет 5-го варианта в лице самостоятельного программирования? Без каких-либо платформ генерации кода, IDE на "стеройдах" и прочей шелухи, без которой программист в целом может обойтись и также писать программный код, который решает какие-то задачи?

Довольно странно, что этот вариант сегодня всё больше и больше теряет свою популярность, хотя сам вайб-кодинг стал доступен именно благодаря тем людям, которые сами пишут код и делают это неплохо :)

Предлагаю вставить в статью 5-ый вариант: самостоятельное программирование без платформ (или IDE) генерирующие программный код через удалённый API до LLM. Классическое, ручное программирование, где программист самостоятельно оперирует структурами данных и алгоритмами для решения поставленной задачи.

На LLM программирование не должно ограничиваться, какие бы "популярные" и "авторитетные" люди (всякие CEO, CTO, чей авторитет для меня под большим сомнением) что бы не говорили, программирование на нейронках не ограничивается. Сейчас есть куча возможностей писать код самостоятельно и разбираться в технологиях быстрее, за счёт более совершенного поиска информации (консультируясь у нейронок, например), чем ранее. Этим надо пользоваться, а не генерацией программного кода через чёрный ящик, работа которого неизвестна 99% вайб-кодеров (мб ошибаюсь).

Потому что это тоже самое, что печь самому хлеб из самостоятельно добытого сырья. Сжирает время, не эффективно в большинстве случаев, и самое главное - неконкурентоспособно на рынке - когда основная масса работников генерит говно нейросеткой сразу в прод за пять минут, стерпёр, пишуший руками, выглядит неэффективным лентяем в глазах руководства. В таком мире живем, увы.

Я молчу про всякую рутину - вот недавно только скармливал deepseek странички китайского даташита, которого нет в паблике, написаного левой пяткой, и получал обратно красивую структуру данных на С++, причем он в тексте даже про CRC кастомный вычитал и его правильно реализовал. Ручками разбирать это вышло бы недели две, тут же вычитал - ни одной ошибки. На бесплатном тарифе, да.

Правда, стоит сделать оговорку, что кодинг нейросеткой все равно требует высоких скиллов - за железным код вычитывать кожаному, и вносить правки. Если все мелкие правки делать нейросеткой - никаких лимитов не хватит никогда, и будет нытье, как в статье.

печь самому хлеб из самостоятельно добытого сырья

Вы это серьёзно? По-моему Вы очень сильно преувеличиваете. Писать программный код без поддержки LLM не так уж и сложно. Многие этим сейчас занимаются и без LLM, и ничего - прекрасно решают свои задачи и всё у них получается.

Неужели знания структур данных, алгоритмов из своей предметной области, языка программирования и многих других особенностей при разработке программного продукта делают программирование таким сверхсложным, что оно сравни самостоятельной выпечки хлеба из добытого сырья? Ну глупость же. Потом промпт-запросы для Вас будут чрезвычайно сложны и сравни охоте на диких зверей для выживания в лесу? Простота не всегда хорошо влияет на людей. Думаю это тот самый случай, когда обыденные вещи для какого-то 2015-2020 года кажутся чем-то "старым", "древним" и "ручным и невероятно сложным".

когда основная масса работников генерит говно нейросеткой сразу в прод за пять минут, стерпёр, пишуший руками, выглядит неэффективным лентяем в глазах руководства

А всегда ли нужно следовать за массой? Я думаю, что далеко не всегда. Особенно сейчас, когда сила мнимых авторитетов способна "перевернуть" мир (я про Андрея Карпаты с его "вайб-кодингом" и многих других, чей авторитет не признаю) в сторону противоположную прогрессу. Я бы не стал идти вместе с массой к пропасти - это ни мне, ни многим другим людям ни к чему.

А как специалист выглядит в глазах руководства ... в общем-то плевать, если специалист решает свои задачи хорошо. Такой специалист сможет найти себя в более приятном ему месте, где его будут ценить и уважать за знание, любовь к своему делу, стремление к чему-то большему, а не за генерацию какой-то чуши за 5 минут на ChatGPT. Ничего не имею против таких людей, просто это явно не ответвление программистов и даже не разработчиков (по моему мнению). Разумеется в своей массе.

Я молчу про всякую рутину

Где-то я это уже видел... ах да, под каждым обсуждением подобной темы. Точно! Вы давно решали какую-то не рутинную задачу? По-моему, сейчас всё программирование яростно пытаются превратить в какую-то рутину, навязать на это направление куча ярлыков "простоты" и просто "опустить" в глазах специалистов. Мол "программирование для всех", "и школьник напишет телеграм с ChatGPT". "вручную писать код - зашквар" и прочее из бреда религии "вайб-кодеров".

У вайб-кодеров скоро (или уже сейчас есть) будет профессиональная деформация - они профессионально всё будут сводить к рутине, чтобы оправдать использование всякого коммерческого и закрытого шлака :) Всё к этому и идёт, и кроме рутины у вайб-кодеров ничего не останется. Это не любовь к своему делу, своей профессии и даже к самому себе - это чего-то не нормальное. Путь к пропасти, не более.

это вышло бы недели две

Откуда такие утверждения? Вы же даже сами не пробовали решить такую задачу. Вайб-кодерская профдеформация :) Решать любую задачу через LLM оправдывая это "очень долгим процессом исследования и разбора задачи", вместо того, чтобы просто взять и решить задачу самостоятельно. Получить интересный опыт, подкрепить свою экспертизу. Это массовое стремление, ничего удивительного.

что кодинг нейросеткой все равно требует высоких скиллов

Нет конечно. На мой взгляд подобные высказывания от вайб-кодеров свидетельствуют о процессе "принятия" того, что на самом деле их навыки легко могут быть заменены и они ещё "хватаются за последнее", что есть в их профессии или домене. Да-да, конечно-конечно, это всё равно "требует высоких скиллов". Конечно да (убеждайте себя и других вайб-кодеров в этом, может принятие коллективной не нужности в будущем выльется во что-то действительно полезное).

Правда в том, что уже сейчас человеческого вмешательства в код проекта, задачу или программный код можно избежать и решить задачу с помощью LLM. Вот так вот. Обычный менеджер может целый продукт создать и запустить его для "проверки гипотез". Не нужно недооценивать LLM, вайб-кодинг - не выход :)

Где-то я это уже видел... ах да, под каждым обсуждением подобной темы. Точно! Вы давно решали какую-то не рутинную задачу?

Да, их вполне достаточно в любом крупном проекте, если не боятся брать то, от чего остальные отмахиваются. Тем более сейчас, когда в моде импртозамещение и всем подай свое православное, причем даже там, где госрегулятор этого не просит.

Но таки Ынтерпрайз - это в массе своей про перекладывание DTO в другой DTO, с какими-то минимальными добавками, не дающими сделать это автоматически алгоритмом. ИИ тут офигенно справляется, ибо это мартышкина работа, ума не требующая, но необходимая. Тесты делать, опять же, страшнейшая нудятина, которой больше, чем основного кода - и опять ИИ вне конкуренции, если подходить с умом (еще тесты, в том числе, нужны для обучения джунов проекту, и тут ИИ вреден).

В хобби тоже - взял даташит, там таблица регистров на сотню позиций, с вариативностью и кучей подструктур, да еще картинкой, не копируемая - сколько ручками ее описывать будете? Неделю минимум, да еще внимательность моментально падает - куча багов гарантированы. ИИ делает описание за секунды, а вычитать и пофиксить за ним уже не так архисложно, как писать самому. Драйвер чатгпт за вас хорошо не напишет - железо он не знает, но вот километровые простыни дефайнов, структур и прочего - запросто и довольно качественно. Всякие рутинные врапперы и парсеры, опять же - возьми файл, прочитай жсон/xml/... оттуда и разложи в мапу обьектов по таким-то правилам - запросто.

А всегда ли нужно следовать за массой?

Да, потому что она образует основной рыночек. Подход "без фанатизма" в этих условиях лучше всего стреляет, ибо большинство либо топит за чисто ИИ-говнокодинг, либо за староверство и ассемблер, чем ограничивают себя в инструментарии.

Ну и заодно качается три важных скилла - английский (запросы только на нем - имхо нацязык таки изврат в этом случае), бизнес-анализ (иначе не напишешь четкие требования, и сетка накодит дерьмо), и декомпозиция (бесплатные модели не делают сразу проект, надо уметь разбивать функционал на минимально связаные единицы).

ибо большинство либо топит за чисто ИИ-говнокодинг, либо за староверство и ассемблер, чем ограничивают себя в инструментарии.

А найти золотую середину здесь никак? Либо только вот так, либо вот-так, но никак что-то среднее? Как-то.... ограниченно. В целом ограничивают себя в инструментарии и те, кто топит чисто за ИИ) И там и там есть ограничения себя в чём-то.

С ИИ, например, человек не сможет получать удовольствие от решённых задач. Просто потому что не он их решает. А без ИИ программисту сложнее будет разобраться в каких-то сложных деталях той или иной технологии (с ним это в разы быстрее и эффективнее).

Я за объединение подхода чистого программирования и ИИ в роли офигенного поисковика и консультанта по каким-либо техническим вопросам. В этой нише ИИ (LLM) просто лучший. И инфу соберёт, и расскажет простым языком (или не простым), да и уровень погружения в инфу можно регулировать. Это отличный помощник в этом плане... но всю ответственность на ИИ переносить... опрометчиво, на мой взгляд. Думать своей головой всё же нужно. Даже необходимо. Иначе придём к тому, что без ИИ человек - никто.

даташит, там таблица регистров на сотню позиций, с вариативностью и кучей подструктур, да еще картинкой, не копируемая - сколько ручками ее описывать будете? Неделю минимум

Тридцать лет и три года минимум!
До чего же убоги вайб-оправдания.

даташит, там таблица регистров на сотню позиций, с вариативностью и кучей подструктур, да еще картинкой

В FineReader забанили?

Давайте попробую объяснить на своем, обывательском: у меня две работы, не связанные с айти. У меня нет времени полноценно учить язык, никакой, даже скриптовый. И тем более пытаться как-то актуализировать свои знания. Я пилю себе скрипты "для души" или для мелких задач, чтобы ускорить то, что долго делать руками. Парсер XML из FCP недавно вайбкодил, чтобы он оттуда названия муз. треков выгребал и форматировал, как мне надо. Теггер для картинок по базе сайта с MD5 файла. Ну вот такую мелочевку.

Я лично с нуля даже не знаю, как hello world на питоне написать. Я честно пробовал прикрутить pandas к своему коду на AHK, ничего не получилось, даже выдачу корректную не смог получить после парсинга базы. Через неделю релизнулся первый чатгпт и переписал за стуки мой AHK на Python (там еще были дикие лимиты и не было кнопки "продолжить генерировать").

Сейчас просто ради развлечения гоняю код туда-сюда между Grok и ChatGPT, хочу попробовать сделать "симулятор экономики" в космосе, а-ля EVE Online \ X4, только без живых игроков. Ну само-собой у меня не получится реализовать все, я же до сих пор hello world не умею. Сначала ИИ мне сказал брать godot, но потом мне пришла в голову "гениальная" идея попробовать обучить агентов делать какие-то дела самостоятельно с q-tables, а не кодить предсказуемое поведение руками. Начал с 0 на Python (беру pyglet, pygame, что-то из этого).

Опять же, это все не для того, чтобы кому-то что-то продать или сделать шедевр - просто тема мне лично интересна, но времени у меня на нее тупо нет. Поэтому я выступаю макакой-копипастером и гоняю код между двумя чатами, если один вдруг теряет сознание от происходящего. В целом - работает, у меня сейчас код гоняет агентов-болванчиков, учит их по фиксированной карте искать маршруты между двумя рандомными точками. Потом попробую научить болванчиков друг-друга стрелять. Навайбкодить через ГПТ можно, я уже попробовал, но так (мне) не очень интересно, когда все захардкожено. Не знаю, насколько применимо будет в действительности, но процесс меня развлекает. Вайб на то и вайб-кодинг, кмк. В идеале я пишу "сделай мне вот так", оно пишет, если работает - я радуюсь. От чтения мануалов часового, после которого у меня все равно ничего не работает - не радуюсь. :)

Я лично с нуля даже не знаю, как hello world на питоне написать

Вот так:

print("Hello, world!")

Не благодарите :)

Я не против вайб-кодинга, генерации программного кода LLM для своих проектов или продакшена, да и в целом ИИ не против (наоборот - за него). Я против насильного навязывания прогрессивного прогресса (который даже прогрессом не считаю) в сфере разработки ПО.

Мол "не используешь LLM? Тебе не место в IT или программировании, тут только профи и эффективные спецы". Меня прям бесит, когда использование нейронок навязывают. Благодаря таким статьям какой-нибудь Петя-менеджер будет кошмарить команду разработчиков, пока они все поголовно не будут использовать "высокоэффективный ИИ", который за них и думать будет, и код писать, и всё остальное. Я против этого. Программист вправе решать самостоятельно как ему работать - с навязанным искусственным интеллектом или своей головой. Специалист, который не получает удовольствия от своей работы - не будет приносить хороших результатов.

Мне прекрасно живётся и без LLM. Не то, чтобы я против прогресса (вовсе нет), но мне просто нравится программировать и пилить какие-то интересные штуки (как Вы при генерации кода с LLM), только самостоятельно. Разбираться в коде, копаться в его тонкостях, понимать что там внутри под капотом происходит. Я стал разбираться со стареньким графическим API DirectX 9 чтобы разобраться с графическим программированием на C/C++. Сейчас как-будто в IT других профессий нет, кроме ИИ-разработчика, а когда-то графический программист творить мог такие вещи с помощью математики и каких-нибудь графических API, что с ума можно сойти (в хорошем смысле). Меня это вдохновляет куда больше, чем "коммерческий продукт написанный целиком ИИ". Без вдохновения... сложно работать в нашей интеллектуальной сфере)

Часто с нейросеткой получается дольше, чем без нее. С тем же AHK она вам помочь не смогла, потому-что она его просто плохо знает, и может допускать даже синтаксические ошибки или выдумывать несуществующие функции.
Клод может выдавать десятки страниц кода, где для решения было бы достаточно пары строчек.
Можно потратить часы в пустую, гоняя промты туда сюда, не получив в конце результата.
Иногда намного быстрее и проще просто загуглить или глянуть документацию.

Нет, с AHK я и не просил - я с ним сам возился. AHK он мне переписал на Python.

Клод может выдавать десятки страниц кода, где для решения было бы достаточно пары строчек.

В это охотно верю, но пока код работает быстрее, чем я ручками - это для меня прогресс.

Писать относительно много кода (сотни строк в день) требуется только на этапе "нулевого цикла". Очень быстро все приходит к норме "несколько десятков строк в день". Кодирование всегда занимало в среднем 10-20% времени, да и программирование - не кодирование.

Ну не всегда. Недавно вот за 2 недели около 5к строк выдал. Хотя проекту далеко не один год уже. Справедливости ради - проект небольшой совсем. Меньше 200к строк.

Да и в целом бывают задачи когда 500+ строк в день норма. Пусть и не очень часто.

Даже специально сейчас посмотрел, за 4.5 года работы от меня в dev ветке 644 Commits 433,856++309,795-- Правда из них наверно сотню вычесть надо. На всякий хлам типа json файлов с подменой ответов бека для UI тестов и т.п.

Пользуемся ZenCoder и нам хорошо заходит, цены ниже Cursor, качество примерно одинаковое у всех таких платформ

А в чем проблема использовать Kilo Code и свой ключ к API для Claude? И ты сам контролируешь сколько запросов, к Соннет или к Опус, все сам
Или слишком сложно для «вайб-кокера»?

Свой код пишу ручками, а вот скрипты в агентском режиме в zed. Он же помогает разобраться с проблемами в селфхостед сервисах. Хз почему все так в курсор упёрлись. AI через openrouter использую когда что то сложное, но в основном qwen3 локальный.

Я так понимаю тут персонаж который просто не знает, что можно самому получить ключ к API и использовать через API и тот же zed или помянутый мной выше Kilo Code все что угодно. Ну, то есть человек вообще далекий от всего просто возомнивший себя погромиздом. Может школьник, может дворник возомнивший себя ITшником

Маркетолог же (есть ссылка на тг)

А, ну я, как боец старой школы, по ссылкам не хожу

Нет никакой проблемы с Курсором, потому что есть десяток вариантов с использованием своих ключей к API всех популярных LLM и есть бесплатный Copilot. А если человек считает, что свет сошелся на Курсоре, то гнать его надо поганой метлой, он непригоден и для «вайб-коддинга»

Ого, кто бы мог подумать, что сложнейшее и дорогущее в обслуживании IT-решение вдруг перестанет быть бесплатным/дешевым после накопления пользовательской базы и полноценного ввода в эксплуатацию!

На мой взгляд, они не справляются с нагрузкой - вот и поднимают лимиты и задирают цены.
Пользователей станет меньше, но общая прибыль не факт, что просядет. А удовлетворенность пользователей скорее даже повысится.

Классика бессмертна:

"Но сейчас они даже не в состоянии разобраться, как же работают их собственные гиганты. Все машины вот уже множество поколений работают в автоматическом режиме, а присматривающие за ними люди превратились в членов полурелигиозной наследственной касты техников. И если во всей этой махине перегорит какая-нибудь микроскопическая трубка, они будут беспомощнее новорожденных" (с) "Основание" Азимов.

У Азимова есть одно небольшое произведение на эту тему -- "Профессия".

Мы помещаем вас сюда, в приют для слабоумных, и тот, кто не желает смириться с этим, и есть человек, которого мы ищем. Быть может, это жестокий метод, но он себя оправдывает. Нельзя же сказать человеку: «Ты можешь творить. Так давай, твори». Гораздо вернее подождать, пока он сам не скажет: «Я могу творить, и я буду творить, хотите вы этого или нет». Есть около десяти тысяч людей, подобных тебе, Джордж, и от них зависит технический прогресс полутора тысяч миров. Мы не можем позволить себе потерять хотя бы одного из них или тратить усилия на того, кто не вполне отвечает необходимым требованиям.

Вот, в Нью‑Йорке собираются перестраивать пригороды. А это уходящие за горизонт ряды заводов, построенных кроманьонцами, оставившими после себя только обрывки карт и диаграмм. ©

Забавно, чтобы выключить режим "разработчика" у некоторых людей, им достаточно повысить тарифы.

Вот это очень интересный вопрос на будущее - сколько ИИ будет реально стоить. Потому что сейчас все ИИ компании работают в убыток и сжигают огромные вливания инвесторов в надежде на то, что прогресс в ИИ не замедлится.

Разве вайбкодинг не позволяет шиппить в 10 раз быстрее и разве это не влечёт за собой соответствующее повышение зарплаты, которое с лихвой покроет (первое в череде) повышение цен на агентов? Может те вайб-кодеры, у кого есть проблемы с оплатой, просто недостаточно профессионально чувствуют вайб и потеряли конкурентноспособность?

Нет, это повлечет за собой повышение нормы выработки, с фига ли бизнесу оплачиать 10х зп одному и тому же человеку. А будет сопротивляться - возьмут другого, кто готов. Или вы думаете владельцы бизнеса не догадаюатся что используются инструменты (такой секрет о котором из каждой дырки вещают сейчас), а просто чел начал усердно кодить 80 часов в сутки? Это про аналогии как во времена появления тракторов требовать эффективность "ручного" пахаря зная что у него есть трактор.

Но вообще у меня впечатление что как бы не < 1 эффективность на больших проектах и их поддержке. На мелких новых задачках да, возможно некоторое ускорение. Посмотрим как будет дальше.

Достаточно посмотреть на тарифы по API чтобы вопросы отпали

Щас бы использовать почти самую дорогую модель на не самом дорогом тарифе и удивляться, что упираешься в лимиты. Так ещё и модель не самая лучшая, чтобы так на неё лимиты тратить.

Я сделал гайд по оптимизации использования лимитов. Claude далеко не всегда лучший выбор.

https://forum.cursor.com/t/how-to-optimize-your-usage-the-best-ai-models-to-use-version-2/116787

А что работать как нормальный белый программист по уму, без ИТ уже не ком-иль-фо???

Видишь восторг + нытьё + рекламу тележеньки? Это очередная AI-ромашка расцвела на хабре, чтобы исчезнуть через неделю навсегда.

Я вообще не понимаю зачем нужны эти фаши курсоры, клауди апи и т.д. если OpenAi создал Codex. Пока он в тестовом режиме и в будущем, вроде как буду вводиться лимиты, но как понял это затронет больше энтерпрайз тарифы.

Ах да, чтобы использовать Codex, нужно на минимальном уровне уметь пользоваться гитхабом, но большинство вайб кодеров не в состоянии его осилить, судя по комментариям под видео и статьями о Кодексе.

Как вайбкодер скажу: за ChatGPT нужно каждую итерацию написанного им кода проверять - появился ли вообще новый функционал, исправился ли баг, не появился ли новый баг, не отломался ли интерфейс, итд итп. Если дать ему доступ ко всему проекту на Github, и он начнет там ворочать - это можно легко что-то пропустить.

Да, гораздо удобнее не копипастить код целиком или частями, а загрузить файлы. Да, много файлов не загрузишь и дать ему "вот этот гит" - звучит удобно. Но дел он там наворотит таких, что потом реально надо будет десяток специалистов нанимать, чтобы это разгрести. Мне регулярно приходится идти к конкурентам, потому что ChatGPT перестает понимать, что от него хотят. Ну и наоборот.

Перспективнее всего мне видится какая-то приблуда, которая будет скармливать задачу сразу нескольким моделям (желательно конкурирующим), и приходить к консенсусу. Но для этого надо моделям отрастить зубы, чтобы они не зацикливались в поддакиваниях друг-другу. С другой стороны, я скармливал код Grok-у с просьбой его отрефакторить, а потом отправлял ответ gpt-4.1, чтобы тот прокомментировал. И многие вещи gpt-4.1 завернул. Что было приятно видеть.

Опять же - когда спрашиваешь об оптимизации кода, и можно ли его, например, исполнять на GPU вместо CPU (ML), ChatGPT охотно соглашается и перефигачивает код на cuda. И только после бенчмарков оказывается, что код-то в 4 раза медленнее на GPU работает, а ChatGPT раскалывается: каюсь, модель маленькая, оверхед на взаимодействие cpu-gpu больше выигрыша скорости, на CPU будет быстрее. Зачем сочинял все на cuda? Почему сразу не было понятно по параметрам обучения (они сразу после импортов в скрипте идут), что GPU бесполезен? Загадка...

Если дать ему доступ ко всему проекту на Github, и он начнет там ворочать - это можно легко что-то пропустить.

Так Codex и решает эту проблему. Ему даёшь доступ к репозиторию.

Описываешь задачу например исправь ошибку или напиши новый функционал. Как всегда, чем более грамотно технически задать вопрос, тем лучше будет результат.

Далее, Codex начинает работать над задачей, он сам ищет связанные файлы и сканирует, то что ему нужно. Чем-то похоже на курсор, только более комплексно.

Далее, он на каждую выполненную задачу создаёт отдельную ветку и Pull Request. Это очень удобно. В пул реквесте можно исправить конфликты, если таковые есть, хранить в ветках информацию о задачах, просматривать изменения в интерфейсе гитхаба или вообще любого инструмента для работы с git.

Если код кривой, то можно пул реквест закрыть не применив.

Из доп. плюсов можно настроить окружение. Например можно прописать команды, которые он выполнит после завершения задачи, например установить зависимости и сделать билд или запустить автотесты, он автоматом поправит ошибки, если таковые будут при выполнении команд.

И на мой взгляд самое удобное, он может работать параллельно над несколькими задачами и поскольку Codex работает с github можно не бояться, что 2 задачи изменят один и тот же код, т.к. всегда можно исправить конфликты (а они бывают редко) в пул реквестах.

В общем, я за Codex готов теперь любые деньги платить, т.к. он и с разными ЯП работает (со всеми что и обычный GPT) и интеграцию с гитхабом имеет, и контекст довольно большой держит, и даже может вполне писать код используя малоизвестные библиотеки. Можно например не тянуть всю папку с библиотеками в реозиторий, а временно только с вашей библиотекой и он будет её использовать в написании кода. Я кстати для своих пед проектов (где и использую кодекс), делаю под каждый пул задач новый репозиторий, куда выгружаю, только необходимый для понимания контекста нейронки код.

В общем звучит, как реклама, но я просто правда впечатлён Codex, наверное единственная нейронка после самого GPT, которая меня реально удивила.

Какой он контекст держит? По описанию фигня, по сравнению с gemini-cli, там лимон токенов контекст

А я правильно понимаю, вы попробовали VSCode с каким-то из AI-плагинов, Cursor, или любой другой форк студии или zed и потом нашли для себя Codex?
Потому что для меня пока сравнение IDE дополненной AI-фичами (мда, ну в том смысле в котором vscode можно считать ide) и Codex который из себя представлет web-CLI к агентской системе выглядит ну.. как-то странно

Угу, я пробовал копайлот, но он очень слаб, даже платный. Там есть несколько нейронок внутри и они все подходят только для снипетов.

Пробовал warp cli и мне понравилось. Codex лично для меня спасение от рутины, учитывая параллельную работу.

Отвечу автору двумя словами: "Amazon Kiro"

С вечными ретраями.

Sign up to leave a comment.

Articles