Комментарии 16
Ну как же так? В школе нас учили, затем учились сами, вырабатывали самостоятельное мышление... А теперь только и слышишь тут да там запустили ИИ и обновили ИИ. Хорошо если это освободит людей от рутины и плохо если от мыслительного процесса.... Скажу сразу я не против прогресса, но разумного!!!
Поделюсь своим опытом.
На работе перешёл из разработчиков в тимлиды, там програмиирование совсем отвалилось, буквально таски живым нейронкам нарезаю в паре с системным аналитиком (кстати, полезный опыт, взаимоулучшающий - лучше промпты LLM, лучше тз людям).
Вне работы родился сын и сесть за личный комп пока что получается на полчасика-час в день, но не чанком, а размазанно по дню - минут 10-15 пока утром крые пью и минут 20, после того как на ночь уложу.
О каком-то сосредоточенном программировании и речи быть не может. Но с нейронками таки получается пилить понемногу одного пета. Убого, криво, но вроде выстроил процесс кодинга через халявный чатик с qwen (у меня и локальный есть, но размер контекста страдает на 16гб GPU и квантовка сказывается). Обычно получается инициировать задачу вот за такой урывок за компом, скормить все нужные файлики, оставить генерировать результат, ничего не проверять и уйти заниматься другими делами. Потом во время кормления мелкого в ночи с телефона проревьюить написанное и заметить 1-2 недочёта или наметить следующий шаг. А в следующий заход за комп забрать результаты, уже внимательно проревьюить и попробовать тестить/фиксить. За неделю получилось перетащить свою большую экселину в близкий к рабочему стэк с учётом своих привычек и даже намутить сносный для использования с мобилки интерфейс.
Что нравится:
Моделька не ноет на вкусовщину, ничего ей не надо доказывать, сказал - делает в 90% случаев.
В некоторые технические детали можно не вникать. В некоторые придётся - освоил наконец миграцию с pydantic v1 на pydantic v2, как-то мимо меня на работе проходило.
Получается сосредоточиться на формулировке идеи, дополнительная тренировка на формулировании мыслей через слова. Нейронку заставляю уточнять ТЗ, пока мне не надоест и со временем стал сразу писать его достаточно полным, тоже плюсик к рабочим навыкам.
Что прям показалось любопытным:
Я больше обычного стараюсь декомпозировать на отдельные файлы, сервисы итд, чтобы их копипаста нейронке не сильно раздувала контекст. Казалось бы, так и у человека контекст ограничен, ничего нового. Но раньше мне легко было проскроллить код куда надо, а теперь срез исходников надо приложить целиком. И компактные файлы удобнее процессить, ревьюить итд.
README проекта на порядки качественнее моего типового пета, потому что я сессии с нейронкой я начинаю с него + pyproject.toml.
Какая-то Vibe Driven Architecture получается.
Чувствую себя инвалидом от мира кодинга, но нейронки прям инвалидной коляской получились, которая помогает. Без них проект валялся бы в списке идей ещё пять лет, а так, я уже пользуюсь и рад.
Традиционный комментарий, который лучше статьи
Слушайте, вы очень много времени на ненужные действия тратите (типа копировать-вставить), это же мазохизм. Сейчас полно бесплатных решений режима агента для IDE типа vs code + roocode (и там пока ещё работают бесплатно grok-code-fast и новая supernova), или тестовые периоды в cursor / kiro / warp. А так мне кажется проще за 2000р купить на месяц cursor, там нет ограничений на авто запросы (а токены можно на сложные в режиме размышления потратить). И вы забудете о копировать-вставить, контекст подключается в один клик, всё в одном месте, системные промпты, выбор моделей, точки сохранений, даже автотесты из коробки работают.
Вы безусловно правы, я просто страдаю от того, что не доверяю слишком толстому слою систем, который не изучал плотно (потому что времени нет). Я бы хотел 3 гарантии, после которых спокойно начал пользоваться агентскими ИИ-плюшками:
Ничего не стучится в интернет без спроса
Ничего не имеет права читать и писать за пределы директории проекта
Ни байта сгенерированного LLM кода не исполняется на моём железе без предварительного ревью
Скорее всего этого можно добиться, плотно посидев над запуском IDE в flatpak (тот предоставляет неплохие возможности по изоляции) и(ли) закодив самостоятельно очень примитивный MCP-сервер, который будет эти мои хотелки реализовывать понятным и нужным мне образом.
Но в целом это переусложнение. Идеальный для меня сценарий - облачная IDE, с загрузкой проекта целиком в облако, мобильным чатиком (времени сидеть за компом по прежнему мало) и пакими-то ресурсами на запуск тестов на тех же облачных мощностях, да так, чтобы за результаты запуска отвечала компания-владелец этой IDE. Как именно загружать - не особо принципиально, хотя слышал, что к привлекательному варианту с Git (git remote add cloud_ai git@....) тоже есть вектора атаки, главное чтобы слепок проекта был, в него можно было вносить изменения и не надо было подкидывать недостающие файлы.
Вот за такое я б даже и 2000 и 4000 готов был платить, правда заграничная карта уже просрочилась :(
Респект! Те, кто понимает, что хочет и умеет делать продукт без разработчиков - это и есть целевая аудитория кодогенераторов
Увы, без разработчиков не получается.
Вот моё недавнее gorenje.
Надо какой-то триггер на число исправлений и сообщений в чате с нейронкой, который будет напоминать - хорош, кремниевый болванчик тупенький, меняй подход.
Сейчас вот пришлось сесть, вспомнить алгосики и осознать, что [ДАННЫЕ УДАЛЕНЫ] - тривиальная задача. Плюс подкинуть несколько советов по порядку его обработки, ввести ещё одно ограничение в условие задачи. Код парсера сократился с 300 строк до 230 и всё заработало как надо с первого раза.
Воистину болванчик - буквально фронтендер-фрилансер, который на отвали умеет говнокод на питоне лячкать, но продолбал вышку и без гугла/пинка не подбирает правильный алгоритм/структуру, скатываясь в тонны вложенных if elif с хардкодом, в которых начинает путаться сам
Дружище.. зачем тебе юзать GPU да еще и и скать с 16гб?? что за бред. GPU нужен для генерации и работы графического контента. Картинки, видео и т.д. Текстовые модели (LLM) всем нахрен видаха не нужна. 64гб оперативки - легче купить нежели видаху с 16гб видео.
Мне кажется, вы не гоняли модельки локально, вот пример mistral small 3.1 24b
40/40 слоев на GPU - 23.6 ток/сек
35/40 слоев на видяху - 10.5 ток/сек
0/40 слоев на GPU(полностью на процессоре) - 2.99 ток/сек
Ну почти в 10 раз разница...
Процессор Ryzen 5700x, видяха 5060ti, вероятно, если у процессора будет 16+ ядер + память ddr5 разогнанная как на всяких нейро пк типа GMKtech evo-x2 или minisforum или еще десяток подобных, то там будет ну не в 10 раз разница, а только в 5, но всё равно на видеокартах с давних времен некоторые вычисления намного шустрее.
Юзал. и не одну. Просто возможно конкретно mistral small - єто да. и не в курсе что она на видяхе быстрее работает. Да и может быстрее на видахах. но цена блин. Не у каждого есть возможность купить видик. с кучей видеопамяти. А оперативка есть почти у каждого хотябы 16гиг. Тоесть на компе - без затрат.
Qwen3 тоже получил обновление и вышел из стадии preview
Как по мне, стал чуть лучше и чуть быстрее (сравнил на lmarena)
На 1с так писать и не научился

ИИ для программирования Qwen3-Coder получил обновление