Обновить

Комментарии 16

Ну как же так? В школе нас учили, затем учились сами, вырабатывали самостоятельное мышление... А теперь только и слышишь тут да там запустили ИИ и обновили ИИ. Хорошо если это освободит людей от рутины и плохо если от мыслительного процесса.... Скажу сразу я не против прогресса, но разумного!!!

Поделюсь своим опытом.

На работе перешёл из разработчиков в тимлиды, там програмиирование совсем отвалилось, буквально таски живым нейронкам нарезаю в паре с системным аналитиком (кстати, полезный опыт, взаимоулучшающий - лучше промпты LLM, лучше тз людям).

Вне работы родился сын и сесть за личный комп пока что получается на полчасика-час в день, но не чанком, а размазанно по дню - минут 10-15 пока утром крые пью и минут 20, после того как на ночь уложу.

О каком-то сосредоточенном программировании и речи быть не может. Но с нейронками таки получается пилить понемногу одного пета. Убого, криво, но вроде выстроил процесс кодинга через халявный чатик с qwen (у меня и локальный есть, но размер контекста страдает на 16гб GPU и квантовка сказывается). Обычно получается инициировать задачу вот за такой урывок за компом, скормить все нужные файлики, оставить генерировать результат, ничего не проверять и уйти заниматься другими делами. Потом во время кормления мелкого в ночи с телефона проревьюить написанное и заметить 1-2 недочёта или наметить следующий шаг. А в следующий заход за комп забрать результаты, уже внимательно проревьюить и попробовать тестить/фиксить. За неделю получилось перетащить свою большую экселину в близкий к рабочему стэк с учётом своих привычек и даже намутить сносный для использования с мобилки интерфейс.

Что нравится:

  1. Моделька не ноет на вкусовщину, ничего ей не надо доказывать, сказал - делает в 90% случаев.

  2. В некоторые технические детали можно не вникать. В некоторые придётся - освоил наконец миграцию с pydantic v1 на pydantic v2, как-то мимо меня на работе проходило.

  3. Получается сосредоточиться на формулировке идеи, дополнительная тренировка на формулировании мыслей через слова. Нейронку заставляю уточнять ТЗ, пока мне не надоест и со временем стал сразу писать его достаточно полным, тоже плюсик к рабочим навыкам.

Что прям показалось любопытным:

  1. Я больше обычного стараюсь декомпозировать на отдельные файлы, сервисы итд, чтобы их копипаста нейронке не сильно раздувала контекст. Казалось бы, так и у человека контекст ограничен, ничего нового. Но раньше мне легко было проскроллить код куда надо, а теперь срез исходников надо приложить целиком. И компактные файлы удобнее процессить, ревьюить итд.

  2. README проекта на порядки качественнее моего типового пета, потому что я сессии с нейронкой я начинаю с него + pyproject.toml.

Какая-то Vibe Driven Architecture получается.

Чувствую себя инвалидом от мира кодинга, но нейронки прям инвалидной коляской получились, которая помогает. Без них проект валялся бы в списке идей ещё пять лет, а так, я уже пользуюсь и рад.

Слушайте, вы очень много времени на ненужные действия тратите (типа копировать-вставить), это же мазохизм. Сейчас полно бесплатных решений режима агента для IDE типа vs code + roocode (и там пока ещё работают бесплатно grok-code-fast и новая supernova), или тестовые периоды в cursor / kiro / warp. А так мне кажется проще за 2000р купить на месяц cursor, там нет ограничений на авто запросы (а токены можно на сложные в режиме размышления потратить). И вы забудете о копировать-вставить, контекст подключается в один клик, всё в одном месте, системные промпты, выбор моделей, точки сохранений, даже автотесты из коробки работают.

Вы безусловно правы, я просто страдаю от того, что не доверяю слишком толстому слою систем, который не изучал плотно (потому что времени нет). Я бы хотел 3 гарантии, после которых спокойно начал пользоваться агентскими ИИ-плюшками:

  1. Ничего не стучится в интернет без спроса

  2. Ничего не имеет права читать и писать за пределы директории проекта

  3. Ни байта сгенерированного LLM кода не исполняется на моём железе без предварительного ревью

Скорее всего этого можно добиться, плотно посидев над запуском IDE в flatpak (тот предоставляет неплохие возможности по изоляции) и(ли) закодив самостоятельно очень примитивный MCP-сервер, который будет эти мои хотелки реализовывать понятным и нужным мне образом.

Но в целом это переусложнение. Идеальный для меня сценарий - облачная IDE, с загрузкой проекта целиком в облако, мобильным чатиком (времени сидеть за компом по прежнему мало) и пакими-то ресурсами на запуск тестов на тех же облачных мощностях, да так, чтобы за результаты запуска отвечала компания-владелец этой IDE. Как именно загружать - не особо принципиально, хотя слышал, что к привлекательному варианту с Git (git remote add cloud_ai git@....) тоже есть вектора атаки, главное чтобы слепок проекта был, в него можно было вносить изменения и не надо было подкидывать недостающие файлы.

Вот за такое я б даже и 2000 и 4000 готов был платить, правда заграничная карта уже просрочилась :(

Upd: вроде бы codex cloud прям близко к этому находится, но до чего же лень пердолиться с впн/учёткой/етц

Респект! Те, кто понимает, что хочет и умеет делать продукт без разработчиков - это и есть целевая аудитория кодогенераторов

Увы, без разработчиков не получается.

Вот моё недавнее gorenje.

Надо какой-то триггер на число исправлений и сообщений в чате с нейронкой, который будет напоминать - хорош, кремниевый болванчик тупенький, меняй подход.
Сейчас вот пришлось сесть, вспомнить алгосики и осознать, что [ДАННЫЕ УДАЛЕНЫ] - тривиальная задача. Плюс подкинуть несколько советов по порядку его обработки, ввести ещё одно ограничение в условие задачи. Код парсера сократился с 300 строк до 230 и всё заработало как надо с первого раза.
Воистину болванчик - буквально фронтендер-фрилансер, который на отвали умеет говнокод на питоне лячкать, но продолбал вышку и без гугла/пинка не подбирает правильный алгоритм/структуру, скатываясь в тонны вложенных if elif с хардкодом, в которых начинает путаться сам

Вас приятно удивит Codex-cli :)

Среда изоляции в нём имеется, но для параноиков можно и внутри docker-контейнера посадить. Но для эффективности лучше дать ему доступ в сеть :)

Дружище.. зачем тебе юзать GPU да еще и и скать с 16гб?? что за бред. GPU нужен для генерации и работы графического контента. Картинки, видео и т.д. Текстовые модели (LLM) всем нахрен видаха не нужна. 64гб оперативки - легче купить нежели видаху с 16гб видео.

Мне кажется, вы не гоняли модельки локально, вот пример mistral small 3.1 24b
40/40 слоев на GPU - 23.6 ток/сек
35/40 слоев на видяху - 10.5 ток/сек
0/40 слоев на GPU(полностью на процессоре) - 2.99 ток/сек
Ну почти в 10 раз разница...

Процессор Ryzen 5700x, видяха 5060ti, вероятно, если у процессора будет 16+ ядер + память ddr5 разогнанная как на всяких нейро пк типа GMKtech evo-x2 или minisforum или еще десяток подобных, то там будет ну не в 10 раз разница, а только в 5, но всё равно на видеокартах с давних времен некоторые вычисления намного шустрее.

Юзал. и не одну. Просто возможно конкретно mistral small - єто да. и не в курсе что она на видяхе быстрее работает. Да и может быстрее на видахах. но цена блин. Не у каждого есть возможность купить видик. с кучей видеопамяти. А оперативка есть почти у каждого хотябы 16гиг. Тоесть на компе - без затрат.

Qwen3 тоже получил обновление и вышел из стадии preview

Как по мне, стал чуть лучше и чуть быстрее (сравнил на lmarena)

На 1с так писать и не научился

А что это?

😂

Зарегистрируйтесь на Хабре, чтобы оставить комментарий

Другие новости