После анализа репозитория ИИ-агент может выдать рецензию и предложить внести свои изменения в код.
Например, ему можно делегировать трудоёмкие, но скучные задачи от добавления функций и исправления ошибок до рефакторинга кода и улучшения документации.
Прямо сейчас сижу и разбираю правки, которые придумал codex за ночь. 95% правок - мусор. Я конечно человек очень усидчивый, но даже для меня это чересчур. Мне нужно 2 часа чтобы найти те самые 5% полезных правок.
Представляю как будут плеваться разработчики. А Линус там такого крутеля даст, что месяц можно будет мемы делать.
У меня есть хеш этой книги, кто-нибудь знает, где она?
У меня она есть, но отдам я ее после дождичка в четверг. Я так 15 лет назад использовал MLDonkey для выуживания контента из Kad-сетей. Один редкий фильм на 700 мб выуживался 2 месяца.
Тоже самое с IPFS: она какбы есть, но она пока на обеде, приходите после 2-х часов. Производительность болтается в районе нуля.
Поэтому меня всегда смешат заменяльщики чего-то на подобные сети. У этих заменяльщиков опыта с гулькин хвост.
В реальных приложениях такая изменчивость может быть губительной.
Именно так. И особенно она губительна для программирования. Я не знаю каким образом компании типа микрософт отчитываются о том, что у них 30% кода пишут модели. Возможно эти 30% это one-shot генерация подсказки, когда жмёшь таб. Я попробовал все модели сам в рефакторинге и это просто полное дно.
теоретически, это могут быть какие-то компьютеры волонтёров в интернете
А потом они поймут, что запускать обучение бесплатно никому не хочется. Затем они запустят криптовалюту с proof of train. Далее медвежий рынок, цыпки на Багамах ... и пошло и поехало.
Но в конце внезапно придёт осознание, что толку от этой распределенности не было никакой. Пока они баловались ерундой, нераспределенные системы ушли далеко вперёд.
Пачоцки говорит в интервью Nature, что его взгляд на сверхразум продолжает меняться.
Это пока он работает в OpenAI. Если он перейдёт на работу в другую компанию, то его мнение опять изменится в соответствии с желаниями нового СЕО. Простым языком: кто платит, тот и танцует.
Ллм же пытается составить план, по которому она будет выдавать текст. Теперь модель будет реже делать глупые ошибки. Но ни о каком создании ПО и речи не идёт. А тем более речь не идёт об автономности. Пачоцки рассчитывает на то, что люди не читают оригинальные статьи, а верят инфоцыганам.
Товарищи маркетологи ллм, возьмите уже и запустите рефакторинг существующего реального проекта на 200-500 тысяч строк. Затем полученные правки дайте оценить разработчику. Там будет 70% правок, которые ломают существующий проект, 27% бессмысленных правок (типа добавил артикль в комментарий) и 3% потенциально полезных правок над которыми можно подумать, но не факт что они нужны.
Программирование - это не one-shot генерация кода, это постоянный рефакторинг существующего. Если ллм на рефакторинге выдает 97% мусорных правок, то ни о каком программировании и речи быть не может. Да, можно ради 3% полезных правок 2 раза в год запускать ллм, что собственно мы и делаем. Но на задаче программирования можно поставить точку.
Камень нужно затянуть в студию, дать света и отфоткать с разных точек. Затем составить карту потенциальных символов и начать анализ этой карты. Результат будет лучше.
Когда пространство для экспансии заканчивается - начинается кризис. Руководители движения теряют власть, а полководцы начинают воевать друг с другом. Но все ещё находятся фрики в розовых очках, которые предлагают продолжать и даже воображают пространства, куда ещё не ступал тензор завоевателя.
Что в наших рекламах курсора, что в иностранных "создают" телеграм ботов. Причина в том, что бойлерплейт для телеграм оказался самым удачным и устойчивым к бредятине. SDK какого-нибудь unity гораздо более сложно, менее устойчиво и впечатлить менеджера каким-либо "результатом" не получится.
Прямо сейчас сижу и разбираю правки, которые придумал codex за ночь. 95% правок - мусор. Я конечно человек очень усидчивый, но даже для меня это чересчур. Мне нужно 2 часа чтобы найти те самые 5% полезных правок.
Представляю как будут плеваться разработчики. А Линус там такого крутеля даст, что месяц можно будет мемы делать.
5700g:
Хорошо, что не забывают ROCm.
У меня она есть, но отдам я ее после дождичка в четверг. Я так 15 лет назад использовал MLDonkey для выуживания контента из Kad-сетей. Один редкий фильм на 700 мб выуживался 2 месяца.
Тоже самое с IPFS: она какбы есть, но она пока на обеде, приходите после 2-х часов. Производительность болтается в районе нуля.
Поэтому меня всегда смешат заменяльщики чего-то на подобные сети. У этих заменяльщиков опыта с гулькин хвост.
Они пытаются изобрести вайб дебаггинг, но ничего не получается как с точки зрения результата так и продаж. Улыбаемся и машем.
JetBrains не оплатил писанину? Ясно, мы его вычеркиваем.
Или тоже самое через ollama и qwen 3 только бесплатно.
Именно так. И особенно она губительна для программирования. Я не знаю каким образом компании типа микрософт отчитываются о том, что у них 30% кода пишут модели. Возможно эти 30% это one-shot генерация подсказки, когда жмёшь таб. Я попробовал все модели сам в рефакторинге и это просто полное дно.
А потом они поймут, что запускать обучение бесплатно никому не хочется. Затем они запустят криптовалюту с proof of train. Далее медвежий рынок, цыпки на Багамах ... и пошло и поехало.
Но в конце внезапно придёт осознание, что толку от этой распределенности не было никакой. Пока они баловались ерундой, нераспределенные системы ушли далеко вперёд.
Мне нравится qwen2.5-coder для рефакторинга и mistral3.1 + qwen3 для импрувмента комментариев в коде.
Это пока он работает в OpenAI. Если он перейдёт на работу в другую компанию, то его мнение опять изменится в соответствии с желаниями нового СЕО. Простым языком: кто платит, тот и танцует.
Ллм же пытается составить план, по которому она будет выдавать текст. Теперь модель будет реже делать глупые ошибки. Но ни о каком создании ПО и речи не идёт. А тем более речь не идёт об автономности. Пачоцки рассчитывает на то, что люди не читают оригинальные статьи, а верят инфоцыганам.
Я просто оставлю это здесь.
Make Warp work with Local Language Models (like Ollama models)
Я же говорю: запускать 2 раза в год для рефакторинга и вручную удалять 97% мусорных правок. Единственное применение. На этом точка.
Товарищи маркетологи ллм, возьмите уже и запустите рефакторинг существующего реального проекта на 200-500 тысяч строк. Затем полученные правки дайте оценить разработчику. Там будет 70% правок, которые ломают существующий проект, 27% бессмысленных правок (типа добавил артикль в комментарий) и 3% потенциально полезных правок над которыми можно подумать, но не факт что они нужны.
Программирование - это не one-shot генерация кода, это постоянный рефакторинг существующего. Если ллм на рефакторинге выдает 97% мусорных правок, то ни о каком программировании и речи быть не может. Да, можно ради 3% полезных правок 2 раза в год запускать ллм, что собственно мы и делаем. Но на задаче программирования можно поставить точку.
Камень нужно затянуть в студию, дать света и отфоткать с разных точек. Затем составить карту потенциальных символов и начать анализ этой карты. Результат будет лучше.
Алиса, как безошибочно определить очередную рекламную статью от антропика?
Бородатый дед со стажем в 20+ лет представляется интерном.
Он создает телеграм бота.
Генерацию кода называет "вайб-кодингом".
Упоминает Андрея Карпатого, как будто он в каждой бочке затычка.
Непонятно кому и зачем показывает редактор и это всегда курсор.
Модель неизменно клод соннет и с ней обязательно указан номер версии.
Алиса, а зачем антропик оплачивает такие статьи?
Когда пространство для экспансии заканчивается - начинается кризис. Руководители движения теряют власть, а полководцы начинают воевать друг с другом. Но все ещё находятся фрики в розовых очках, которые предлагают продолжать и даже воображают пространства, куда ещё не ступал тензор завоевателя.
Использую 32b в квантификации fp16 для рефакторинга коментов в коде (но не самого кода). Результат отличный, рекомендую.
Fixed.
Программисты и математики не нужны, всех заменит ллм.
Нужны только математики, чтобы поддерживать ллм, а программисты не нужны.
Нужны только математики и программисты сеньоры.
Не нужны только программисты джуны.
Технического долга не существует.
Легаси код мы удалим.
Вы находитесь здесь.
Нужны все математики и программисты, но они обязаны разбираться в ллм.
Нужны все программисты и математики.
Используем ллм только для тех задач, для которых оно предназначено.
Давайте не будем увольнять злобных маркетологов, которые хотели всех уволить.
Что в наших рекламах курсора, что в иностранных "создают" телеграм ботов. Причина в том, что бойлерплейт для телеграм оказался самым удачным и устойчивым к бредятине. SDK какого-нибудь unity гораздо более сложно, менее устойчиво и впечатлить менеджера каким-либо "результатом" не получится.