All streams
Search
Write a publication
Pull to refresh
50
-0.1
Alex Gusev @flancer

Я кодирую, потому что я кодирую…

Send message

Сложно сделать быстро. Настолько же быстро перестроить веса, насколько быстро приходят изменения.

Я наполовину буддист. Если что-то пойдёт не так в этой жизни - продолжу в следующей ;)

И? Прилетит судебный иск, который я не смогу покрыть, и что дальше? Я не смогу его покрыть - я банкрот. Просто начинаешь с нуля и в более сложных условиях. Только и всего. Угроза "что-то пошло не так" вовсе не повод сидеть ровно и не трепыхаться. Что-то обязательно пойдёт не так.

Может попробовать выбрать "Глубокое исследование"? Может быть появится иконка в панели ввода запроса?

У меня вот так веб-интерфейс выглядит. Но у меня английский выбран.

Вот тутъ. Только "всплывашка" не в верхней панели, а в панели ввода.

"Всплывашка" тутъ
"Всплывашка" тутъ

Сложность уходит с экрана - но не из системы. Она просто становится невидимой.

Спасибо, бро! Отличная формулировка. Я впервые с невидимой сложностью столкнулся в Borland'овских IDE, где обещали мышкой научить рисовать UI. Рисовать было круто, а вот потом в той лапше кода крутиться было не очень :(

Монолит по определению не может быть одновременно и на PHP, и на Python ¯\_(ツ)_/¯

И, кстати, заставить подобный зоопарк работать - нужно быть достаточно неплохим спецом. И менять работающее приложение, пусть даже оно и "говномонолит из костылей", на что-то новенькое бизнесу никто запретить не может. Тут просто стоит вопрос - под чью ответственность :)

Да и вообще, если вдруг бизнес решил самовыпилиться таким экзотическим способом - флаг ему в руки!! Я бы уже начал искать другой аэродром, а ТС, вон, старый ещё пытается спасти.

При этом система не видела ни одного примера, созданного человеком для этих задач.

Мне что-то кажется, что если все примеры, на которых обучалась модель, вышли из генератора примеров, созданного человеком, то формально цитата будет правдивой, но весь посыл статьи - ложным.

Пусть даже этот генератор примеров - эта же LLM. Нужна обратная связь, нужны рецепторы (датчики), чтобы интеллект самообучался и развивался.

Ключевой трюк AZR — использование исполнителя кода как объективного судьи. В отличие от субъективных человеческих оценок, код либо работает правильно, либо нет. Это дает системе четкий, проверяемый сигнал для обучения.

Хоп, а вот и рецептор для самообучения. Что имеем в результате? Модель натаскивается на конкретного исполнителя. Меняем исполнителя кода (python, JS, Java, brainfuck) - модель самообучается на использование этого исполнителя. Как тут выше в комментах сказали - чистый тьюнинг.

Интересный подход - код-ревью от силиконового, управляемое через промт. А какова сходимость процесса? Ну, т.е., кодовая база растёт - тут без вопросов. Модель через промпты (и контекст в коде/документации/d.ts) "настраивается" на предметную область. Должна быть сходимость (95% патчей выкидываю как мусор, 5% переделываю и принимаю) - либо мусора становится меньше, либо правок от Модели в целом становится меньше. Какой вариант ваш? Или ещё что-то?

Да, это вполне себе может быть нишевое использование d.ts - для LLM'ок. Попробую, как упрусь в ограничения контекста.

Я не использую TypeScript в разработке, я заменяю его JSDoc-аннотациями. Да, вы правы, что количество токенов можно уменьшить, если использовать описание интерфейса вместо его реализации. При достаточно большом объёме проекта это может быть отличной опцией - отделять описания интерфейсов. Можно даже использовать TS-нотацию в них.

И в этом-то и проблема, так как то, что хорошо для сервера или мейнфрейма, не подходит для персональной машины, и переделать до общеупотребительного уровня, этот продукт так и не получилось.

И все смартфоны такие "да что за чушь он несёт?!"

Так-то и iOS, и macOS - *nix-based операционки.

Мне определённо нравится, что в информпространстве начало всё чаще появляться слово "симбиоз" в контексте размышлений о будущем ИИ и человека.

А LLM может вам дать рекомендации, как оформлять статьи так, чтобы они проще "грузились" в "кожаных"?

Не то, чтобы я досконально изучил все перечисленные публикации - я пока не нашёл для себя мотива это делать. Но у меня, как у многих других, уже намётан глаз на "нагенерённый" текст. И если этот текст "не цепляет" с первых абзацев, дальше я его не читаю - пусть нейронка перескажет. Так вот, из пересказа 4 ваших текстов я так и не понял, что превращает "Водопад 1" в "Водопад 2"? Применение LLM? Ну так они сейчас везде. Чем связка "Водопад 1 vs Схватка 1" кардинально отличается от связки "Водопад 2 vs Схватка 2"?

Вы на полном серьёзе думаете, что Роскомнадзор занимается (должен заниматься) блокировками кого бы то ни было на Хабре?

И конечно же ChatGPT "помогший" оформить тезисы в текст, насытив примерами и скорректировавший форматирование.

А вот это уже лишнее. Мысли от человека к человеку нужно передавать компактно. Например так:

"С возвращением линейного подхода разработки, усиленного LLM, один разработчик способен заменить целую команду. Водопад стал гибким: LLM ускоряют анализ, проектирование, реализацию, тестирование и документацию. Это эпоха автономных экспертов, способных создавать сложные системы в одиночку. Производительность растёт, а необходимость в командной работе снижается." (c) LLM после сжатия оригинала

Вот тут у меня вопрос, а почему это линейный подход (водопад) вдруг вернулся? А куда итерационный делся? LLM вообще-то всё равно, кого усиливать - линейника или итерационщика.

С остальным согласен. В одиночку (с LLM) стало на порядок проще разрабатывать.

Кратно. Вплоть до "на порядок".

А ещё все забыли про Lynx ;(

Но вот лично мне тяжело сопереживать людям, которые сознательно сидят на версии ОС минус 2-3 от текущей.

Information

Rating
Does not participate
Location
Рига, Латвия, Латвия
Date of birth
Registered
Activity

Specialization

Fullstack Developer
Lead
From 3,000 €
JavaScript
HTML
CSS
Node.js
Vue.js
Web development
Progressive Web Apps
PostgreSQL
MySQL
GitHub