Pull to refresh

Comments 10

Это неправильная логика. Правильный путь начинается с процесса. Какую задачу человек или команда реально решают? Где именно в процессе теряются время, деньги, качество или скорость? Где нужен ИИ, а где хватит обычной автоматизации?

Не боитесь такие тайны раскрывать? Индустрия ИИ может обидеться на такое: "... хватит обычной автоматизации". Вы бы еще написали: "... хватит обычной абсолютно детерминированной автоматизации". Есть данные что индустрия ИИ способна чувствовать угрозу своему существованию. Человечешки должны ИИ развивать-кормить, а не свои непонятные задачи решать.

я это в универах преподаю

) Отличная статья-манифест для выступления с красивой презентацией перед топами. Ноль конкретики, тривиальные тезисы, красивая упаковка.

так и есть, вас что-то конкретное из статьи интересует?

> Минус: "Текст похож на сгенерированный"

вам не угодишь

Хорошая статья. На мой взгляд, наглядно показывающая, что LLM - не магия, а инструмент. И использовать его нужно так же, как и раньше, про любом улучшении бизнес процесса. Типа

  1. понять, какие метрики мы улучшаем, выраженное через измеряемое (быстрее, дешевле, надежнее), а не абстрактное "удобнее".

  2. метрики контроля процесса и результата

  3. стоимость внедрения всего этого (ожидаемая, понятно)

Evals и governance в перемешку с русским текстом. Когда в универе преподаете тоже в части терминов на английский переходите?

Да, конечно. Что-то смущает?

Я бы не говорил что модель не важна. Модель и ее выбор тоже очень важный параметр. В остальном, согласен. Спасибо!

Разные модели по разному себя ведут в разных залачах. Поэтому выбор модели LLM под конкретные задачи, очень важен. Даже промпты пишутся по разному, под разные (даже по топ) LLM. А про локальные вообще молчу… Банально 4B распазнала скрины с игры, результаты матча, с 100% точностью, а Chatgpt на 70%… Казалось бы, а вот так получилось… У меня не мало опыта в разных тестах с LLM. Ну не доверяю я разным бенчмаркам…

Банально, задачи DevOps лучше выполняют модели из Китая. Как пример чисто. Mistral прекрасно справляется с некоторой логикой, причем даже на мелкиих моделях может дать очень сильный результат.

Поэтому, как не крутите, а от модели тоже многое зависит… Качество можно сильно улучшить правильным выбором LLM.

да, конечно, если взять малую модель на 4B и большую с 100B+ параметров, то результаты, очевидно, будут различны

Sign up to leave a comment.

Articles