Nikita Kulin @mrcoolinhabr
Senior NLP Engineer | RnD Team Lead | LLM Enjoyer
Информация
- В рейтинге
- 1 028-й
- Откуда
- Санкт-Петербург, Санкт-Петербург и область, Россия
- Зарегистрирован
- Активность
Специализация
Data Scientist, ML Engineer
Lead
Senior NLP Engineer | RnD Team Lead | LLM Enjoyer
но как любой ответ llm, считайте это больше мнением, а не фактом - верифицировать в любом случае стоит или довериться на усмотрение
Если оптимизировать промпты обычным людям, то им нужно хотя бы посмотреть на парочку хороших промптов и как они выстраиваются - этого достаточно. Как вариант, начинать с основного запроса и далее детализировать, делать яснее и конкретизировать - как бы вы объясняли человеку, что вы от него хотите.
"Да и зачем вам эти «инженеры» если вы подключаете к одной llm другую llm?" - среди упомянутых мною методов такого подхода нет) не знаю, откуда вы это взяли
На практике всегда ответы модели верифицируются, нет гарантий не получить галлюцинации
Практика и научные исследования как раз подтверждают, вы не до конца изучили этот момент, если такое пишите
Согласен с тем, что у вас нестандартный взгляд)
1) "кажется логичным получать образование и его использовать, понимать что-то на самом деле самому, не полагаясь во всём на нейронки" - в посте эта тема вообще никак это не затрагивается, не вижу смысла продолжать
2) весь второй абзац - просто тезисы вне реальности, вы не можете понять о чем и для чего статья? - тогда она не для вас)
Касательно полезности интересный момент: ведь это полезно не только промпт-инженерам, но и обычным людям, которые вне контекста ИИ и буквально находятся в использовании ИИ на уровне новичка (зачастую из-за этого они не получают нужного ответа)
И тут есть выбор:
1) Платить за курсы промпт-инжиниринга
2) Помочь пользователям в подсказках, как составлять промпт, с помощью автопромптинга
Кажется, что логичный и более продуктивный выбор 2)
Это больше про сложные с точки зрения постановки задачи и инструкций. И здесь не идет речь о нескольких LLM-ках, в рассмотренных алгоритмах используется одна модель.
Моделька топ, очень хороша в поиске. Ставлю лайк 👍🏻
Спасибо за замечание, по второй ссылке видимо они перенесли страницу, обновил
Илья, спасибо за статью, крутая работа!
Корректировку relevance score производил взвешенным средним
vector_weight = 0.3, llm_weight = 0.7
Были другие эксперименты с весами корректировки - 50/50? Как были выбраны финальные коэффициенты?
Благодарю!
Благодарю!
Спасибо за пример!