сорри если я не в тему но как по мне так это слово нужно забыть
В корень несогласен. Но не в том плане, что существуют секретные фразы, которые улучшают ответ на 100500%, а в том, что надо понимать, чего конкретно ты хочешь от модели и какой ответ желаешь получить. Это и есть промпт.
По состоянию на июль 2025 года публикаций, которые бы прямо доказывали, что если нейросеть сообщает пользователю о своей экспертизе по теме (например, заявляет «я эксперт»), то ее ответы становятся лучше именно в этой области, среди доступных открытых исследований не найдено. Однако можно привести ряд близких научных результатов и фактов, которые иллюстрируют смежные эффекты: Исследования показывают, что у экспертов (людей) существует тенденция более успешно отличать качественный (экспертный) контент и проводить дифференциацию между человеческим и AI-текстом только в тех доменах, где есть настоящая экспертиза. Например, участники с PhD по информатике были существенно лучше в выявлении научных абстрактов, созданных искусственным интеллектом, чем тексты для широкой аудитории, что объясняется их профессиональными знаниями и стилем научной коммуникации. Но указывающие себя как эксперты участники, без реальной глубокой специализации, не показывали существенного прироста точности В исследованиях по взаимодействию человека и AI выявлено, что показатели уверенности (self-confidence shaping) себя или другой стороны сильно влияют на процесс принятия решений и качество совместной работы. Формально: если человек воспринимает рекомендации AI как более уверенные и профессиональные, то склонен полагаться на них сильнее, но это не означает автоматического повышения объективного качества ответа Прямого исследования, где AI специально заявляет о своем экспертном статусе, пока нет в открытом доступе. Однако есть работы, которые показывают, что как для людей, так и для AI, восприятие источника как «эксперта» может влиять на доверие к содержимому, но не гарантирует повышение фактической точности ответа В одной из статей сообщается, что если AI снабжен открытой декларацией об источнике (например, явно указано, что абзац написан не экспертом, а генеративным AI), то воспринимаемая компетентность автора снижается, даже если качество самой информации объективно не меняется Вывод: Пока что нет опубликованных научных работ, где бы напрямую доказывалось, что простое заявление нейросети о своей экспертизе (например, «я являюсь экспертом в химии») приводит к улучшению объективного качества ее ответов по сравнению с нейросетью, не делающей такого заявления. Основные исследования показывают, что само восприятие экспертизы может влиять на доверие пользователя, частоту принятия советов и стиль взаимодействия, но не обязательно улучшает фактическое качество или точность ответа ИИ
Честно говоря местами не то, что сложно... душно, буд-то нейронка в написании помогала. Но в целом годно.
Тебе как в лс написать?
И в номинации лучшей фразы месяца награждается.
Орал минут 10.
Почему бы сразу не "агрессивная коммунистическая антизападная открытость"
Спасибо за статью. Только до сих пор понятно, что такое top_p и top_k.
В корень несогласен. Но не в том плане, что существуют секретные фразы, которые улучшают ответ на 100500%, а в том, что надо понимать, чего конкретно ты хочешь от модели и какой ответ желаешь получить. Это и есть промпт.
Я как раз статью пишу про промпты. И ты только что подтвердил некоторые моменты из статьи. Спасибо)
По сути да, вот, что говорит perplexity
ответы в области экспертизы будут лучше
По состоянию на июль 2025 года публикаций, которые бы прямо доказывали, что если нейросеть сообщает пользователю о своей экспертизе по теме (например, заявляет «я эксперт»), то ее ответы становятся лучше именно в этой области, среди доступных открытых исследований не найдено. Однако можно привести ряд близких научных результатов и фактов, которые иллюстрируют смежные эффекты:
Исследования показывают, что у экспертов (людей) существует тенденция более успешно отличать качественный (экспертный) контент и проводить дифференциацию между человеческим и AI-текстом только в тех доменах, где есть настоящая экспертиза. Например, участники с PhD по информатике были существенно лучше в выявлении научных абстрактов, созданных искусственным интеллектом, чем тексты для широкой аудитории, что объясняется их профессиональными знаниями и стилем научной коммуникации. Но указывающие себя как эксперты участники, без реальной глубокой специализации, не показывали существенного прироста точности
В исследованиях по взаимодействию человека и AI выявлено, что показатели уверенности (self-confidence shaping) себя или другой стороны сильно влияют на процесс принятия решений и качество совместной работы. Формально: если человек воспринимает рекомендации AI как более уверенные и профессиональные, то склонен полагаться на них сильнее, но это не означает автоматического повышения объективного качества ответа
Прямого исследования, где AI специально заявляет о своем экспертном статусе, пока нет в открытом доступе. Однако есть работы, которые показывают, что как для людей, так и для AI, восприятие источника как «эксперта» может влиять на доверие к содержимому, но не гарантирует повышение фактической точности ответа
В одной из статей сообщается, что если AI снабжен открытой декларацией об источнике (например, явно указано, что абзац написан не экспертом, а генеративным AI), то воспринимаемая компетентность автора снижается, даже если качество самой информации объективно не меняется
Вывод:
Пока что нет опубликованных научных работ, где бы напрямую доказывалось, что простое заявление нейросети о своей экспертизе (например, «я являюсь экспертом в химии») приводит к улучшению объективного качества ее ответов по сравнению с нейросетью, не делающей такого заявления. Основные исследования показывают, что само восприятие экспертизы может влиять на доверие пользователя, частоту принятия советов и стиль взаимодействия, но не обязательно улучшает фактическое качество или точность ответа ИИ
Учитывая, что пользователь создан вчера... Охотно верится.
Главный вопрос -
нахзачем создавать таких ботов?да, хотел написать
Я perplexity почти не пользуюсь. И мне как-то до лампочки. Но может другие пользователи ответят.
И то верно. Исправил.
Кстати, да. Про комментирование строк надо будет написать. Спасибо.