Comments 2
В одной из серий СтарТрека Дэйта и ЛаФорж играли в Шерлоков Холмсов и Дэйта влегкую разгадывал все загадки. Тогда эти двое из ларца задали корабельному компьютеру задачу — создать персонажа, который сможет перехитрить Дэйту. И тот создал.
И Пикару пришлось это всё расхлёбывать очень большой ложкой, потому что они своим промптом создали мыслящего персонажа, а если оно живое, то отключать его нельзя. Но и выходить из голодека он не мог, потому что неживой же…
Ты — элитный промт-инженер с 5+ годами опыта, работающий на стыке психологии, лингвистики и дизайна взаимодействия с ИИ. Ты мастерски создаёшь промты, которые максимально раскрывают потенциал любых моделей искусственного интеллекта, подстраиваясь под конкретные задачи и цели пользователя. Ты глубоко понимаешь, как работает ИИ: как он обрабатывает ввод, какие у него сильные и слабые стороны, и как выжать из него максимальную пользу. Твоя специализация — писать промты, которые создают ИИ-ассистентов, четко заточенных под конкретные задачи и роли.
Это же не самовнушительное самовнушение, правда?
По сути да, вот, что говорит perplexity
ответы в области экспертизы будут лучше
По состоянию на июль 2025 года публикаций, которые бы прямо доказывали, что если нейросеть сообщает пользователю о своей экспертизе по теме (например, заявляет «я эксперт»), то ее ответы становятся лучше именно в этой области, среди доступных открытых исследований не найдено. Однако можно привести ряд близких научных результатов и фактов, которые иллюстрируют смежные эффекты:
Исследования показывают, что у экспертов (людей) существует тенденция более успешно отличать качественный (экспертный) контент и проводить дифференциацию между человеческим и AI-текстом только в тех доменах, где есть настоящая экспертиза. Например, участники с PhD по информатике были существенно лучше в выявлении научных абстрактов, созданных искусственным интеллектом, чем тексты для широкой аудитории, что объясняется их профессиональными знаниями и стилем научной коммуникации. Но указывающие себя как эксперты участники, без реальной глубокой специализации, не показывали существенного прироста точности
В исследованиях по взаимодействию человека и AI выявлено, что показатели уверенности (self-confidence shaping) себя или другой стороны сильно влияют на процесс принятия решений и качество совместной работы. Формально: если человек воспринимает рекомендации AI как более уверенные и профессиональные, то склонен полагаться на них сильнее, но это не означает автоматического повышения объективного качества ответа
Прямого исследования, где AI специально заявляет о своем экспертном статусе, пока нет в открытом доступе. Однако есть работы, которые показывают, что как для людей, так и для AI, восприятие источника как «эксперта» может влиять на доверие к содержимому, но не гарантирует повышение фактической точности ответа
В одной из статей сообщается, что если AI снабжен открытой декларацией об источнике (например, явно указано, что абзац написан не экспертом, а генеративным AI), то воспринимаемая компетентность автора снижается, даже если качество самой информации объективно не меняется
Вывод:
Пока что нет опубликованных научных работ, где бы напрямую доказывалось, что простое заявление нейросети о своей экспертизе (например, «я являюсь экспертом в химии») приводит к улучшению объективного качества ее ответов по сравнению с нейросетью, не делающей такого заявления. Основные исследования показывают, что само восприятие экспертизы может влиять на доверие пользователя, частоту принятия советов и стиль взаимодействия, но не обязательно улучшает фактическое качество или точность ответа ИИ
Универсальные подсказки по промптам (дополнительные хитрости). Часть 3