Вспоминается университет. Теорию выбора преподают в рамках дисциплины «Квалиметрия и системный анализ». В книгах по этой дисциплине есть неплохой материал по анализу экспертных оценок(например определение предвзятых и выбивающихся из общей картины экспертов, удаления их из результатов)
Для кого — в рамках дисциплины «экономико-математических методов», для вас — «квалиметрия и системный анализ», для нас — «проектирование экспертных систем». Довольно обширная область.
Отлично! Жаль, что этот пост не был написан в начале года, я бы сэкономил время (писал работу по оценке технического состояния оборудования и аварийных рисках на основе экспертных оценок). Написано приятно для глаз, автор, пишите еще!
Сатью не читай, коммент пиши? habrahabr.ru/post/189610
Копипаста картинок формул с википедий. Если в конце концов не погрузятся — перезалью через интерфейс.
Помнится делали систему предсказания результатов футбольных матчей, но по мнению не экспертов, а простых людей, без предварительной фильтрации по квалификации (субъективная оценка своей квалификации была в метаданных и системой не учитывалась). На троичном результате («выиграет А», «выиграет Б», «ничья» ) довольно высокая точность была, выше чем на статистическом анализе результатов матчей. Но самое интересное было разбирать ответы отдельных людей. Например, было пара человек (из пары десятков респондентов), которые ошибались в 90% случаев. Один считал себя экспертом, а другой «ничего не понимаю, футболом не интересуюсь». А вот чистого «рандома» не было — или значительная положительная корреляция, или значительная отрицательная. Но со временем точность начала падать на неизменной выборке. Гипотезы были, основной мотив всех — включалась обратная связь. Но проверить не успели — грант закончился. Вообще темой исследования было принятие решений подсознанием при неполных (вплоть до отсутствия) явных данных и ограниченном времени на ответ.
Может я излишне придираюсь, но как-то сложно в данном случае добавить полезной информации, поскольку область очень обширна, а в статье сборная солянка из того, что оказалось под рукой.
Эксперты не всегда ранжируют все имеющиеся альтернативы (и не всегда это возможно). Не всегда есть возможность сравнить все альтернативы попарно.
Говоря о согласованности мнений экспертов, стоит упомянуть, что ранжирование не подразумевает (или не всегда подразумевает) расстояние. То есть у одного эксперта A>B>C означает, что A>>B>C, а у другого A>B>>C. И всякие корреляции и расчеты средних оценок тут не помогут. Как вариант, считать индекс согласованности. Что-то типо количества противоречивых замкнутых цепочек мнений экспертов (Первый считает, что A лучше Б, второй, что Б лучше С, а третий, что С лучше А) к количеству всех подобных цепочек.
Рейтинги обычно базируются на некоторой вероятностной модели, поэтому нужно тщательно учитывать область их возможного применения.
А почему все эксперты равноценны? Я бы, как минимум, добавил веса для экспертов. Кроме того, можно попробовать сделать балансировочную систему, в которой веса экспертов зависят от предыдущих оценок, а вес, в свою очередь, влияет на вес текущей оценки.
Не вес только, а корреляцию. На старте все равны. Чуть выше я писал про исследование. На начальных этапах было выявлено, что присваивать веса кому-то априори может плохо повлиять на точность.
Методы экспертных оценок