Может у неё есть какая-то инсайдерская информация, почему она перевзвесила вероятности для машины dopusteam :) Или она ему намекала, что может поспособствовать перераспределению вероятностей.
А какой другой может быть вариант? Как раз если от меры идти, то при прочих равных условиях (а условия равны, если нет априорной информации), вероятности в пространстве событий должны быть распределены равномерно. Нет никаких причин отдавать какому-то событию предпочтение.
Можно и подискутировать.
Если вы рассматриваете эксперимент с двумя исходами «выпала 6», «не выпала 6», то априорная вероятность в отсутствии дополнительной информации 1/2.
То, что вы ждётё 1/6, происходит из-за того, что вы пользуетесь дополнительной информацией «Кубик с щестью гранями, форма идеальна и распределение массы равномерно по всему объёму».
Если у вас этой информации нет, то 1/2.
Ссылка не про кортизол повреждает гиппокамп, но намного интереснее.
Думаю, что ссылка принесёт большую пользу Роберт Сапольски «Биология поведения человека»
P.S. Мне самому очень нравится.
Я рад, что вы знаете английский.
Ещё раз — я писал в системе координат болезнь есть/нет -> true|false, оценка -> positive|negative.
Посмотрите здесь
Могу попросить прощения, что случайно ввёл в заблуждение, если хотите.
Можно и так, только не учитывается, что нерабочий прибор может показать правильный результат.
Что это значит?
Вы понимаете, что «прибором» можно считать и подбрасывание монетки?
И на этом основаны некоторые статистические проверки.
Когда сравнивается ответ настоящего прибора и «прибора»-монетки.
Например, позволяет избежать эффекта Бонферрони.
Вот выдержка из «Mining of Massive Datasets», прочтите, это интересно.
Извините, но тут путаница.
Вы же сами мне приводили ссылку про Precision and recall.
Это основополагающие вещи для определения качества оценки.
Давайте для простоты перейдём на русский язык.
Мы работает с гипотезой с двумя исходами (рак/здоровый).
В случае определения заболевания пациенты находятся в двух группах: имеющие заболевание (рак) и не имеющие (здоровый).
Это реальные объективные данные, которые нам не известны.
С помощью прибора пытаемся определить кто больной, а кто нет.
Прибор выдаёт свои да/нет, и может ошибаться.
Тогда получается четыре исхода:
1. человек болен, и прибор говорит, что он болен (рак & да)
2. человек болен, но прибор ошибается и говорит, что он здоров (рак & нет)
3. человек здоров, но прибор ошибается и говорит, что он болен (здоров & нет)
4. человек здоров, и прибор говорит, что он здоров (здоров & нет)
Всё, больше исходов нет.
Из них 1 и 4 — это правильные ответы, а 2 и 3 — ошибки.
2 исход называется ошибкой первого рода (гипотеза правильная, а оценка ошибочна)
3 исход — ошибкой второго рода (гипотеза неправильная, на самом деле человек здоров, а прибор перебдел).
Стоимости ошибок первого и второго рода, как правило, разные, поэтому и приборы настраиваются соответственно.
Для турникета в метро будет дороже ошибка первого рода, и её надо минимизировать, а у системы предупреждения о ракетном нападении — дороже ошибка второго рода.
Смотря какого результата ожидаете :)
Обычно за истину берётся то, что определяется.
Если определяете болезнь, то и истинным исходом будет наличие заболевания.
Извините, немного не понял.
Рассматривается четыре типа исходов:
cancer & positive
cancer & negative
healthy & positive
healthy & negative
Какой из них этот случай?
Да вот же Курс о Deep Learning на пальцах
Это просто даже сравнить нельзя по качеству наполнения и подачи материала.
В этой статье, мягко говоря, каша и сумбур.
Особенно финал понравился.
Для человека, который первый раз слышит о CNN, не очень удобоваримо.
А зачем возвращать?
Это же та же ситуация с именованием переменных: если переменная «очень временная», то можно её обозвать коротким именем, не несущим смысла, а если полноценная, будь добр придумать достойное имя.
И анонимные типы, и кортежи расширяют возможности программиста, который обязан пользоваться здравым смыслом.
С точки зрения банальной эрудиции, не каждый индивидуум, критически метафизирующий абстракции, способен опровергнуть тенденции парадоксальных эмоций.
Павлины говоришь… хех!
Если вы рассматриваете эксперимент с двумя исходами «выпала 6», «не выпала 6», то априорная вероятность в отсутствии дополнительной информации 1/2.
То, что вы ждётё 1/6, происходит из-за того, что вы пользуетесь дополнительной информацией «Кубик с щестью гранями, форма идеальна и распределение массы равномерно по всему объёму».
Если у вас этой информации нет, то 1/2.
Думаю, что ссылка принесёт большую пользу
Роберт Сапольски «Биология поведения человека»
P.S. Мне самому очень нравится.
Ещё раз — я писал в системе координат болезнь есть/нет -> true|false, оценка -> positive|negative.
Посмотрите здесь
Могу попросить прощения, что случайно ввёл в заблуждение, если хотите.
Вы правы, тут с точностью до маркировки.
В маркировке en.wikipedia.org/wiki/Sensitivity_and_specificity да, у меня неправильно.
Что это значит?
Вы понимаете, что «прибором» можно считать и подбрасывание монетки?
И на этом основаны некоторые статистические проверки.
Когда сравнивается ответ настоящего прибора и «прибора»-монетки.
Например, позволяет избежать эффекта Бонферрони.
Вот выдержка из «Mining of Massive Datasets», прочтите, это интересно.
Но всё таки как? Как вы делали пересчёт?
Смотрите что пишете:
То есть, и в первом и во втором случаях болезнь есть, но в первом она маркируется как true, а во втором как false.
Комментарии излишни.
Вы же сами мне приводили ссылку про Precision and recall.
Это основополагающие вещи для определения качества оценки.
Давайте для простоты перейдём на русский язык.
Мы работает с гипотезой с двумя исходами (рак/здоровый).
В случае определения заболевания пациенты находятся в двух группах: имеющие заболевание (рак) и не имеющие (здоровый).
Это реальные объективные данные, которые нам не известны.
С помощью прибора пытаемся определить кто больной, а кто нет.
Прибор выдаёт свои да/нет, и может ошибаться.
Тогда получается четыре исхода:
1. человек болен, и прибор говорит, что он болен (рак & да)
2. человек болен, но прибор ошибается и говорит, что он здоров (рак & нет)
3. человек здоров, но прибор ошибается и говорит, что он болен (здоров & нет)
4. человек здоров, и прибор говорит, что он здоров (здоров & нет)
Всё, больше исходов нет.
Из них 1 и 4 — это правильные ответы, а 2 и 3 — ошибки.
2 исход называется ошибкой первого рода (гипотеза правильная, а оценка ошибочна)
3 исход — ошибкой второго рода (гипотеза неправильная, на самом деле человек здоров, а прибор перебдел).
Стоимости ошибок первого и второго рода, как правило, разные, поэтому и приборы настраиваются соответственно.
Для турникета в метро будет дороже ошибка первого рода, и её надо минимизировать, а у системы предупреждения о ракетном нападении — дороже ошибка второго рода.
Обычно за истину берётся то, что определяется.
Если определяете болезнь, то и истинным исходом будет наличие заболевания.
Если человек болен, значит ответ true.
В чём сомнения?
Мы ищем случай заболевания.
Перевожу в вашу систему координат.
cancer & positive == true positive
cancer & negative == true negative
healthy & positive == false positive
healthy & negative == false negative
Рассматривается четыре типа исходов:
cancer & positive
cancer & negative
healthy & positive
healthy & negative
Какой из них этот случай?
Курс о Deep Learning на пальцах
Это просто даже сравнить нельзя по качеству наполнения и подачи материала.
В этой статье, мягко говоря, каша и сумбур.
Особенно финал понравился.
Для человека, который первый раз слышит о CNN, не очень удобоваримо.
Это же та же ситуация с именованием переменных: если переменная «очень временная», то можно её обозвать коротким именем, не несущим смысла, а если полноценная, будь добр придумать достойное имя.
И анонимные типы, и кортежи расширяют возможности программиста, который обязан пользоваться здравым смыслом.
С точки зрения банальной эрудиции, не каждый индивидуум, критически метафизирующий абстракции, способен опровергнуть тенденции парадоксальных эмоций.
Павлины говоришь… хех!