Как стать автором
Обновить
108.46
Open Data Science
Крупнейшее русскоязычное Data Science сообщество

Теория вероятностей в машинном обучении. Часть 2: модель классификации

Время на прочтение14 мин
Количество просмотров16K

В предыдущей части мы рассматривали вероятностную постановку задачи машинного обучения, статистические модели, модель регрессии как частный случай и ее обучение методом максимизации правдоподобия.

В данной части рассмотрим метод максимизации правдоподобия в классификации: в чем роль кроссэнтропиифункций сигмоиды и softmax, как кроссэнтропия связана с "расстоянием" между распределениями вероятностей и почему модель регрессии тоже обучается через минимизацию кроссэнтропии. Данная часть содержит много отсылок к формулам и понятиям, введенным в первой части, поэтому рекомендуется читать их последовательно.

В третьей части (статья планируется) перейдем от метода максимизации правдоподобия к байесовскому выводу и его различным приближениям.

Данная серия статей не является введением в машинное обучение и предполагает знакомство читателя с основными понятиями. Задача статей - рассмотреть машинное обучение с точки зрения теории вероятностей, что позволит по новому взглянуть на проблему, понять связь машинного обучения со статистикой и лучше понимать формулы из научных статей. Также на описанном материале строятся более сложные темы, такие как вариационные автокодировщики (Kingma and Welling, 2013), нейробайесовские методы (Müller et al., 2021) и даже некоторые теории сознания (Friston et al., 2022).

Содержание текущей части

  • В первом разделе мы рассмотрим модель классификации, кроссэнтропию и ее связь с методом максимизации правдоподобия, а также ряд несколько фактов про функции softmax и sigmoid.

  • Во втором разделе поговорим о связи минимизации кроссэнтропии с минимизацией расхождения Кульбака-Лейблера, и как минимизация расхождения Кульбака-Лейблера может помочь в более сложных случаях, чем обычная классификация и регрессия.

Звездочкой* отмечены дополнительные разделы, которые не повлияют на понимание дальнейшего материала.

1. Вероятностная модель классификации
        1.1. Модель классификации и функция потерь
        1.2. Функция softmax в классификации
        1.3. Температура softmax и операция hardmax*
        1.4. Функция sigmoid в классификации
2. Кроссэнтропия в вероятностных моделях
        2.1. Разметка с неуверенностью
        2.2. Кроссэнтропия и расхождение Кульбака-Лейблера
        2.3. Кроссэнтропия как максимизация правдоподобия*
        2.4. Кроссэнтропия в задаче регрессии*
        2.5. Кроссэнтропия с точки зрения оптимизации*

1. Вероятностная модель классификации

1.1. Модель классификации и функция потерь

Чтобы задать вероятностную модель, нам нужно определить, в какой форме она будет предсказывать распределение p(y|x). Если задаче регрессии мы ограничивали распределения p(y|x) только нормальными распределениями, то в задаче классификации это будет не оптимальным решением, так как классы по сути представляют собой неупорядоченное множество (хотя на них есть порядок, но лишь технически, и он может быть выбран произвольно). В задаче классификации мы можем предсказывать вероятность для каждого класса, и тогда модель будет выдавать столько чисел, сколько есть классов в Y.

Пусть мы имеем датасет X = \{x_i, y_i\}_{i=1}^N и предполагаем, что все примеры независимы и взяты и одного и того же распределения (i.i.d., см. предыдущую часть, раздел 3.4). Для обучения модели снова применим метод максимизации правдоподобия, то есть будем искать такие параметры \theta_{best} , которые максимизируют p(X|\theta). В разделе 2.3 мы уже расписывали формулу, которая получается в результате, но ввиду ее важности повторим ее еще раз. Первое равенство ниже следует из i.i.d.-гипотезы, второе по правилам математики:

\begin{split} \theta_{best} &= \underset{\theta}{\text{arg max}}\ p(X, \theta) \\ &= \underset{\theta}{\text{arg max}} \prod\limits_{i=1}^N p(y_i|x_i, \theta) \\ &= \underset{\theta}{\text{arg min}} \sum\limits_{i=1}^N -\log p(y_i|x_i, \theta) \end{split} \tag{1}

Таким образом, для максимизации вероятности выборки данных p(X|\theta)нам нужно минимизировать сумму величин

-\log p(y_i|x_i, \theta) \tag{2}

для всех обучающих примеров (x_i, y_i).

В модели регрессии эта величина была сведена к квадрату разности предсказания и верного ответа (часть 1, формула 7). Но в задаче классификации на данном этапе считать больше ничего не нужно. Нашей задачей было задать вероятностную модель, определить с ее помощью функцию потерь и таким образом свести обучение к задаче оптимизации, то есть минимизации функции потерь, и мы это уже сделали. Функция потерь (2) называется кроссэнтропией (также перекрестной энтропией, или logloss). Она равна минус логарифму предсказанной вероятности для верного класса y_i.

Категориальная кроссэнтропия

Возьмем произвольный пример и выданные моделью вероятности обозначим за p_{pred}[1], \dots, p_{pred}[K], где K - количество классов. К метке класса (эталонному ответу) применим one-hot кодирование, получив вектор p_{true}[1], \dots, p_{true}[K], в котором лишь один элемент равен единице, а остальные равны нулю. Тогда выражение (2) можно рассчитать таким образом:

\text{CrossEntropy}(p_{true}, p_{pred}) = \sum\limits_{i=1}^K p_{true}[i] * \ln (p_{pred}[i]) \tag{3}

Лишь один элемент суммы будет не равен нулю - тот, который соответствует верному классу. Для него первый множитель будет равен единице, а второй будет логарифмом предсказанной вероятности для верного класса, что соответствует выражению (2).

Примечание. На самом деле формула (3) является определением кроссэнтропии, а формула (2) ее частным случаем, когда p_{true}вырождено и назначает вероятность 1 классу с индексом i. О случае, когда это не так, подробнее поговорим во втором разделе.

Бинарная кроссэнтропия

Если класса всего два, то как правило делают следующим образом: модель выдает лишь одно число p_{pred} от 0 до 1, оно рассматривается как вероятность второго класса, а 1 - p_{pred} рассматривается как вероятность первого класса. Пусть p_{true} равно единице, если первый класс верен, иначе равно нулю. Тогда выражение (3) технически можно вычислить следующим образом:

\text{BinaryCrossEntropy}(p_{true}, p_{pred}) = p_{true} * \ln (p_{pred}) + (1-p_{true}) * \ln (1-p_{pred}) \tag{4}

Снова лишь одно слагаемое будет ненулевым, и таким образом мы посчитаем логарифм предсказанной вероятности для верного класса. Формулы (18) и (19) называются категориальной кроссэнтропией (они эквивалентны если p_{true}=1 для одного из классов), формула (18) называется бинарной кроссэнтропией.

В этом разделе мы рассмотрели обучение модели классификации. Часто в классификации упоминают о функции softmax, но почему-то мы о ней ничего не говорили. Складывается ощущение, что мы что-то упустили. В следующем разделе мы поговорим о роли функции softmax в классификации.

1.2. Функция softmax в классификации

В предыдущем разделе мы определили, что модель классификации должна выдавать вероятности для всех классов. Но модель - это не только формат входных и выходных данных, а еще и внутренняя архитектура. Она может быть совершенно разной: для классификации применяются либо нейронные сети, либо решающие деревья, либо машины опорных векторов и так далее.

Рассмотрим для примера нейронную сеть. Пусть мы имеем K классов, и выходной слой нейронной сети выдает K чисел от -\infty до +\infty. Чтобы вектор из K чисел являлся распределением вероятностей, он должен удовлетворять двум ограничениям:

  1. Вероятность каждого класса не может быть ниже нуля

  2. Сумма вероятностей должна быть равна единице

Для удовлетворения первого ограничения лучше чтобы модель выдавала не вероятности, а их логарифмы: если логарифм некой величины меняется от -\infty до +\infty, то сама величина меняется от 0 до +\infty. Чтобы удовлетворялось второе ограничение, каждую предсказанную вероятность мы можем делить на сумму всех предсказанных вероятностей. Такая операция называется L_1-нормализацией вектора вероятностей.

Отсюда мы можем вывести формулу для операции softmax. Эта операция принимает на вход набор из K чисел от -\infty до +\infty (они называются логитами, англ. logits) \{z_i\}_{i=1}^K и возвращает распределение вероятностей из K чисел \{p_i\}_{i=1}^K. Softmax является последовательностью двух операций: взятия экспоненты и L_1-нормализации:

\{p_i\}_{i=1}^K = \text{softmax}\big(\big\{z_j\big\}_{i=1}^K\big) = \bigg\{\cfrac{\exp (z_i)}{\sum_{j=i}^K \exp (z_i)}\bigg\}_{i=1}^K \tag{5}

Таким образом, softmax - это векторная операция, принимающая вектор из произвольных чисел (логитов) и возвращающая вектор вероятностей, удовлетворяющий свойствам 1 и 2. Она применяется как завершающая операция во многих моделях классификации - таким образом мы можем быть уверены, что выданные моделью числа будут именно распределением вероятностей (т. е. удовлетворять свойствам 1 и 2). Существуют и различные альтернативы функции softmax, например sparsemax (Martins and Astudillo, 2016).

Модель, предсказывающая K логитов, к которым применяется операция softmax, будет обладать только одним ограничением: она не может предсказывать строго нулевые или строго единичные вероятности. Зато такую модель можно обучать градиентным спуском, так как функция softmax дифференцируема.

Технически иногда функция softmax рассматривается как часть модели, иногда как часть функции потерь. Например, в библиотеке Keras мы можем добавить функцию активации 'softmax' в последний слой сети и использовать функцию потерь CategoricalCrossentropy(), а можем наоборот не добавлять функцию активации в последний слой и использовать функцию потерь CategoricalCrossentropy (from_logits=True), которая включает в себя расчет softmax (и ее производной при обратном проходе). С математической точки зрения разницы между этими двумя способами не будет, но погрешность расчета функции потерь и производной во втором случае будет меньше. В PyTorch мы можем применить LogSoftmax вместе с NLLLoss (negative log-likelihood), а можем вместо этого применить torch.nn.functional.cross_entropy, который включает в себя расчет LogSoftmax.

1.3. Температура softmax и операция hardmax*

У функции softmax (5) есть важное свойство: если ко всем логитам z_i прибавить одну и ту же константу C, то вероятности p_i никак не изменятся, так как после применения экспоненты константа из слагаемого превратится в множитель, и множители в числителе и знаменателе сократятся. Однако если все логиты z_i умножить на некую константу C, то тогда вероятности p_i изменятся: если C<1, то вероятности p_i станут ближе друг к другу, что означает меньшую уверенность в предсказании, если же C>1, то наоборот мы получим большую уверенность в предсказании. Этот дополнительный множитель, если он используется, называется "температурой" softmax.

При C \to \infty тот класс, логит которого был наибольшим, получит вероятность 1, остальные классы - вероятность 0, такую операцию по аналогии часто называют hardmax. Иногда ее упоминают как argmax, потому что hardmax можно считать one-hot кодированием индекса, который возвращает операция argmax.

На этом примере видно то, как употребляются понятия soft и hard в машинном обучении: hard-операции (hardmax, argmax, hard attention, hard labeling, sign) связаны с выбором некоего элемента в множестве, а soft-операции (softmax, soft attention, soft labeling, soft sign) являются их дифференцируемыми аналогами. Например, в softmax можно рассчитать производную каждого выходного элемента по каждому входному. В hardmax или argmax это не имеет смысла: производные всегда будут равны нулю.

Это можно понять даже не прибегая к расчетам, поскольку у дифференцируемости есть очень простая наглядная интерпретация: операция y=f(x) дифференцируема если плавное изменение x приводит к плавному изменению y. Это верно для операции softmax, и благодаря этому мы можем применять градиентный спуск или градиентный бустинг. Но в операции hardmax плавное изменение логитов приводит к тому, что выходные вероятности либо остаются такими же, либо меняются скачкообразно, поэтому (без дополнительных ухищрений) градиентный спуск и градиентный бустинг оказываются неприменимы.

1.4. Функция sigmoid в классификации

Рассмотрим случай бинарной классификации. Представим, что у нас есть 2 класса, и модель выдает 2 логита (z_1, z_2), из которых с помощью softmax получаем вероятности (p_1, p_2), сумма которых равна единице. Но прибавление одной и той же константы к (z_1, z_2) не меняет вероятности, поэтому иметь две "степени свободы" излишне, и имеет смысл зафиксировать z_1 в значении 0. Теперь меняя z_2 модель будет менять вероятности классов (p_1, p_2). Значения z_2 и p_2, согласно (21), будут связаны следующим образом:

p_2 = \cfrac{exp(z_2)}{exp(z_1) + exp(z_2)} = \cfrac{exp(z_2)}{1 + exp(z_2)}

Такая функция носит название сигмоиды:

\sigma(x) = \cfrac{e^x}{1+e^x} = \cfrac{1}{1+e^{-x}} \tag{6}

Примечание. В более широком смысле, сигмоидами называют и другие функции одной переменной, график которых выглядит похожим образом. Для преобразования логита в вероятность вместо \sigma(x) можно использовать любую и этих функций, разница между ними не принципиальна. Также сигмоида иногда используется в промежуточных слоях нейронных сетей.

К чему мы в итоге пришли? К тому, что если класса всего два, то иметь два логита в модели не обязательно, достаточно всего одного, к которому применяется сигмоида вместо softmax. Функция потерь при этом становится бинарной кроссэнтропией (4). На самом деле то же рассуждение можно применить и к мультиклассовой классификации: если классов N, то достаточно иметь N-1 логитов, но так обычно не делают.

Теперь запишем функцию, обратную сигмоиде. Эта функция преобразует вероятность обратно в логит и называется logit function:

\sigma^{-1}(p) = \log \cfrac{p}{1-p}

Если p - это вероятность второго класса, а 1-p - вероятность первого класса, то выражение p/(1-p) означает то, во сколько раз второй класс вероятнее первого. Это выражение называется odds ratio. Логит является его логарифмом и называется log odds ratio.

Если мы используем в обучении сигмоиду, то модель непосредственно предсказывает логит \sigma^{-1}(p), то есть логарифм того, во сколько раз второй класс вероятнее первого.

2. Кроссэнтропия в вероятностных моделях

2.1. Разметка с неуверенностью

В выражениях для функции потерь в классификации (2) и регрессии (часть 1, формула 7) мы предполагали наличие для каждого примера x_i \in X эталонного ответа y_i \in Y, к которому модель должна стремиться. Но в более общем случае эталонный ответ y_i может быть не конкретным значением, а распределением вероятностей на множестве Y, так же как и предсказание модели. То есть в разметке датасета значения y_i указаны с определенной степенью неуверенности: если это классификация, то могут быть указаны вероятности для всех классов, если регрессия - то может быть указана погрешность.

Ситуация, когда разметка датасета содержит некую степень неуверенности, не такая уж редкая. Например, в пусть в задаче классификации эмоций по видеозаписи датасет размечен сразу несколькими людьми-аннотаторами, которые иногда дают разные ответы. Например, одно из видео в датасете может быть размечено как "happiness" 11 аннотаторами и как "sadness" 9 аннотаторами. Оставив только "happiness" мы потеряем часть информации. Вместо этого мы можем оставить обе эмоции, считать их распределением вероятностей: p(happiness) = 0.55, p(sadness) = 0.45 и обучать модель выдавать для данного примера такое же распределение вероятностей.

Благодаря разметке с неуверенностью сохраняется больше информации: есть явно выраженные эмоции, а есть сложно определяемые.

Но с другой стороны для каждого видео есть какая-то истинная эмоция: либо "happiness", либо "sadness" - человек не может испытывать обе эти эмоции одновременно. В теории модель могла бы обучиться определять эмоции точнее, чем человек, и разметка с неуверенностью может помешать модели выучиться точнее человека: если человек дает 50% вероятности обоим классам, и мы используем это как эталонный ответ, то модель будет стремиться к нему, даже если она способна определить эмоцию точнее.

2.2. Кроссэнтропия и расхождение Кульбака-Лейблера

Пусть мы имеем датасет из пар (x_i, y_i), в котором эталонный ответ y_i является не конкретным значением признака Y, а распределением вероятностей на множестве Y. Нам каким-то образом нужно "подогнать" предсказанное распределение p(y_i|x_i, \theta) под эталонное распределение p_{true}(y_i|x_i).

Пример 1. Если в задаче классификации в эталонном распределении вероятности классов равны 0.7 и 0.3, то мы хотели бы, чтобы в предсказании p(y_i|x_i, \theta) они тоже были бы равны 0.7 и 0.3.

Пример 2. Если в задаче регрессии эталонное распределение имеет две моды в значениях 0.5 и 1.5, то нам хотелось бы, чтобы предсказанное распределение вероятностей p(y_i|x_i, \theta) тоже имело моды в этих точках. Но если мы моделируем p(y|x)нормальным распределением (как в разделе 2.3 первой части), тогда в нем в любом случае будет только одна мода, и чтобы хоть как-то приблизить предсказание к эталонному ответу, можно расположить моду посередине между точками 0.5 и 1.5 - тогда мат. ожидание ошибки предсказания будет наименьшим.

Как видим, второй пример получился сложнее первого. Если множество Y непрерывно, то задача приближения предсказанного распределения к эталонному означает задачу сближения функций плотности вероятности.

Такая постановка задачи неоднозначна: сблизить функции можно по-разному, так как "расстояние" между функциями можно определять по-разному. Чаще всего для этого используют расхождение Кульбака-Лейблера (относительную энтропию) D_{KL}(p || q) - несимметричную метрику сходства между двумя распределениями вероятностей p и q. Расхождение Кульбака-Лейблера можно расписать как сумму в дискретном случае и как интеграл в непрерывном случае.

Дискретный случай (P, Q - функции вероятности):

D_{KL}(P || Q) = \mathop{\mathbb{E}}\limits_{x \sim p} \log \cfrac{P(x)}{Q(x)} = \sum\limits_{x \in X} P(x) \log \cfrac{P(x)}{Q(x)} \tag{7}

Непрерывный случай (p, q - функции плотности вероятности):

D_{KL}(p || q) = \mathop{\mathbb{E}}\limits_{x \sim p} \log \cfrac{p(x)}{q(x)} = \int\limits_{x \in X} P(x) \log \cfrac{p(x)}{q(x)} dx \tag{8}

Пользуясь тем, что \log a/b = \log a - \log b, мы можем расписать расхождение Кульбака-Лейблера как разность двух величин. Для дискретного случая:

D_{KL}(P || Q) = \underbrace{\sum\limits_{x \in X} P(x) \log P(x)}_{-H(P)} + \underbrace{\bigg( - \sum\limits_{x \in X} P(x) \log Q(x) \bigg)}_{H(P, Q)} \tag{9}

Первое слагаемое со знаком минус называется энтропией распределения P (или дифференциальной энтропией в непрерывном случае) и обозначается как H(P), а второе слагаемое (включая минус) называется кроссэнтропией H(P, Q) между распределениями P и Q. Эти величины можно расписать через мат. ожидание:

H(P) = -\mathop{\mathbb{E}}\limits_{x \sim p} \log P(x)H(P, Q) = -\mathop{\mathbb{E}}\limits_{x \sim p} \log Q(x)H(P, Q) = D_{KL}(P || Q) + H(P)

В машинном обучении первым аргументом в D_{KL}(P || Q) обычно ставят эталонное распределение, вторым аргументом - предсказанное. Как видно из формулы (9), первое слагаемое не зависит от Q, поэтому минимизация D_{KL}(P || Q) по Q равносильно минимизации кроссэнтропии между P и Q.

Резюме. Если значения целевого признака в датасете даны как распределения вероятностей, то для обучения модели мы можем минимизировать кроссэнтропию между предсказанными и эталонными распределениями. Мы так уже делали в модели классификации, но там эталонное распределение было вырожденным назначало вероятность 1 одному из классов, поэтому в формуле (3) лишь одно слагаемое было ненулевым. В этом разделе мы рассмотрели более общий случай, когда эталонное распределение невырождено и в (3) может быть много ненулевых слагаемых.

2.3. Кроссэнтропия как максимизация правдоподобия*

Является ли "подгонка" предсказанного распределения p(y_i|x_i, \theta) под эталонное распределение p_{true}(y_i|x_i) применением метода максимизации правдоподобия? Для ответа на этот вопрос нужно понять что такое "правдоподобие" в том случае, когда вместо эталонного ответа мы имеем распределение.

Мы можем сделать таким образом. Пусть для i-го примера мы имеем значение x_i и распределение p_{true}(y|x_i). Мысленно сгенерируем из этого примера очень большое (стремящееся к бесконечности) количество примеров (обозначим его K), в которых исходные признаки равны x_i, а целевой признак взят из распределения p(y_i):

\text{Set}_i = \{ (x_i, y_i^{(k)}) \}_{k=1}^K,\ \ \ y_i^{(k)} \sim p_{true}(y|x_i)

Объединение \text{Set}_1 \cup \dots \cup \text{Set}_N нельзя рассматривать как i.i.d.-выборку, потому что при бесконечном количестве примеров мы имеем лишь N уникальных значений x. Но поскольку мы не моделируем распределение p(x), это не является проблемой. Поскольку все y_i^{(k)} независимы:

p(\text{Set}_i|x_i, \theta) = \prod\limits_{k=1}^K p(y_i^{(k)}|x_i, \theta)\begin{split} -\log p(\text{Set}_i|x_i, \theta) & = -\sum\limits_{k=1}^K \log p(y_i^{(k)}|x_i, \theta) \\ & \underset{K \to \infty}{\to} -\sum\limits_{y \in Y} p_{true}(y|x_i) \log p(y|x_i, \theta) \\ & = -\mathbb{E}_{y \sim p_{true}(y|x_i)} \log p(y|x_i, \theta) \\ & = H(p_{true}(y|x_i), p(y|x_i, \theta)) \end{split}

В итоге при K \to \infty минус логарифм правдоподобия \text{Set}_i оказался равен кроссэнтропии между эталонным распределением p_{true}(y|x_i) и предсказанным моделью распределением p(y|x_i, \theta). Отсюда получается, что минимизация кроссэнтропии (или, что эквивалентно, минимизация расхождения Кульбака-Лейблера) максимизирует правдоподобие.

2.4. Кроссэнтропия в задаче регрессии*

Вернемся к случаю регрессии. Если для обучающей пары (x_i, y_i) точно известен ответ y_i \in Y, то его можно представить как распределение вероятностей на Y, имеющее лишь одно возможное значение y_i с вероятностью 1 (такое распределение называют вырожденным, в данном случае его еще называют "эмпирическим").

Для таких случаев математики придумали специальную функцию, называемую дельта-функцией Дирака \delta(x). Она равна нулю во всех точках кроме нуля, в нуле равна бесконечности, а ее интеграл равен единице. Например, если мы возьмем функцию плотности вероятности нормального распределения (часть 1, формула 4) с \mu=0 и устремим \sigma к нулю, то в пределе получим дельта-функцию.

В случае регрессии эмпирическое распределение можно записать как \delta(y - y_{true}). Попробуем, по аналогии с классификацией, минимизировать кроссэнтропию между эталонным и предсказанным распределениями. Пусть модель выдает для y нормальное распределение p(y|x, \theta). Распишем кроссэнтропию между эмпирическим и предсказанным распределением:

\begin{split} H(\delta(y - y_{true}), p(y|x, \theta)) & = -\displaystyle\int_{-\infty}^\infty \delta(y - y_{true}) \log p(y|x, \theta) \,dy \\ & = -\log p(y|x, \theta) \end{split} \tag{10}

Обратите внимание, что оба аргумента H являются не числами, а функциями от y, и подынтегральное выражение не равно нулю только в одной точке y_{true}. С помощью формулы (10) мы пришли к тому, что минимизация кроссэнтропии означает минимизацию -\log p(y|x, \theta), что эквивалентно максимизации p(y|x, \theta). Именно это мы и делали в разделе 2. Получается, что модель регрессии тоже обучается с помощью кроссэнтропии, которая по формуле (10) превращается в минимизацию -\log p(y|x, \theta) и далее в минимизацию среднеквадратичного отклонения (часть1, формула 7), если y моделируется нормальным распределением.

Как видим, мы получаем максимально унифицированный и при этом гибкий подход, который можно применять для задания функции потерь в сложных случаях.

Кроссэнтропия с точки зрения оптимизации*

В задаче регрессии мы рассматривали два подхода к выбору функции потерь: первый подход опирается на здравый смысл, наши представления о метрике сходства на множестве Y и легкость оптимизации. Второй подход опирается на теорию вероятностей и наши представления об условном распределении p(y|x), из которого следует формула для функции потерь (статья 1, формулы 5-7).

Теперь вернемся к задаче классификации. Есть ли здесь аналогичные два подхода? Вероятностный подход, который приводит к кроссэнтропии, мы уже рассматривали. Но хороша ли кроссэнтропия с точки зрения оптимизации, или есть более удобная функция потерь? Например, вместо кроссэнтропии мы могли бы минимизировать среднеквадратичную ошибку между предсказанным распределением вероятностей p_{pred}[1], \dots, p_{pred}[K] и эталонным распределением вероятностей p_{true}[1], \dots, p_{true}[K], в котором вероятность 1 назначается верному классу:

loss(p_{true}, p_{pred}) = \sum\limits_{i=1}^K (p_{true}[i] - p_{pred}[i])^2

Смысл такого выражения с точки зрения теории вероятностей не совсем ясен, но видно, что чем ближе предсказание к истине, тем меньше будет функция потерь. А это и есть то свойство, которое требуется от функции потерь.

Что же лучше: кроссэнтропия или среднеквадратичная ошибка? Чтобы понять, какая из функций потерь лучше подходит для оптимизации градиентным спуском, давайте рассчитаем градиенты этих функций потерь по логитам (то есть тем значениям, которые выдаются до операции softmax или sigmoid). Пусть классификация является бинарной, верный ответом является второй класс, и модель выдала значение логита, равное m. Отсюда вероятность второго класса равна \sigma(m), где \sigma - операция сигмоиды (6). Рассчитаем производную функции потерь по логиту m.

В случае бинарной кроссэнтропии:

\cfrac{\partial loss}{\partial m} = 1 - \sigma(m)

В случае среднеквадратичной ошибки:

\cfrac{\partial loss}{\partial m} = -2 \sigma(m) (1 - \sigma(m))^2

При m \to -\infty (то есть когда модель выдает уверенный неправильный ответ) при бинарной кроссэнтропии производная стремится к 1, а при среднеквадратичной ошибке производная стремится к нулю. Это означает, что при сочетении сигмоиды и среднеквадратичной ошибки уверенные неправильные ответы практически не корректируются градиентным спуском (градиент близок к нулю), что может негативно сказаться на качестве обучения. Это аргумент в пользу того, чтобы при использовании сигмоиды выбирать бинарную кроссэнтропию, а не среднеквадратичную ошибку.

Хотя, с другой стороны, этот аргумент не окончательный, ведь уверенные неправильные ответы модели могут на самом деле быть выбросами в данных или ошибками разметки, которые модель не должна выучивать. Поэтому, возможно, в некоторых случаях имеет смысл использовать среднеквадратичную ошибку вместо кроссэнтропии.


Конец части 2. Часть 3, посвященная байесовскому выводу, планируется к публикации. Спасибо@ivankomarovи @yorkoза ценные комментарии, которые были учтены при подготовке статьи.

Теги:
Хабы:
Всего голосов 29: ↑29 и ↓0+29
Комментарии3

Публикации

Информация

Сайт
ods.ai
Дата регистрации
Дата основания
Численность
5 001–10 000 человек
Местоположение
Россия

Истории