Работа с данными в любой сфере - страница 59

Шрифт
Интервал

стр.



Чтобы найти функцию правдоподобия, нужно просто разделить количество аналогичных наблюдений в этой категории (в данном случае их три) на общее количество точек данных в категории:



(В случае, если вы находите обозначение P(X | победитель) запутанным, подумайте о букве «X» как о требовании, чтобы урожай, который мы принимаем в расчет, обладал характеристиками (количество солнечного света и осадков), очень похожими на те, о которых сообщил винодел. Поэтому запись Р(Х | победитель) равносильна вопросу «Какова вероятность того, что у этого вина будут такие же характеристики, какие винодел наблюдал у вина-победителя?».)


Шаг 4: рассчитайте апостериорную вероятность (ту, которая нас интересует!). Теперь нам нужно определить вероятность того, что из нового урожая может получиться вино-призер, притом что оно должно иметь за этот год характеристики (часы солнечного сияния и количество осадков), выявленные виноделом. Этот шаг выполняется с помощью формулы Байеса:



Подставив числа, получим следующее:

0,15 × 0,667/0,133 = 0,75 = 75 %.

Это говорит о том, что из винограда любого урожая, который попадает в область, определенную нашим кругом, можно с вероятностью 75 % произвести вино-победитель. Поэтому существует 75 %-ная вероятность того, что и наш урожай позволит произвести наилучшее вино.


Шаг 5: выведите апостериорную вероятность противоположного сценария (из нашего урожая получится вино, неспособное победить). Теперь мы можем оценить вероятность того, что наше будущее вино попадет в проигравшую категорию, по аналогичной формуле[50]:



Обратите внимание: следует повторить шаги 1 и 3 для проигравшей категории. Подстановка вычисленных вероятностей дает следующий результат:

((1/10) × (10/30))/(4/30) = 0,1 × 0,333/0,133 = 0,25 = 25 %.

Это говорит о том, что любой урожай, который попадает в область, определенную нашим кругом, с вероятностью 25 % превратится в проигравшее вино. Поэтому существует 25 %-ная вероятность того, что из нашего урожая получится вино, которое не попадет в число победителей.


Шаг 6: сравните две вероятности. Теперь мы знаем, что вероятность того, что новая точка данных (с характеристиками, отмеченными виноделом) принадлежит либо к категории победителя, либо проигравшего, составляет 75 % и 25 % соответственно – а это означает, что точка данных с этими характеристиками попадет в категорию победителей. Таким образом, хотя вероятность того, что вино из нового урожая проиграет, по-прежнему составляет 25 %, вероятность его выигрыша выше, и поэтому данные, которые мы исследуем (урожай этого года), будут помещены в категорию победителей.

Наивный байесовский классификатор хорош для:

• нелинейных задач, в которых классы не могут быть разделены прямой линией на точечной диаграмме;

• массивов данных, содержащих сильно различающиеся данные (в отличие от других алгоритмов, результаты наивного классификатора Байеса нельзя исказить сильно различающимися данными).

Отрицательной стороной использования наивного классификатора Байесов является то, что сделанные с его помощью наивные предположения могут привести к погрешностям.

Вероятностные и детерминированные классификаторы

Это была долгая экскурсия в мир, где царствует наивный байесовский классификатор, не так ли? Я рад, что мы совершили ее, так как это важный алгоритм. Итог: есть 75 %-ная вероятность того, что из урожая винограда в этом году получится вино-призер, и 25 %-ная – того, что вино, произведенное из собранного в нынешнем году винограда, может проиграть соревнование.

Вы заметили, что этот вывод концептуально отличается от результата использования алгоритма k-NN?

Если бы мы применили k-NN к этому примеру, то получили бы однозначный ответ: вино из винограда нового урожая было бы объявлено либо победителем, либо проигравшим.

Черно-белое решение k-NN не дает иных возможностей, потому что, в отличие от наивного байесовского классификатора, принадлежит к семейству детерминированных алгоритмов классификации.

Детерминированные модели, такие как k-NN, относят полученные данные к одному конкретному классу, в то время как вероятностные модели, такие как наивный байесовский классификатор, предсказывают распределение вероятностей по всем классам. Затем это распределение можно использовать, чтобы отнести данные к классу.


стр.

Похожие книги