У меня есть вопрос о вероятности/статистике, связанный с реализацией наивных байесовских классификаторов, в частности, с реализацией сглаживания Лапласа, чтобы избежать проблемы нулевого подсчета и переобучения.
Из того, что я читал, основная формула NBC с использованием MLE выглядит так:
p(C│F_1 ...F_n )=(p(C)p(F_1 |C)...p(F_n |C))/(p(F_1)...p(F_n))
Однако, если одно из p(F_i |C) равно нулю, вся вероятность становится равной 0. Одно решение является гладким по Лапасу.
p(F_i│C)~(x_i+k)/(N+kd)
Где x_i — это количество раз, когда F_i появлялся в классе C, N — это количество раз, когда класс C появлялся, а d — это количество различных значений, которые F_i, как известно, принимает.
Мой вопрос таков:
Что, если нужно что-то сделать с p(C) в числителе и p(F_i) в знаменателе?