Классификатор, который предполагает сильные (наивные) предположения о независимости, основанные на теореме Байеса, известен как байесовский сетевой классификатор. Более описательным термином для лежащей в основе вероятностной модели будет «независимая модель признаков». Проще говоря, наивный байесовский классификатор предполагает, что наличие (или отсутствие) определенного признака класса не связано с наличием (или отсутствием) какого-либо другого признака.

Пример:

В любом банке для оценки кредитного риска для клиентов мы можем сделать это с помощью системы кредитного скоринга, которую можно сделать с помощью байесовского сетевого классификатора. Для байесовской сети N, которая определяет распределение вероятностей Pr, мы выбираем переменную C, называемую переменной класса, и набор переменных E = {E1, . . ., En}, известные как атрибуты. Каждый экземпляр e из E известен как экземпляр. Более того, для некоторого порога вероятности p байесовскую сеть можно рассматривать как индуцирующую функцию FN, которая отображает каждый экземпляр e в {0, 1} следующим образом: FN(e) = 1, если Pr (c | e) ? p и FN(e) = 0 в противном случае. Функция FN называется байесовским сетевым классификатором.

Практика Набор данных:

Для практики авторизуйтесь в Analyttica TreasureHunt.

Вход и выход:

Чтобы запустить «Байесовский сетевой классификатор» в ATH, выберите предиктор и целевые переменные и выберите функцию из «Машинное обучение» à «Классификация других» à «Байесовский сетевой классификатор». Все целевые переменные должны быть категориальными переменными. Если вы выберете иначе, он будет преобразовывать различные значения переменной в категории.

Результат представлен в виде компактной графической модели распределения вероятностей, которая присваивает вероятность каждому интересующему событию.

Применение и интерпретация:

На основе вывода результата можно определить, как переменные классифицируют зависимую переменную.

Смотрите также:

Условная вероятность, Наивный байесовский классификатор.