Классификатор, который предполагает сильные (наивные) предположения о независимости, основанные на теореме Байеса, известен как байесовский сетевой классификатор. Более описательным термином для лежащей в основе вероятностной модели будет «независимая модель признаков». Проще говоря, наивный байесовский классификатор предполагает, что наличие (или отсутствие) определенного признака класса не связано с наличием (или отсутствием) какого-либо другого признака.
Пример:
В любом банке для оценки кредитного риска для клиентов мы можем сделать это с помощью системы кредитного скоринга, которую можно сделать с помощью байесовского сетевого классификатора. Для байесовской сети N, которая определяет распределение вероятностей Pr, мы выбираем переменную C, называемую переменной класса, и набор переменных E = {E1, . . ., En}, известные как атрибуты. Каждый экземпляр e из E известен как экземпляр. Более того, для некоторого порога вероятности p байесовскую сеть можно рассматривать как индуцирующую функцию FN, которая отображает каждый экземпляр e в {0, 1} следующим образом: FN(e) = 1, если Pr (c | e) ? p и FN(e) = 0 в противном случае. Функция FN называется байесовским сетевым классификатором.
Практика Набор данных:
Для практики авторизуйтесь в Analyttica TreasureHunt.
Вход и выход:
Чтобы запустить «Байесовский сетевой классификатор» в ATH, выберите предиктор и целевые переменные и выберите функцию из «Машинное обучение» à «Классификация других» à «Байесовский сетевой классификатор». Все целевые переменные должны быть категориальными переменными. Если вы выберете иначе, он будет преобразовывать различные значения переменной в категории.
Результат представлен в виде компактной графической модели распределения вероятностей, которая присваивает вероятность каждому интересующему событию.
Применение и интерпретация:
На основе вывода результата можно определить, как переменные классифицируют зависимую переменную.
Смотрите также:
Условная вероятность, Наивный байесовский классификатор.