Я использую Wit.ai
для своего чат-бота. Проблема в том, что мой бот всегда пытается что-то ответить. Я заставлю своего бота отвечать только в том случае, если он действительно понял, о чем меня спрашивают. Я знаю, что это возможно, но если у меня есть бот с очень небольшим количеством ответов, кажется, что он всегда выбирает один из ответов, даже если его спрашивают о совершенно другом.
Я предполагаю, что можно заставить его ответить что-то вроде «Извините. Я не знаю, о чем вы спрашиваете. Я могу помочь вам с .....».
Может быть, мне следует использовать значение достоверности, которое я могу получить, и убедиться, что оно выше некоторого порога?