Альтернатива оптимизации матрицы путаницы для классификации нескольких этикеток в горелке

У меня есть свертка, которая производит вывод с несколькими метками. Т.е. каждое изображение может быть помечено от 0 до 10 меток. На выходе получается тензор размера 10, содержащий единицы (обозначающие метку в этом индексе) и -1 (без метки в этом индексе). Мишени в том же формате. Так:

{1, 1, 1, -1, 1, 1, 1, 1, 1, 1}

Обозначает метки 1-3 и 5-10. Вывод нескольких этикеток нельзя использовать с матрицей ошибок пакета torch optim. Какие есть хорошие альтернативы для оценки точности прогнозов?

В идеале я хотел бы знать, насколько точно каждая метка прогнозируется с точки зрения ложных срабатываний, истинных срабатываний и т. Д. Одна идея - создать 10 отдельных матриц путаницы и ввести в каждую данные для одной. показатель. Но есть ли лучшее решение?

Любой вклад приветствуется.


Обновление: описанный выше подход работал нормально, но при большом количестве ярлыков он громоздкий. Я просто подумал, есть ли способ лучше.


person Chris Parry    schedule 14.02.2016    source источник
comment
Предлагаемый подход в чем-то ошибочен?   -  person Alexander Lutsenko    schedule 15.02.2016


Ответы (1)


Я сделал отдельные матрицы путаницы для каждой метки, разделил прогнозы вывода и добавил их в соответствующую матрицу. Совместно построив график точности классификации для набора для обучения / проверки, его довольно легко интерпретировать.

person Chris Parry    schedule 23.02.2016