У меня есть 2 модели Tensorflow Lite (это модели Yolo V2 Tiny):
- Модель A) загружается из Интернета, обнаруживает и классифицирует объекты по 80 классам. Файл .tflite весит 44,9 МБ.
- Модель Б) Обученный мной с использованием даркнета, обнаруживает и классифицирует объекты по 52 классам. Размер файла .tflite составляет 20,8 МБ. Модель конвертируется в TFLite с помощью Darkflow.
Однако и на мобильном телефоне, и на компьютере модели B требуется в 10 раз больше времени для прогнозирования, чем модели A (даже если модель B обнаруживает в пределах меньшего числа классов и ее файл легче). Кроме того, похоже, что модели работают с входными изображениями размером 416x416 и используют числа с плавающей запятой.
Что может быть причиной того, что модель A быстрее, чем модель B? Как узнать, почему модель А быстрее?
Одна из моих проблем заключается в том, что для модели A, поскольку я сам ее не обучал, у меня нет ее файла .cfg со всей установкой ...