Ошибка обслуживания Tensorflow при обслуживании модели tensorflow версии 1.5

Получение следующего сообщения об ошибке при запуске Tensorflow Serving в док-контейнере

2019-12-12 03:25:13.947401: I tensorflow_serving/model_servers/server.cc:85] Building single TensorFlow model file config:  model_name: mymodel model_base_path: /models/mymodel 
2019-12-12 03:25:13.947870: I tensorflow_serving/model_servers/server_core.cc:462] Adding/updating models.
2019-12-12 03:25:13.947891: I tensorflow_serving/model_servers/server_core.cc:573]  (Re-)adding model: mymodel
2019-12-12 03:25:14.058166: I tensorflow_serving/core/basic_manager.cc:739] Successfully reserved resources to load servable {name: mymodel version: 1}
2019-12-12 03:25:14.058430: I tensorflow_serving/core/loader_harness.cc:66] Approving load for servable version {name: mymodel version: 1}
2019-12-12 03:25:14.059106: I tensorflow_serving/core/loader_harness.cc:74] Loading servable version {name: mymodel version: 1}
2019-12-12 03:25:14.064459: E tensorflow_serving/util/retrier.cc:37] Loading servable: {name: mymodel  version: 1} failed: Not found: Specified file path does not appear to contain a SavedModel bundle (should have a file called `saved_model.pb`)
Specified file path: /models/mymodel/1

Модель построена с использованием tensorflow v1.5 и не имеет файла *.pb. Можно ли запустить эту версию модели тензорного потока? любые идеи приветствуются. Заранее спасибо.


person noobie    schedule 12.12.2019    source источник


Ответы (1)


Да, вы можете развернуть модель, обученную Tensorflow v1.5, на tfserving.

Для TfServing требуется формат SavedModel.

Вероятно, ваш сценарий обучения может иметь некоторые проблемы с конфигурацией. (Но это трудно определить, поскольку вы не предоставили код, всегда старайтесь включать код в свой вопрос на SO для лучшего понимания другими)


Ответ на ваш вопрос,

Чтобы получить формат SavedModel, обучите свою модель с помощью официального скрипта.

После обучения вы получите следующую структуру каталогов в указанном вами каталоге модели.

<model_dir>
|
|----- variables
|         |------- variables.data-00000-of-00001
|         |------- variables.index
|
|----- saved_model.pb

Тогда можно напрямую указать <model_dir> путь к tfserving и он будет использовать эту модель.

person Rohit    schedule 12.12.2019