Tensorflow порции - ЛСТМ состояния
Существует ли канонический способ поддерживать состояние LSTM и т. д. с Тензорфлоу порцией?
Использование API Tensorflow напрямую это просто - но я не уверен, как лучше всего выполнить сохранение состояния LSTM между вызовами после экспорта модели в Serving.
Есть ли какие-либо примеры, которые выполняют вышеизложенное? Образцы внутри РЕПО очень просты.
1 ответ:
От Мартина Уика в списке рассылки TF:
" хорошей интеграции для моделей с сохранением состояния на сервере моделей пока нет. Как вы заметили, он в основном предполагает, что модели-это чистые функции. Мы работаем над этим, и вы должны увидеть, как эта функциональность появится в конечном итоге, но это слишком далеко, чтобы обещать время. Таким образом, вы можете написать простую оболочку, которая сохраняет состояние на сервере (и присваивает какой-то идентификатор сеанса, который передается в запросах), или вы можете написать свой собственный сервер, который поддерживает состояние сеанса TensorFlow (и аналогично возвращает некоторый идентификатор сеанса). Последнее более действенно. И то и другое потребует некоторой логики сбора мусора/таймаута сеанса."