Tensorflow порции - ЛСТМ состояния


Существует ли канонический способ поддерживать состояние LSTM и т. д. с Тензорфлоу порцией?

Использование API Tensorflow напрямую это просто - но я не уверен, как лучше всего выполнить сохранение состояния LSTM между вызовами после экспорта модели в Serving.

Есть ли какие-либо примеры, которые выполняют вышеизложенное? Образцы внутри РЕПО очень просты.

1 7

1 ответ:

От Мартина Уика в списке рассылки TF:

" хорошей интеграции для моделей с сохранением состояния на сервере моделей пока нет. Как вы заметили, он в основном предполагает, что модели-это чистые функции. Мы работаем над этим, и вы должны увидеть, как эта функциональность появится в конечном итоге, но это слишком далеко, чтобы обещать время. Таким образом, вы можете написать простую оболочку, которая сохраняет состояние на сервере (и присваивает какой-то идентификатор сеанса, который передается в запросах), или вы можете написать свой собственный сервер, который поддерживает состояние сеанса TensorFlow (и аналогично возвращает некоторый идентификатор сеанса). Последнее более действенно. И то и другое потребует некоторой логики сбора мусора/таймаута сеанса."