首页 文章

Tensorflow - 在交互模式下使用估算器

提问于
浏览
1

我试图在“交互”模式下使用张量流神经网络:我的目标是加载训练有素的模型,将其保存在内存中,然后偶尔对其进行推理 .

问题是显然,tensorflow Estimator类(tf.estimator.Estimator)不允许这样做 .

方法预测(documentationsource)将一批要素和模型的路径作为输入 . 然后它创建一个会话,加载模型并执行推理 . 之后,会话关闭,并且为了连续推断,有必要再次加载模型 .

如何使用Estimator类实现我想要的行为?

谢谢

1 回答

  • 0

    您可能想看看tfe.make_template,其目标正是在急切模式下提供基于图形的代码 .

    the example given during the 2018 TF summit之后,这会产生类似的结果

    def apply_my_estimator(x)
      return my_estimator(x)
    
    t = tfe.make_template('f', apply_my_estimator, create_graph_function=True)
    print(t(x))
    

相关问题