首页 文章

如何在图形复制培训之间共享tf.Variable?

提问于
浏览
0

我阅读了分布式TensorFlow的文档,并对图之间的复制提出了疑问 . https://www.tensorflow.org/versions/master/how_tos/distributed/index.html

根据我的理解,图形间复制培训创建与工作者相同数量的图形,并且图形在参数服务器上共享 tf.Variables . 也就是说,一个工作人员创建一个会话和一个图表,并且所有图表共享相同的 tf.Variable .

但是,我只是认为两个不同的会话不能共享相同的 tf.Variable . 这是误会吗?

1 回答

  • 2

    对于你的上一个问题:

    “两个不同的会话可以共享相同的tf.Variable吗?”

    • 对于分布式会话(例如会话("grpc://..")),他们可以 .

    • 对于直接会话,他们不能 .

    在分布式培训中,变量由tf.Server()管理,跨会话持久化 . 记得?服务器在会话之前创建 . 它的寿命比tf.Sessions长 .

相关问题