我阅读了分布式TensorFlow的文档,并对图之间的复制提出了疑问 . https://www.tensorflow.org/versions/master/how_tos/distributed/index.html
根据我的理解,图形间复制培训创建与工作者相同数量的图形,并且图形在参数服务器上共享 tf.Variables
. 也就是说,一个工作人员创建一个会话和一个图表,并且所有图表共享相同的 tf.Variable
.
但是,我只是认为两个不同的会话不能共享相同的 tf.Variable
. 这是误会吗?
1 回答
对于你的上一个问题:
“两个不同的会话可以共享相同的tf.Variable吗?”
对于分布式会话(例如会话("grpc://..")),他们可以 .
对于直接会话,他们不能 .
在分布式培训中,变量由tf.Server()管理,跨会话持久化 . 记得?服务器在会话之前创建 . 它的寿命比tf.Sessions长 .