我正在对已经存在的TF单GPU解决方案进行脑部手术,使其适用于多个GPU .

我已经问了Simple TensorFlow example loading one copy of a model onto each GPU that's available(感谢Yaroslav!)但是我无法调整当前代码以获得在复制模型中工作的传播的对帐 .

看着Distributed tensorflow: the difference between In-graph replication and Between-graph replication我看到@mmry的回答:

“图中复制”是我们在TensorFlow中尝试的第一种方法,它没有达到许多用户所需的性能,因此更复杂的“图之间”方法是当前推荐的分布式培训方法 . 诸如tf.learn之类的高级库使用“图之间”方法进行分布式培训 .

Where can I find a simple example of tf.learn using copies of a single model for each GPU in a multiple GPU configuration?

我看到这也是一个github问题:https://github.com/tflearn/tflearn/issues/696