我读了distributed tensorflow example & instruction . 正如本指令所建议的那样, tf.train.SyncReplicasOptimizer 可以帮助实现同步分布式培训 . 但是, tf.train.SyncReplicasOptimizer 需要优化器作为其第一个参数 . Tensorflow提供了一些优化器,例如 tf.train.GradientDescentOptimizertf.train.AdamOptimizer 等 .

我想在分布式张量流环境中实现具有图形间和同步方式的k-means算法(其中 does not 使用任何优化器) . 在这种情况下,有没有办法实现图形间和同步训练? (我们可以在不使用 tf.train.SyncReplicasOptimizer 的情况下实现 between-graph synchronous 培训吗?)