我使用tf.Variable表示W(权重)和b(偏差),但是tf.placeholder表示X(输入批处理)和Y(此批处理的期望值) . 一切正常 . 但今天我发现了这个话题:Tensorflow github issues并且引用:
Feed_dict从Python运行时到TensorFlow运行时执行单线程内容memcpy . 如果GPU上需要数据,那么您将获得额外的CPU-> GPU传输 . 从feed_dict切换到本机TensorFlow(变量/队列)时,我习惯看到性能提高10倍
现在我尝试找到如何使用tf.Variable或Queue作为输入数据而没有feed_dict,以提高速度,特别是批量 . 因为我需要逐个更改数据批量 . 当所有批次都完成 - 时代结束 . 而不是从开始,第二纪元等...
但对不起,我不明白我该怎么用 .
1 回答
以下是如何使用队列来提供培训批次的自包含示例: