使用代码和error logs链接到我的笔记本 .
GraphDef大小似乎随着步数的增加而增加 . 如果做得好,我不认为这应该发生 . 但是,当我只更改“display_step”变量时,它允许我再运行一些步骤,直到发生错误 .
关于如何解决这个问题的任何想法?
使用代码和error logs链接到我的笔记本 .
GraphDef大小似乎随着步数的增加而增加 . 如果做得好,我不认为这应该发生 . 但是,当我只更改“display_step”变量时,它允许我再运行一些步骤,直到发生错误 .
关于如何解决这个问题的任何想法?
1 回答
我认为问题是这样的:你在训练循环中反复调用
get_batch_train
这个函数通过tf.convert_to_tensor
动态创建张量 . 实际上,这会在每次迭代时在图形中创建新节点,从长远来看会导致OOM .由于
train_x
和train_y
被送入session.run
,因此无需手动将它们转换为张量 . 所以试着摆脱tf.convert_to_tensor
.