-
2 votesanswersviews
TensorFlow:训练BLSTM时CTC损失没有减少
我正在尝试创建一个端到端的可训练离线英语手写识别模型(不分割个人角色) . 我使用IAM手写数据库中的数据集来进行培训 . 我尝试降低学习率,增加批量等等,但损失继续波动,没有/显着整体下降 - TensorBoard visualization for cost at each step 我是TensorFlow的新手,所以可能会犯一些天真的错误 . 使用的代码: class CRNN(obj... -
0 votesanswersviews
在几个训练时期之后获得NaN CTC损失
我修改了Keras OCR示例:https://github.com/keras-team/keras/blob/master/examples/image_ocr.py以执行在线手写识别 . 我正在以10个批次喂养1000个中风序列 . 在使用3层LSTM网络,默认设置的RMSprop优化器时,CTC损失很快就会下降;但经过一定数量的时代,它突然转向NaN . 根据学习率和时代数量;它进入NaN...