0
我正在训练11层完全卷积网络。输入是图像480x640x1,输出标签也是图像480x640x1。对于培训,我正在使用sparse_softmax_cross_entropy_with_logits()。但我gettins的损失值是NaN。我附上我的代码片段以供参考。Tensorflow损失值是nan with sparse_softmax_cross_entropy_with_logits()
x=tf.placeholder(tf.float32,(None,480,640,1))
y=tf.placeholder(tf.int32,(None,480,640,1))
logits=Model1(x)
loss=tf.reduce_mean(tf.nn.sparse_softmax_cross_entropy_with_logits(logits=logits,labels=tf.squeeze(y,squeeze_dims=[3])))
optimizer=tf.train.AdamOptimizer(learning_rate=lr)
Trainables=optimizer.minimize(loss)
所以型号1返回形状(6,480,640,1)的张量(批次大小为6)和y占位符是(6,480,640,1)。如何解决损失张量得到的NaN值?