0

我正在对LIDC-IDRI数据集上的分割网络U-net进行培训。目前有两种训练策略:1)从整个训练集中训练CNN和2)训练集中的训练集,然后是整个训练集之间的区别是什么?

  1. 从头开始训练整个训练集的模型(40k步,180k步)。
  2. 对整个训练集的10%进行训练。收敛后(30k步),继续在整个训练集上训练模型(10k步)。

随着Dice coefficient作为损失函数,这也是在V-网架构(paper)使用的,模型方法2训练总是比用方法1.前者可以实现一个骰子得分的0.735更好,而后者只能达到0.71。

顺便说一句,我的U型网模型在TensorFlow实现的,该模型是在NVIDIA GTX 1080Ti训练有素

任何人都可以给予一定的解释或引用。谢谢!

回答

0

嗯,我读了你的答案,并决定尝试一下,因为这很容易,因为我也一直在LIDC-IDRI上培训Vnet。通常我从一开始就训练整个数据集。方案2)在骰子方面提供了更快的提升,然而,很快在验证时下降到2%,甚至在使网络学习整个数据集后,它不会恢复,训练骰子。当然还在增加。似乎我的10%的数据集不是很有代表性,而且它太糟糕了。