我正在测试卷积神经网络上的打印数字(0-9)。它在MNIST Dataset上提供了99%以上的准确性,但是当我使用计算机上安装的字体(Ariel,Calibri,Cambria,Cambria math,Times New Roman)尝试它时,训练了字体生成的图像(每种字体104 25种字体 - ?每个字体4幅图像(差别不大))训练误差率不低于80%,即20%的准确率为什么CNN上的数字识别
这里是 “2” 的数字图像样本 -
我调整了每个图像的大小28 x 28.
这里有更多的细节: -
训练数据大小= 28 x 28图像。 网络参数 - 作为LeNet5 网络架构 -
Input Layer -28x28
| Convolutional Layer - (Relu Activation);
| Pooling Layer - (Tanh Activation)
| Convolutional Layer - (Relu Activation)
| Local Layer(120 neurons) - (Relu)
| Fully Connected (Softmax Activation, 10 outputs)
这工作,在MNIST给予99 +%的准确率。为什么计算机生成的字体很糟糕? CNN可以处理很多数据差异。
什么是您使用的完整拓扑结构?它是原始的LeNet5,还是你改变了任何隐藏层?如果你从零开始训练一个新模型,过度拟合应该看起来像另一个99 +%的成功率;你的20%表明了某种非常不同的问题。 – Prune
是的,它是原创的LeNet5,图层如上所述,它使用MNIST数据集,但不是我的数据集,我的数据集大小为1036个图像,每个数字104。 – kumar030