1
我试图在Encog中使用SVM训练二元正/负分类器。在这个特定的情况下,数据集非常不平衡,反面的例子比正例大约30:1。惩罚训练SVM中的误报
在模型的培训中,我刻意对负面案例进行欠采样以大致平衡给模型的正面/负面案例,这种方法对我来说很适合其他问题。然而,在这种情况下,最终模型的误报率高得无法接受,在非平衡测试集上测试时,误报的数量超过了真阳性的数量。
有关如何训练以减少误报率的任何建议?使用不平衡数据进行培训(或接近观察的平衡)将减少整体积极预测的数量,但似乎并未将真正的阳性增加到假阳性率。
这已在其他帖子中回答。 http://stackoverflow.com/questions/18078084/how-should-i-teach-machine-learning-algorithm-using-data-with-big-disproportion/18088148#18088148 – Yakku