我知道二元交叉熵与两类中的分类交叉熵相同。二元交叉熵惩罚单热矢量的所有分量
此外,我很清楚softmax是什么。
因此,我看到明确的交叉熵惩罚只是将一个部件(概率)应为1。
但为什么,不能或不应我使用二进制交叉熵上一热载体?
Normal Case for 1-Label-Multiclass-Mutual-exclusivity-classification:
################
pred = [0.1 0.3 0.2 0.4]
label (one hot) = [0 1 0 0]
costfunction: categorical crossentropy
= sum(label * -log(pred)) //just consider the 1-label
= 0.523
Why not that?
################
pred = [0.1 0.3 0.2 0.4]
label (one hot) = [0 1 0 0]
costfunction: binary crossentropy
= sum(- label * log(pred) - (1 - label) * log(1 - pred))
= 1*-log(0.3)-log(1-0.1)-log(1-0.2)-log(1-0.4)
= 0.887
我看到,在二进制交叉熵的零是一个目标类,并对应于以下一个热码:
target class zero 0 -> [1 0]
target class one 1 -> [0 1]
总结:为什么我们才算/总结预测类别的负对数可能性。我们为什么不惩罚其他的应该不是那种班级?
如果一个人使用二元交叉熵到一个热点的向量。预计零标签的可能性也将受到惩罚。