这篇博文总结一下损失函数,这里重点总结一下常用的损失函数。
损失函数有很多,不得不说有很多人已经专门对比过了,比如ArXiv上面的这篇就很不错:
(https://arxiv.org/pdf/1702.05659.pdf)
(http://christopher5106.github.io/deep/learning/2016/09/16/about-loss-functions-multinomial-logistic-logarithm-cross-entropy-square-errors-euclidian-absolute-frobenius-hinge.html)
softamx cross entropy loss
softmax 交叉熵损失函数是我们常用的一种损失函数,其公式如下:
E(t,y)=−∑jtjlogyj
其中,
t
和
y
分别表示神经网络的目标标签和输出,
yj
表示softmax损失函数:
yj=softmax(zj)=ezj∑jezj
需要注意的一点就是这个公式需要输入没有经过缩放变换的logits,还有就是使用本目标损失函数的时候不要在网络的最后一层使用
softmax
层或者激活函数,会导致结果不正确。
Categorical Crossentropy
交叉熵损失函数是也是常用的一种损失函数,它表示预测值y
与目标值t
之间的距离。主要应用在互相排斥的分类任务中,公式为:
H(y,t)=Ht