交叉熵丧失的计算公式为:
C r o s s E n t r o p y L o s s = − ∑ i = 1 N log ( p i , y i ) CrossEntropyLoss=-\sum_{i=1}^{N}{\log{(}}{{p}_{i,{{y}_{i}}}}) CrossEntropyLoss=−∑i=1Nlog(pi,yi)
此中 N 是样本数量, p i , y i p_{i,y_i} pi,yi是第 i个样本在实际标签 y i y_i yi 位置上的猜测概率。
我们手动计算每个样本的交叉熵丧失:
对于第一个样本,实际标签为 0,猜测概率为 0.6590
l o s s 1 = − log ( 0.6590 ) ≈ 0.4171 {{loss}_{1}}=-\log{(}0.6590)\approx 0.4171 loss1=−log(0.6590)≈0.4171
对于第二个样本,实际标签为 2,猜测概率为 0.1299
l o s s 2 = − log ( 0.1299 ) ≈ 2.0406 {{loss}_{2}}=-\log{(}0.1299)\approx 2.0406 loss2=−log(0.1299)≈2.0406
平均丧失为:
m e a n = 0.4171 + 2.0406 2 ≈ 1.2288 mean=\frac{0.4171+2.0406}{2}\approx 1.2288 mean=20.4171+2.0406≈1.2288