from keras.losses import *
以下是正文。
方差 MSE mean_squared_error
方差。
(差点忘了方差是什么,丢死人。)
注重单个巨大偏差。
平均绝对差 MAE mean_absolute_error
差的绝对值的平均数。
平均对待每个偏差。
平均误差百分数 MAPE mean_absolute_percentage_error
误差百分数(非负)的平均数。比如50和150对100的误差百分数都是50。
自己感受。
对数方差 MSLE mean_squared_logarithmic_error
对数的方差。(会将值先+1再取对数)
Hinge
奇怪。
logcosh
log(cosh(error))。
据说类似方差。
交叉熵 Cross Entropy
哦,原来数组是batch数组啊。我还以为是sequence数组呢。那我要是返回XX怎么搞啊。
有人说回归问题常用方差,分类问题常用交叉熵。
有人言,交叉熵描述了两个概率分布的距离。
如果要将神经网络的输出转化为概率分布,使用Sigmoid。(为什么每次提到Sigmoid都是这个句式)