分类问题用交叉熵,回归问题用均方误差。
至于原因,可以看看它们的函数式,主要是两种损失函数对分类和回归结果误差的衡量的方式不同。比如,交叉熵,在分类时(热编码),如果分类正确,则损失值为零,否则就有个较大的损失值,然后反向传播,能够更好地更新权重;同理,均方误差mse,则是用来测算距离,很好地衡量了预测的实数值和事实值之间的数值大小的差异程度,如果很大,则bp之后权重更新会较为明显,反之,则只是微调权重。
综上,这两种损失函数,都是为了更好地衡量你的真实结果与预测结果之间的差异的。
(但是logistic回归为啥就不能MSE只能交叉熵?是属于特例嘛?)
参考链接:
https://blog.csdn.net/weixin_41888969/article/details/89450163
https://www.cnblogs.com/xiaoboge/p/9656216.html
https://www.zhihu.com/question/320490312/answer/654084489