Logistic Regression(逻辑回归)中的损失函数理解

问题:线性回归中,当我们有m个样本的时候,我们用的是损失函数是
Logistic Regression(逻辑回归)中的损失函数理解
但是,到了逻辑回归中,损失函数一下子变成
Logistic Regression(逻辑回归)中的损失函数理解
那么,逻辑回归的损失函数为什么是这个呢?

本文目录

1. 前置数学知识:最大似然估计

1.1 似然函数

1.2 最大似然估计

2. 逻辑回归损失函数理解

2.1 逻辑回归前置知识

2.2 理解方式1(ML课程的讲解方式)

2.3 理解方式2


1. 前置数学知识:最大似然估计

1.1 似然函数

若总体Logistic Regression(逻辑回归)中的损失函数理解属离散型,其分布律Logistic Regression(逻辑回归)中的损失函数理解Logistic Regression(逻辑回归)中的损失函数理解的形式已知,Logistic Regression(逻辑回归)中的损失函数理解为待估参数,Logistic Regression(逻辑回归)中的损失函数理解Logistic Regression(逻辑回归)中的损失函数理解的可能取值范围。设Logistic Regression(逻辑回归)中的损失函数理解是来自Logistic Regression(逻辑回归)中的损失函数理解的样本,则Logistic Regression(逻辑回归)中的损失函数理解的联合概率分布为
Logistic Regression(逻辑回归)中的损失函数理解
Logistic Regression(逻辑回归)中的损失函数理解是相应于样本Logistic Regression(逻辑回归)中的损失函数理解的一个样本值。则样本Logistic Regression(逻辑回归)中的损失函数理解取到观察值Logistic Regression(逻辑回归)中的损失函数理解的概率,也就是事件Logistic Regression(逻辑回归)中的损失函数理解发生的概率为
Logistic Regression(逻辑回归)中的损失函数理解
Logistic Regression(逻辑回归)中的损失函数理解称为样本的似然函数,它是Logistic Regression(逻辑回归)中的损失函数理解的函数。(注意:这里Logistic Regression(逻辑回归)中的损失函数理解是已知的样本值,都是常数)

1.2 最大似然估计

关于最大似然估计,我们可以有以下的直观想法:
现在已经去到样本值Logistic Regression(逻辑回归)中的损失函数理解了,这表明取到这一样本值的概率Logistic Regression(逻辑回归)中的损失函数理解比较大,而取到其他样本值概率比较小。由费希尔(R.A.Fisher)引进的最大似然估计,就是固定样本观察值Logistic Regression(逻辑回归)中的损失函数理解,在Logistic Regression(逻辑回归)中的损失函数理解取值的可能范围Logistic Regression(逻辑回归)中的损失函数理解内挑选使似然函数Logistic Regression(逻辑回归)中的损失函数理解达到最大的参数值Logistic Regression(逻辑回归)中的损失函数理解使
Logistic Regression(逻辑回归)中的损失函数理解
这样得到的Logistic Regression(逻辑回归)中的损失函数理解与样本值Logistic Regression(逻辑回归)中的损失函数理解有关,常记为Logistic Regression(逻辑回归)中的损失函数理解,称为参数Logistic Regression(逻辑回归)中的损失函数理解最大似然估计值,相应的统计量Logistic Regression(逻辑回归)中的损失函数理解称为参数Logistic Regression(逻辑回归)中的损失函数理解的最大似然估计量。
确定最大似然估计量的问题,就可以归结为求最大值的问题了。一般的求最大似然估计,都是转化为对数形式的似然函数来进行求解。
似然函数:
Logistic Regression(逻辑回归)中的损失函数理解
对数形式的似然函数(这里是自然对数,底数为e)
Logistic Regression(逻辑回归)中的损失函数理解
简单总结:
上面的数学知识说的通俗一点,就是通过样本来预测总体的分布,怎么来预测呢?
让总体分布尽量与样本的分布趋同,就是总体的分布与样本分布具有最大的相似性,然后再来求取分布中的参数Logistic Regression(逻辑回归)中的损失函数理解


2. 逻辑回归损失函数理解

2.1 逻辑回归前置知识

回归:输出的是连续数据,目的是找到最优的拟合。(例如:预测气温)
分类:输出的是离散数据,目的是找到决策边界。(例如:预测硬币正反)
逻辑回归是用来解决分类问题的,这里有一个前提假设,就是样本服从0-1分布,也就是伯努利分布n=1的情况。
0-1分布的分布律为:

X(随机变量) 0 1
P(概率) 1-p p

下面介绍一下sigmoid函数如下:
Logistic Regression(逻辑回归)中的损失函数理解

 
Logistic Regression(逻辑回归)中的损失函数理解
sigmoid函数.png

这个函数的输出结果是一种概率,介于0到1之间。

 

2.2 理解方式1(ML课程的讲解方式)

逻辑回归中sigmoid函数为Logistic Regression(逻辑回归)中的损失函数理解 (其中Logistic Regression(逻辑回归)中的损失函数理解)
可以用sigmoid函数表示0-1中取1的概率。所以我们的损失函数可以定义为
Logistic Regression(逻辑回归)中的损失函数理解
Logistic Regression(逻辑回归)中的损失函数理解
当我们把损失函数与0-1分布的分布律对应起来的时候,Logistic Regression(逻辑回归)中的损失函数理解,损失函数就是在0-1分布的基础上取对数然后再取负数。这也好理解,损失函数的要求就是预测结果与真实结果越相近,函数值越小,所以会在前面加上负号。当y=0时,1-p的概率会比较大,在前面加上负号,Cost值就会很小;当y=1时,p的概率会比较大,在前面加上负号,Cost值就会很小。至于取对数,就是跟最大似然函数有关系,取对数不影响原本函数的单调性,而且会放大概率之间的差异,更好的区分各个样本的类别。
把上面损失函数写成统一的形式:
Logistic Regression(逻辑回归)中的损失函数理解
好了,至此,我们得到了逻辑回归的损失函数。虽然大家都是这么讲的,但是,总是感觉没有太懂为什么最后得到了这个损失函数。如果想从数学的角度推导,可以继续往下看。

2.3 理解方式2

对于0-1分布的似然函数

0-1分布的分布律为
Logistic Regression(逻辑回归)中的损失函数理解
Logistic Regression(逻辑回归)中的损失函数理解是来自于样本Logistic Regression(逻辑回归)中的损失函数理解的一个样本值,X的分布律为
Logistic Regression(逻辑回归)中的损失函数理解
它的似然函数为
Logistic Regression(逻辑回归)中的损失函数理解
似然函数的对数形式为
Logistic Regression(逻辑回归)中的损失函数理解

对于逻辑回归的似然函数

逻辑回归中sigmoid函数为Logistic Regression(逻辑回归)中的损失函数理解,可以用sigmoid函数表示0-1中取1的概率,在这里用于表示逻辑回归中的概率。逻辑回归中的样本值为Logistic Regression(逻辑回归)中的损失函数理解,样本中的Logistic Regression(逻辑回归)中的损失函数理解是用来求概率Logistic Regression(逻辑回归)中的损失函数理解的,Logistic Regression(逻辑回归)中的损失函数理解是样本的真实值,也就是真实类别。在机器学习中,习惯称Logistic Regression(逻辑回归)中的损失函数理解为特征值,Logistic Regression(逻辑回归)中的损失函数理解为标签。
Logistic Regression(逻辑回归)中的损失函数理解对应于0-1分布中的概率Logistic Regression(逻辑回归)中的损失函数理解Logistic Regression(逻辑回归)中的损失函数理解对应于0-1分布中的Logistic Regression(逻辑回归)中的损失函数理解,也就是样本值。这样我们就把逻辑回归和0-1分布对应起来了。我们用逻辑回归来作为分类模型,需要用最大似然估计的方法来评判模型的好坏。让总体分布尽量与样本的分布趋同,就是总体的分布与样本分布具有最大的相似性,然后再来求取模型中的参数Logistic Regression(逻辑回归)中的损失函数理解,这样就可以得到比较符合最大似然估计的模型。这个模型其实就是Logistic Regression(逻辑回归)中的损失函数理解
根据0-1分布的似然函数,我们可以写出逻辑回归的似然函数
Logistic Regression(逻辑回归)中的损失函数理解
对数形式为
Logistic Regression(逻辑回归)中的损失函数理解
逻辑回归的损失函数为
Logistic Regression(逻辑回归)中的损失函数理解
Logistic Regression(逻辑回归)中的损失函数理解
损失函数跟对数形式的似然函数很像,只是在前面乘以Logistic Regression(逻辑回归)中的损失函数理解。最大似然估计的方法要求Logistic Regression(逻辑回归)中的损失函数理解的最大值,损失函数在其前面加上负号,就是求最小值,这个跟损失函数的特性刚好吻合。1/m是用来对m个样本值的损失函数值取平均,不会影响函数功能。
因此,逻辑回归的损失函数求最小值,就是根据最大似然估计的方法来的。



作者:PhoenixShine
链接:https://www.jianshu.com/p/b6bb6c035d8c
来源:简书
著作权归作者所有。商业转载请联系作者获得授权,非商业转载请注明出处。

Logistic Regression(逻辑回归)中的损失函数理解

上一篇:理解Android Binder机制(2/3):C++层


下一篇:lvs 虚IP 轮训配置