深入解读逻辑回归LogisticRegression:适用于初学者

深入解读Logistic回归及其结果:回归系数,OR,odds

声明:本文并非原创,大部分整理自网络,有部分自己修改。

参考文献:
1、原文网址:http://blog.sina.com.cn/s/blog_44befaf60102vznn.html
2、原文大量参考网址:http://www.ats.ucla.edu/stat/mult_pkg/faq/general/odds_ratio.htm
3、https://www.jianshu.com/p/11ea30121a79
4、 阿里天池龙珠计划寒假训练营

逻辑回归简介

Logistic回归虽然名字叫”回归” ,但却是一种分类学习方法。使用场景大概有两个:第一用来预测,第二寻找因变量的影响因素。 逻辑回归(Logistic regression,简称LR)虽然其中带有"回归"两个字,但逻辑回归其实是一个分类模型,并且广泛应用于各个领域之中。虽然现在深度学习相对于这些传统方法更为火热,但实则这些传统方法由于其独特的优势依然广泛应用于各个领域中。

而对于逻辑回归而且,最为突出的两点就是其模型简单模型的可解释性强

逻辑回归模型的优劣势:

  • 优点:实现简单,易于理解和实现;计算代价不高,速度很快,存储资源低;
  • 缺点:容易欠拟合,分类精度可能不高
    逻辑回归的应用
    逻辑回归模型广泛用于各个领域,包括机器学习,大多数医学领域和社会科学。例如,最初由Boyd 等人开发的创伤和损伤严重度评分(TRISS)被广泛用于预测受伤患者的死亡率,使用逻辑回归 基于观察到的患者特征(年龄,性别,体重指数,各种血液检查的结果等)分析预测发生特定疾病(例如糖尿病,冠心病)的风险。逻辑回归模型也用于预测在给定的过程中,系统或产品的故障的可能性。还用于市场营销应用程序,例如预测客户购买产品或中止订购的倾向等。在经济学中它可以用来预测一个人选择进入劳动力市场的可能性,而商业应用则可以用来预测房主拖欠抵押贷款的可能性。条件随机字段是逻辑回归到顺序数据的扩展,用于自然语言处理。

逻辑回归模型现在同样是很多分类算法的基础组件,比如 分类任务中基于GBDT算法+LR逻辑回归实现的信用卡交易反欺诈,CTR(点击通过率)预估等,其好处在于输出值自然地落在0到1之间,并且有概率意义。模型清晰,有对应的概率学理论基础。它拟合出来的参数就代表了每一个特征(feature)对结果的影响。也是一个理解数据的好工具。但同时由于其本质上是一个线性的分类器,所以不能应对较为复杂的数据情况。很多时候我们也会拿逻辑回归模型去做一些任务尝试的基线(基础水平)。

一 从线性回归到Logistic回归

线性回归和Logistic回归都是广义线性模型的特例。

假设有一个因变量y和一组自变量x1, x2, x3, … , xn,其中y为连续变量,我们可以拟合一个线性方程:

y =β0 +β1x1 +β2x2 +β3x3 +…+βnxn

并通过最小二乘法估计各个β系数的值。

如果y为二分类变量,只能取值0或1,那么线性回归方程就会遇到困难: 方程右侧是一个连续的值,取值为负无穷到正无穷,而左侧只能取值[0,1],无法对应。为了继续使用线性回归的思想,统计学家想到了一个变换方法,就是将方程右边的取值变换为[0,1]。最后选中了Logistic函数:

y = 1 / (1+e-x)

这是一个S型函数,值域为(0,1),能将任何数值映射到(0,1),且具有无限阶可导等优良数学性质。

我们将线性回归方程改写为:

y = 1 / (1+e-z),

其中,z =β0 +β1x1 +β2x2 +β3x3 +…+βnxn

此时方程两边的取值都在0和1之间。

进一步数学变换,可以写为:

Ln(y/(1-y)) =β0 +β1x1 +β2x2 +β3x3 +…+βnxn

Ln(y/(1-y))称为Logit变换。我们再将y视为y取值为1的概率p(y=1),因此,1-y就是y取值为0的概率p(y=0),所以上式改写为:

p(y=1) = ez/(1+ez)​,

p(y=0) = 1/(1+ez),

其中,z =β0 +β1x1 +β2x2 +β3x3 +…+βnxn.

接下来就可以使用”最大似然法”估计出各个系数β。

二 odds与OR复习

odds: 称为几率、比值、比数,是指某事件发生的可能性(概率)与不发生的可能性(概率)之比。用p表示事件发生的概率,则:odds = p/(1-p)。

OR(Odds Ratio):几率比或者风险比,在有些参考资料上也叫优势比、比值比。为实验组的事件发生几率(odds1)/对照组的事件发生几率(odds2)。

  • 例如:OR 在流行病学中的应用
    OR常用于流行病学中病例-对照研究资料,表示病例组和对照组的暴露比例与非暴露比例之比。

当odds1>odds2时,OR>1,说明疾病的危险度因暴露而增加,暴露与疾病之间为“正”关联。

当odds1<odds2时,OR<1,说明疾病的危险度因暴露而减少,暴露与疾病之间为“负”关联。

三 Logistic回归结果的解读

我们用一个例子来说明,这个例子中包含200名学生数据,包括1个自变量和4个自变量:

因变量: hon,表示学生是否在荣誉班(honors class),1表示是,0表示否;

自变量:

female :性别,分类变量,1=女,0=男

read: 阅读成绩,为连续变量

write: 写作成绩,为连续变量

math:数学成绩,为连续变量

1**、不包含任何变量的Logistic回归**

首先拟合一个不包含任何变量的Logistic回归,

模型为 ln(p/(1-p) =β0

回归结果如下(结果经过编辑):

hon 系数β 标准误 P
截距 -1.12546 0.164 0.000

这里的系数β就是模型中的β0 = -1.12546,

我们用p表示学生在荣誉班的概率,所以有ln(p/(1-p) =β0 = -1.12546,

解方程得:p = 0.245。

odds = p/1-p = 0.3245

这里的p是什么意思呢?p就是所有数据中hon=1的概率。

我们来统计一下整个hon的数据:

hon 例数 百分比
0 151 75.5%
1 49 24.5%

hon取值为1的概率p为49/(151+49) = 24.5% = 0.245,我们可以手动计算出ln(p/(1-p) = -1.12546,等于系数β0。可以得出关系:

β0=ln(odds)。

2**、包含一个二分类因变量的模型**

拟合一个包含二分类因变量female的Logistic回归,

模型为 ln(p/(1-p) =β0 +β1* female.

回归结果如下(结果经过编辑):

hon 系数β 标准误 P
female 0.593 .3414294 0.083
截距 -1.47 .2689555 0.000

在解读这个结果之前,先看一下hon和female的交叉表:

hon female Total
Male Female
0 74 77 151
1 17 32 49
Total 91 109

根据这个交叉表,对于男性(Male),其处在荣誉班级的概率为17/91,处在非荣誉班级的概率为74/91,所以其处在荣誉班级的几率odds1=(17/91)/(74/91) = 17/74 = 0.23;相应的,女性处于荣誉班级的几率odds2 = (32/109)/(77/109)=32/77 = 0.42。女性对男性的几率之比OR = odds2/odds1 = 0.42/0.23 = 1.809。我们可以说,女性比男性在荣誉班的几率高80.9%。

回到Logistic回归结果。截距的系数-1.47是男性odds的对数(因为男性用female=0表示,是对照组),ln(0.23) = -1.47。变量female的系数为0.593,是女性对男性的OR值的对数,ln(1.809) = 0.593。所以我们可以得出关系: OR = exp(β),或者β= ln(OR)(exp(x)函数为指数函数,代表e的x次方)。

3**、包含一个连续变量的模型**

拟合一个包含连续变量math的Logistic回归,

模型为 ln(p/(1-p) =β0 +β1* math.

回归结果如下(结果经过编辑):

hon 系数β 标准误 P
math .1563404 .0256095 0.000
截距 -9.793942 1.481745 0.000

这里截距系数的含义是在荣誉班中math成绩为0的odds的对数。我们计算出odds = exp(-9.793942) = .00005579,是非常小的。因为在我们的数据中,没有math成绩为0的学生,所以这是一个外推出来的假想值。

怎么解释math的系数呢?根据拟合的模型,有:

ln(p/(1-p)) = - 9.793942 + .1563404*math

我们先假设math=54,有:

ln(p/(1-p))(math=54) = - 9.793942 + .1563404 *54

然后我们把math提高提高一个单位,令math=55,有:

ln(p/(1-p))(math=55) = - 9.793942 + .1563404 *55

两者之差:

ln(p/(1-p))(math=55) - ln(p/1-p))(math = 54) = 0.1563404.

正好是变量math的系数。

由此我们可以说,math每提高1个单位,odds(即p/(1-p),也即处于荣誉班的几率)的对数增加0.1563404。

那么odds增加多少呢?根据对数公式:

ln(p/(1-p))(math=55) - ln(p/1-p))(math = 54) = ln((p/(1-p)(math=55)/ (p/(1-p)(math=54))) = ln(odds(math=55)/ odds(math=54)) = 0.1563404.

所以:

odds(math=55)/ odds(math=54) = exp(0.1563404) = 1.169.

因此我们可以说,math每升高一个单位,odds增加16.9%。且与math的所处的绝对值无关。

聪明的读者肯定发现,odds(math=55)/ odds(math=54)不就是OR嘛!

个人备注:在完成数据清洗和分析过后进行建模之前,通常会对特征变量之间的相关性进行相关性检验,并绘制出对应的热力图,进一步判断在拟合模型时是否要考虑特征变量之间的交叉效应或者考虑将相关性很强的特征变量进行合并处理或者生成新的特征变量取代原来高度相关的变量:
例如:笔者曾经绘制过的热力图
深入解读逻辑回归LogisticRegression:适用于初学者

4**、包含多个变量的模型(无交互效应)**

拟合一个包含female、math、read的Logistic回归,

模型为 ln(p/(1-p) = β0 +β1* math+β2* female+β3* read.

回归结果如下(结果经过编辑):

hon 系数β 标准误 P
math .1229589 0.000
female 0.979948 0.020
read .0590632 0.026
截距 -11.77025 0.000

该结果说明:

(1) 性别:在math和read成绩都相同的条件下,女性(female=1)进入荣誉班的几率(odds)是男性(female=0)的exp(0.979948) = 2.66倍,或者说,女性的几率比男性高166%。

(2) math成绩:在female和read都相同的条件下,math成绩每提高1,进入荣誉班的几率提高13%(因为exp(0.1229589) = 1.13)。

(3)read的解读类似math。

5**、包含交互相应的模型**

拟合一个包含female、math和两者交互相应的Logistic回归,

模型为 ln(p/(1-p) =β0 +β1* female+β2* math+β3* female *math.

所谓交互效应,是指一个变量对结果的影响因另一个变量取值的不同而不同。

回归结果如下(结果经过编辑):

hon 系数β 标准误 P
female -2.899863 0.349
math .1293781 0.000
female*math .0669951 0.210
截距 -8.745841 0.000

注意:female*math项的P为0.21,可以认为没有交互相应。但这里我们为了讲解交互效应,暂时忽略P值,姑且认为他们是存在交互效应的。

由于交互效应的存在,我们就不能说在保持math和femalemath不变的情况下,female的影响如何如何,因为math和femalemath是不可能保持不变的!

对于这种简单的情况,我们可以分别拟合两个方程,

对于男性(female=0):

log(p/(1-p))= β0 + β2*math.

对于女性(female=1):

log(p/(1-p))= (β0 + β1) + (β2 + β3 )*math.

然后分别解释。

在Python 中常用逻辑回归进行分类,用于判断某一事件发生的概率。比如大家熟知的泰坦尼克号乘客存活率预测、鸢尾花的判断等项目。

上一篇:信用分建模


下一篇:ES 内热节点部署三