逻辑回归与梯度下降策略之Python实现

逻辑回归与梯度下降策略之Python实现

我们将建立一个逻辑回归模型来预测一个学生是否被大学录取。假设你是一个大学系的管理员,你想根据两次考试的结果来决定每个申请人的录取机会。你有以前的申请人的历史数据,你可以用它作为逻辑回归的训练集。
这里我们有一个LogiReg_data.txt文件数据:
逻辑回归与梯度下降策略之Python实现

对于每一个培训例子,你有两个考试的申请人的分数和录取决定。为了做到这一点,我们将建立一个分类模型,根据考试成绩估计入学概率。

先导入数据分析三大件:

import numpy as np
import pandas as pd
import matplotlib.pyplot as plt
%matplotlib inline

导入数据,设置表头,‘Exam 1’,和’Exam 2’,表示两科成绩,'Admitted’表示是否被录取,读取表格前五条数据看一下效果:

import os
path = 'data' + os.sep + 'LogiReg_data.txt'
pdData = pd.read_csv(path, header=None, names=['Exam 1', 'Exam 2', 'Admitted'])
pdData.head()

逻辑回归与梯度下降策略之Python实现
看一下我们数据的规模:
逻辑回归与梯度下降策略之Python实现
可以看出一共是100条数据,有3列特征。

我们可以绘图看一下Admitted是0还是1在图像上的分布情况:

positive = pdData[pdData['Admitted'] == 1]
negative = pdData[pdData['Admitted'] == 0] 

fig, ax = plt.subplots(figsize=(10,5))
ax.scatter(positive['Exam 1'], positive['Exam 2'], s=30, c='b', marker='o', label='Admitted')
ax.scatter(negative['Exam 1'], negative['Exam 2'], s=30, c='r', marker='x', label='Not Admitted')
ax.legend()
ax.set_xlabel('Exam 1 Score')
ax.set_ylabel('Exam 2 Score')

逻辑回归与梯度下降策略之Python实现
可以清晰的看出录取和未被录取的大致分布,针对这两种分布,我们应该可以试着画出一条决策边界将两类分开,接下来就开始用到逻辑回归算法了。

首先我们应该明确一下我们的目标:建立分类器(求解出三个参数

上一篇:Python中__name__的理解


下一篇:Google Cloud资源层级, IAM Identity and Access Management, 控制台云交互