第三章 模型建立及评估

目标:根据泰坦尼克号的数据集完成泰坦尼克号存活预测。

import pandas as pd
import numpy as np
import matplotlib.pyplot as plt
import seaborn as sns
from IPython.display import Image
plt.rcParams['font.sans-serif'] = ['SimHei']  
# 用来正常显示中文标签
plt.rcParams['axes.unicode_minus'] = False  
# 用来正常显示负号
plt.rcParams['figure.figsize'] = (10, 6)  
# 设置输出图片大小
train = pd.read_csv('train.csv')#原数据
data = pd.read_csv('clear_data.csv')
data.head(10)#载入清洗后的数据

清洗后数据的部分数据截图: 

第三章 模型建立及评估

清除后的数据对比原始数据,少了name,ticket,cabin等不重要的字符型变量,
并将性别和登船港口的信息转化为0-1型变量,整体更加直观。

模型搭建

1.切割训练集和测试集

from sklearn.model_selection import train_test_split
# 一般先取出X和y后再切割,有些情况会使用到未切割的,这时候X和y就可以用,x是清洗好的数据,y是我们要预测的存活数据'Survived'
X = data
y = train['Survived']
# 对数据集进行切割
X_train, X_test, y_train, y_test = train_test_split(X, y, stratify=y, random_state=0)
# 查看数据形状
X_train.shape, X_test.shape

第三章 模型建立及评估

其中stratify=y的作用是:保持测试集与整个数据集里y的数据分类比例一致。而random_state=0则保证了随机结果能重复出现。

 2.模型创建

模型分为基于线性模型的分类模型(逻辑回归)和基于树的分类模型(决策树、随机森林)。

from sklearn.linear_model import LogisticRegression
from sklearn.ensemble import RandomForestClassifier
lr = LogisticRegression()
lr.fit(X_train, y_train)
#默认参数逻辑回归模型
# 查看训练集和测试集score值
print("Training set score: {:.2f}".format(lr.score(X_train, y_train)))
print("Testing set score: {:.2f}".format(lr.score(X_test, y_test)))

train set 用来训练模型,估计参数。

test set 用来测试和评估训练出来的模型好坏,不能用于训练模型。

第三章 模型建立及评估

# 调整参数后的逻辑回归模型
lr2 = LogisticRegression(C=100)
lr2.fit(X_train, y_train)
print("Training set score: {:.2f}".format(lr2.score(X_train, y_train)))
print("Testing set score: {:.2f}".format(lr2.score(X_test, y_test)))

 第三章 模型建立及评估

# 默认参数的随机森林分类模型
rfc = RandomForestClassifier()
rfc.fit(X_train, y_train)
print("Training set score: {:.2f}".format(rfc.score(X_train, y_train)))
print("Testing set score: {:.2f}".format(rfc.score(X_test, y_test)))

 第三章 模型建立及评估

# 调整参数后的随机森林分类模型
rfc2 = RandomForestClassifier(n_estimators=100, max_depth=5)
rfc2.fit(X_train, y_train)
print("Training set score: {:.2f}".format(rfc2.score(X_train, y_train)))
print("Testing set score: {:.2f}".format(rfc2.score(X_test, y_test)))

第三章 模型建立及评估

3.输出模型预测结果

一般监督模型在sklearn里面有个predict能输出预测标签,predict_proba则可以输出标签概率。

# 预测标签
pred = lr.predict(X_train)
pred[:10]

第三章 模型建立及评估

# 预测标签概率
pred_proba = lr.predict_proba(X_train)
pred_proba[:10]

 第三章 模型建立及评估

是否存活分为0和1两种情况。所以预测标签为0或1。预测标签概率中, 每行对应一条预测数据,两列分别对应 对于0、1的预测概率,概率和为1。取概率最大的类别作为样本的预测结果,如第一行中,0.60877>0.39122,所以预测结果为0。

模型评估

  • 模型评估是为了知道模型的泛化能力。
  • 交叉验证(cross-validation)是一种评估泛化性能的统计学方法,它比单次划分训练集和测试集的方法更加稳定、全面。
  • 在交叉验证中,数据被多次划分,并且需要训练多个模型。
  • 最常用的交叉验证是 k 折交叉验证(k-fold cross-validation),其中 k 是由用户指定的数字,通常取 5 或 10。
  • 准确率(precision)度量的是被预测为正例的样本中有多少是真正的正例
  • 召回率(recall)度量的是正类样本中有多少被预测为正类
  • f-分数是准确率与召回率的调和平均

1.交叉验证 

from sklearn.model_selection import cross_val_score
lr = LogisticRegression(C=100)
scores = cross_val_score(lr, X_train, y_train, cv=10)
scores# k折交叉验证分数
# 平均交叉验证分数
print("Average cross-validation score: {:.2f}".format(scores.mean()))

第三章 模型建立及评估 

 第三章 模型建立及评估

 k值越大,会导致计算量增大,可能会无法承受,所以需要谨慎选取。

2.混淆矩阵

*TP(True Positive):将正类预测为正类数,真实为1,预测也为1

*FN(False Negative):将正类预测为负类数,真实为1,预测为0

*FP(False Positive):将负类预测为正类数, 真实为0,预测为1

*TN(True Negative):将负类预测为负类数,真实为0,预测也为0

第三章 模型建立及评估

第三章 模型建立及评估 

from sklearn.metrics import confusion_matrix
# 训练模型
lr = LogisticRegression(C=100)
lr.fit(X_train, y_train)
# 模型预测结果
pred = lr.predict(X_train)
# 混淆矩阵
confusion_matrix(y_train, pred)

 第三章 模型建立及评估

from sklearn.metrics import classification_report
# 精确率、召回率以及f1-score
print(classification_report(y_train, pred))

第三章 模型建立及评估

可以看出,此模型的准确度为79%,其中预测为死亡(即0 )的准确概率为81%,而预测为存活(即1)的准确概率为75%,说明此模型的预测效果较良好。

 3.ROC曲线

ROC的全称是Receiver Operating Characteristic Curve,即受试者工作特征曲线。该曲线的横坐标为假阳性率(False Positive Rate, FPR),纵坐标为真阳性率(True Positive Rate, TPR)。TPR=TP/(TP+FN),FPR=FP/(FP+TN)。 ROC曲线下面所包围的面积越大越好,TPR越大越好,而FPR越小越好,两个指标之间是相互制约的关系。

from sklearn.metrics import roc_curve
fpr, tpr, thresholds = roc_curve(y_test, lr.decision_function(X_test))
plt.plot(fpr, tpr, label="ROC Curve")
plt.xlabel("FPR")
plt.ylabel("TPR (recall)")
# 找到最接近于0的阈值
close_zero = np.argmin(np.abs(thresholds))
plt.plot(fpr[close_zero], tpr[close_zero], 'o', markersize=10, label="threshold zero", fillstyle="none", c='k', mew=2)
plt.legend(loc=4)

第三章 模型建立及评估

指定阙值时,大于这个阙值的实例划归为正类,小于这个值则划到负类中。ROC曲线上的每一个点对应于一个threshold,对于一个分类器,每个threshold下会有一个TPR和FPR,ROC越往接近左上角,说明分类器效果越好。找到最接近0的阙值可以用来判断0-1分类的效果较良好,预测模型良好。

 总结:在第三章中,关于模型建立以及评估,学习到了更多机器学习相关的内容,接触到了分类模型,预测标签,交叉验证,混淆矩阵,ROC曲线等知识。有了更多的困惑,也意识到自己有很多需要学习的地方,收获很大。

上一篇:teststand 2020|ni teststand 2020(测试管理软件) 附安装教程


下一篇:Shell中分支语句