1.混淆矩阵(一级指标)
以分类模型中最简单的二分类为例,对于这种问题,我们的模型最终需要判断样本的结果是0还是1,或者说是positive还是negative。我们通过样本的采集,能够直接知道真实情况下,哪些数据结果是positive,哪些结果是negative。同时,我们通过用样本数据跑出分类型模型的结果,也可以知道模型认为这些数据哪些是positive,哪些是negative。因此,我们就能得到这样四个基础指标,我称他们是一级指标(最底层的):
- 真实值是positive,模型认为是positive的数量(True Positive=TP)
- 真实值是positive,模型认为是negative的数量(False Negative=FN):这就是统计学上的第一类错误(Type I Error)
- 真实值是negative,模型认为是positive的数量(False Positive=FP):这就是统计学上的第二类错误(Type II Error)
- 真实值是negative,模型认为是negative的数量(True Negative=TN)
注:T肯定是对的,F是错的。
预测性分类模型,肯定是希望越准越好。那么,对应到混淆矩阵中,那肯定是希望TP与TN的数量大,而FP与FN的数量小。所以当我们得到了模型的混淆矩阵后,就需要去看有多少观测值在第二、四象限对应的位置,这里的数值越多越好;反之,在第一、三象限对应位置出现的观测值肯定是越少越好。
2.二级指标
但是,混淆矩阵里面统计的是个数,有时候面对大量的数据,光凭算个数,很难衡量模型的优劣。因此混淆矩阵在基本的统计结果上又延伸了如下4个指标,我称他们是二级指标(通过最底层指标加减乘除得到的):
- 准确率(Accuracy)—— 针对整个模型
- 精确率(Precision)
- 灵敏度(Sensitivity):就是召回率(Recall)
- 特异度(Specificity)
可以将混淆矩阵中数量的结果转化为0-1之间的比率。便于进行标准化的衡量。
3.三级指标
在这四个指标的基础上在进行拓展,会产令另外一个三级指标这个指标叫做F1 Score。他的计算公式是:
其中,P代表Precision,R代表Recall。
F1-Score指标综合了Precision与Recall的产出的结果。F1-Score的取值范围从0到1的,1代表模型的输出最好,0代表模型的输出结果最差。
4.ROC曲线
ROC曲线:Receiver Operating Characteristic曲线,横轴是FPR(False Positive Rate),纵轴是TPR(True Positive Rate)。
AUC(Area Under ROC Curve):ROC曲线下的面积。
5.K-S曲线
洛伦兹曲线(Kolmogorov-Smirnov curve)值越大,表示模型能够将正、负客户区分开的程度越大。KS值的取值范围是[0,1] 。
KS曲线是两条线,其横轴是阈值,纵轴是TPR(上面那条)与FPR(下面那条)的值,值范围[0,1] 。两条曲线之间之间相距最远(差)的地方对应的阈值,就是最能划分模型的阈值。绘制过程如下:
可以看出,在阈值等于0.4的地方,TPR和FPR差最大,说明该处阈值可作为最佳区分点。
6.相关代码
6.1 混淆矩阵pyspark
1 ''' 2 TP(True Positive):真实为1,预测为1 3 FN(False Negative):真实为1,预测为0 4 FP(False Positive):真实为0,预测为1 5 TN(True Negative):真实为0,预测为0 6 ''' 7 #训练集 8 a=0.1 9 result_train_tmp=result_train.withColumn("tp",F.expr("""case when label=1 and round(prediction+{a},0)=1 then 1 else 0 end""".format(a=a))).\ 10 withColumn("fn",F.expr("""case when label=1 and round(prediction+{a},0)=0 then 1 else 0 end""".format(a=a))).\ 11 withColumn("fp",F.expr("""case when label=0 and round(prediction+{a},0)=1 then 1 else 0 end""".format(a=a))).\ 12 withColumn("tn",F.expr("""case when label=0 and round(prediction+{a},0)=0 then 1 else 0 end""".format(a=a)))View Code
6.2 ROC曲线python
import matplotlib.pyplot as plt plt.rcParams['font.sans-serif'] = ['SimHei'] plt.rcParams['axes.unicode_minus'] = False plt.rcParams.update({'font.size': 10}) plt.rcParams['savefig.dpi'] = 300 #图片像素 plt.rcParams['figure.dpi'] = 300 #分辨率 # 预测 y_pred_lr=lr.predict_proba(x_test) # 计算AUC fpr_lr,tpr_lr,thresholds = roc_curve(y_test,y_pred_lr[:,1],pos_label=1) roc_auc_lr = auc(fpr_lr, tpr_lr) # 绘制roc plt.rcParams['figure.figsize']=(8,5) plt.figure() plt.plot(fpr_lr, tpr_lr, color='darkorange', label='ROC curve (area = %0.2f)' % roc_auc_lr) plt.plot([0, 1], [0, 1], color='navy', linestyle='--') plt.xlim([0.0, 1.0]) plt.ylim([0.0, 1.05]) plt.xlabel('False Positive Rate') plt.ylabel('True Positive Rate') plt.title('ROC曲线-LR') plt.legend(loc="lower right") #------------------------------------------------- #交叉验证画roc from sklearn.model_selection import KFold kf=KFold(n_splits=5) fig=plt.figure(figsize=(7,5)) mean_tpr=0.0 mean_fpr=np.linspace(0,1,100) all_tpr=[] x_train=np.array(x_train) y_train=np.array(y_train) i=0 for train_index,test_index in kf.split(x_train): model=gbdt.fit(x_train[train_index],y_train[train_index]) probas=model.predict_proba(x_train[test_index]) fpr,tpr,thresholds = roc_curve(y_train[test_index],probas[:,1],pos_label=1) mean_tpr+=np.interp(mean_fpr,fpr,tpr) mean_tpr[0]=0.0 roc_auc = auc(fpr,tpr) plt.plot(fpr,tpr,lw=1,label='ROC fold %d (area = %0.2f)'%(i+1,roc_auc)) i+=1 plt.plot([0,1],[0,1],linestyle='--',color=(0.6,0.6,0.6),label='random guessing') mean_tpr/=5 mean_tpr[-1]=1.0 mean_auc=auc(mean_fpr,mean_tpr) plt.plot(mean_fpr,mean_tpr,'k--',label='mean ROC (area=%0.2f)'%mean_auc,lw=2) plt.plot([0,0,1],[0,1,1],lw=2,linestyle=':',color='black',label='perfect performance') plt.xlim([-0.05,1.05]) plt.ylim([-0.05,1.05]) plt.xlabel('false positive rate') plt.ylabel('true positive rate') plt.title('Receiver Operator Characteristic') plt.legend(loc='lower right') plt.show()View Code
6.3 K-S曲线python
1 # 绘制K-S曲线 2 import numpy as np 3 import pandas as pd 4 def PlotKS(preds, labels, n, asc): 5 6 # preds is score: asc=1 7 # preds is prob: asc=0 8 # n为划分阈值的个数,10为0-1 9 10 pred = preds # 预测值 11 bad = labels # 取1为bad, 0为good 12 ksds = pd.DataFrame({'bad': bad, 'pred': pred}) 13 ksds['good'] = 1 - ksds.bad 14 15 if asc == 1: 16 ksds1 = ksds.sort_values(by=['pred', 'bad'], ascending=[True, True]) 17 elif asc == 0: 18 ksds1 = ksds.sort_values(by=['pred', 'bad'], ascending=[False, True]) 19 ksds1.index = range(len(ksds1.pred)) 20 ksds1['cumsum_good1'] = 1.0*ksds1.good.cumsum()/sum(ksds1.good) 21 ksds1['cumsum_bad1'] = 1.0*ksds1.bad.cumsum()/sum(ksds1.bad) 22 23 if asc == 1: 24 ksds2 = ksds.sort_values(by=['pred', 'bad'], ascending=[True, False]) 25 elif asc == 0: 26 ksds2 = ksds.sort_values(by=['pred', 'bad'], ascending=[False, False]) 27 ksds2.index = range(len(ksds2.pred)) 28 ksds2['cumsum_good2'] = 1.0*ksds2.good.cumsum()/sum(ksds2.good) 29 ksds2['cumsum_bad2'] = 1.0*ksds2.bad.cumsum()/sum(ksds2.bad) 30 31 # ksds1 ksds2 -> average 32 ksds = ksds1[['cumsum_good1', 'cumsum_bad1']] 33 ksds['cumsum_good2'] = ksds2['cumsum_good2'] 34 ksds['cumsum_bad2'] = ksds2['cumsum_bad2'] 35 ksds['cumsum_good'] = (ksds['cumsum_good1'] + ksds['cumsum_good2'])/2 36 ksds['cumsum_bad'] = (ksds['cumsum_bad1'] + ksds['cumsum_bad2'])/2 37 38 # ks 39 ksds['ks'] = ksds['cumsum_bad'] - ksds['cumsum_good'] 40 ksds['tile0'] = range(1, len(ksds.ks) + 1) 41 ksds['tile'] = 1.0*ksds['tile0']/len(ksds['tile0']) 42 43 qe = list(np.arange(0, 1, 1.0/n)) 44 qe.append(1) 45 qe = qe[1:] 46 47 ks_index = pd.Series(ksds.index) 48 ks_index = ks_index.quantile(q = qe) 49 ks_index = np.ceil(ks_index).astype(int) 50 ks_index = list(ks_index) 51 52 ksds = ksds.loc[ks_index] 53 ksds = ksds[['tile', 'cumsum_good', 'cumsum_bad', 'ks']] 54 ksds0 = np.array([[0, 0, 0, 0]]) 55 ksds = np.concatenate([ksds0, ksds], axis=0) 56 ksds = pd.DataFrame(ksds, columns=['tile', 'cumsum_good', 'cumsum_bad', 'ks']) 57 58 ks_value = ksds.ks.max() 59 ks_pop = ksds.tile[ksds.ks.idxmax()] 60 print ('ks_value is ' + str(np.round(ks_value, 4)) + ' at pop = ' + str(np.round(ks_pop, 4))) 61 62 # chart 63 64 # chart 65 plt.plot(ksds.tile, ksds.cumsum_good, label='cum_good', 66 color='blue', linestyle='-', linewidth=2) 67 68 plt.plot(ksds.tile, ksds.cumsum_bad, label='cum_bad', 69 color='red', linestyle='-', linewidth=2) 70 71 plt.plot(ksds.tile, ksds.ks, label='ks', 72 color='green', linestyle='-', linewidth=2) 73 74 plt.axvline(ks_pop, color='gray', linestyle='--') 75 plt.axhline(ks_value, color='green', linestyle='--') 76 plt.axhline(ksds.loc[ksds.ks.idxmax(), 'cumsum_good'], color='blue', linestyle='--') 77 plt.axhline(ksds.loc[ksds.ks.idxmax(),'cumsum_bad'], color='red', linestyle='--') 78 plt.title('KS=%s ' %np.round(ks_value, 4) + 79 'at Pop=%s' %np.round(ks_pop, 4), fontsize=15) 80 81 82 return ksdsView Code
6.4 其他指标计算python
1 from sklearn.metrics import precision_score, recall_score, f1_score,accuracy_score 2 3 acc=accuracy_score(y_test, y_pred_lr_new) 4 p = precision_score(y_test, y_pred_lr_new, average='binary') 5 r = recall_score(y_test, y_pred_lr_new, average='binary') 6 f1score = f1_score(y_test, y_pred_lr_new, average='binary') 7 print(acc,p,r,f1score)View Code
相关链接:
混淆矩阵:https://blog.csdn.net/Orange_Spotty_Cat/article/details/80520839
ROC曲线绘制:https://blog.csdn.net/cymy001/article/details/79613787