选择算法确定模型
主要是根据特征和标签之间的关系,选出一个合适的算法,并找出与之对应的合适算法包,然后通过调用这个算法包来建立模型,通过上一篇文章,这个数据集里的某些特征和标签之间存在着近似线性的关系。而且这个数据集的标签是连续变量,因此适合用回归分析来寻找从特征到标签的预测函数。
所谓的回归分析(regression analysis)就是确定两种或两种以上变量间相互依赖的定量关系的一种统计分析,说白了就是当自变量变化的时候,研究一下因变量是怎么跟着变化的,它可以用来预测客流量、降雨量、销售量等。
回归分析的算法有多种,如线性回归、多项式回归、贝叶斯回归等等。具体根据特征和标签 之间的关系来决定。初始时特征和标签可能存在线性关系可以用最简单、最基础的机器学习算法线性回归来建模,线性回归是给每一个特征变量找参数的过程。
比如数学中一元线性回归公式:y = a*x +b 对于机器学习来说,我们把斜率a叫做权重(weight) ,用英文字母w代表,把截距b叫做偏置(bias) ,用英文字母b代表,机器学习中一元线性回归公式表示为:
Y = w*x +b
机器学习算法包
常用的算法工具包是scikit-learn ,简称sklearn 它是使用最广泛的开源python机器学习库,sklearn提供了大量用于数据挖掘的机器学习工具,覆盖数据预处理、可视化、交叉验证和多种机器学习算法。
建立模型
调用LinearRegression建立模型非常简单,如下
from sklearn.liner_model import LinerRegression # 导入线性回归算法模型 linereg_model = LinearRegression() # 使用线性回归创建模型
模型参数有两种,内部参数和外部参数。内部参数是属于算法本身的一部分,不用我们人工来确定,比如线性回归中的权重w和截距b,都是线性回归的内部参数;而外部参数也叫做超参数,他们的值是在创建模型时,由我们自己设定的。LinearRegression模型外部参数主要包含两个布尔值:
fit_intercept ,默认值为True,代表是否计算模型的截距
normalize,默认值为Flase代表是否对特征X在回归之前做规范化。
-
训练拟合模型
训练模型就是用训练集中的特征变量和已知标签,根据样本大小的损失大小来逐渐拟合函数,确定最优的内部参数,最后完成模型。
linereg_model.fit(x_train,y_train) # 用训练集数据,训练机器,拟合函数,确定内部参数
主要得益于机器学习库的存在,直接通过fit完成模型训练,fit内部核心就是优化其内部参数减少损失,使函数对特征到标签的模拟越来越贴切, 针对所有样本,找到一组平均损失较小的模型参数。 这其中的关键就是:通过梯度下降,逐步优化模型的参数,使训练集误差值达到最小。
梯度下降:通过求导的方法,找到每一步的方向,确保总是往更小的损失方向前进。
-
评估并优化模型性能。
在验证集和测试集进行模型效果评估的过程中,我们则是通过最小化误差来实现超参数(模型外部参数)的优化。机器学习包中(如scikit-learn)都会提供常用的工具和指标,对验证集和测试集进行评估,进而计算当前的误差。比如R方或者MSE均方误差指标,就可以用于评估回归分析模型的优劣。
预测方法:
通常就直接使用模型中的predict方法进行:
y_pred = linereg_model.predict(x_test) #预测测试集的Y值
比较测试数据集的原始特征数据、原始标签值和模型对标签的预测值组合一起显示、比较
df_ads_pred= X_test.copy() #测试集特征数据 df_ads_pred['浏览量真值'] = y_test df_ads_pred['浏览量预测值'] = y_pred df_ads_pred
查看模型长得什么样?通过LinearRegression的coef_和intercept_属性打印出各个特征的权重和模型的偏置来,它们就是模型的内部参数。
linereg_model.coef_ linereg_model.intercept_
模型的评估分数:常用于评估回归分析模型的指标有两种:R方分数和MSE指标,并且大多数机器学习工具包中都会提供相关的工具,以下是用R方分数来评估模型
linears_model.score(x_test,y_test)
机器学习项目是一个循环迭代的过程,优秀的模型都是一次次迭代的产物模型评估 需要反复评测,找到最优的超参数,确定最终模型。