随机森林:就是字面意思,在一个地方,有多个树一起组成的森林。也就是由多棵决策树来组成对于问题的判断。
树林的形成:
对于每一个树木,他的训练集和特征要不一样才可以发挥数的特性,否则就是将一颗决策树多次复制。因此,对于训练集的选择,使用bootstrap的抽样方法,就是不放回随机抽样。特征的选取也采用这种方法
API:
from sklearn.ensemble import RandomForestClassifier
RandomForestClassifier(n_estimators=100, criterion='gini', max_depth=None, bootstrap, min_samples_split=2)
# n_estimator 树木的个数
# criteria 默认gini,可选
# max_depth 树的最大深度
# max_features ‘auto’ 和‘sqrt’效果一样,开方决定个数
# ‘log2’ 将特征总数取log2得到
# ‘None’ 所有特征都使用
from math import log2
import pandas as pd
from sklearn.model_selection import train_test_split
from sklearn.ensemble import RandomForestClassifier
from sklearn.model_selection import GridSearchCV
data = pd.read_csv('DS/wine/winequality-red.csv')
feature = data.iloc[:, :11]
target = data.iloc[:, 11:]
target = target.values.ravel()
x_train, x_test, y_train, y_test = train_test_split(
feature, target, random_state=0, test_size=0.25)
estimator = RandomForestClassifier()
dir = {'n_estimators': [120],
'max_depth': [14],
'max_features': [None, 'log2', 'auto']}
estimator = GridSearchCV(estimator, param_grid=dir, cv=8)
estimator.fit(x_train, y_train)
print(estimator.score(x_test, y_test))
print(estimator.best_estimator_)
0.7
RandomForestClassifier(max_depth=14, n_estimators=120)
可见,随机森林的预测效果相比于单颗树的预测效果还是较好的