我正在尝试运行一个非常简单的示例,其中XGBoost获取一些数据并进行二进制分类. documentation表示xgboost在使用“binary:logistic”时输出概率
import numpy as np
import xgboost as xgb
data = np.random.rand(7,10)
label = np.random.randint(2,size=7)
#print data
#print label
dtrain = xgb.DMatrix(data, label=label)
param = {'bst:max_depth':2, 'bst:eta':1, 'silent':1, 'objective':'binary:logistic' }
plst = param.items()
bst = xgb.train(plst,dtrain,)
dtest= xgb.DMatrix(np.random.rand(4,10))
ypred = bst.predict(dtest)
print ypred
输出是:
[ 0.31350434 0.31350434 0.31350434 0.31350434]
那么这个输出是什么意思呢?这是否意味着我有31%的机会获得1分?
我如何将其翻译为0,1?
这个question似乎有关系,但我无法从中获得任何有用的东西.
解决方法:
要将概率转换为结果或类(0或1),您可以使用阈值,如上所述(它不一定必须是0.5).问题在于找到一个决策边界,你可以看到一个很好的高级解释here.