k邻近是一种不显式的学习算法,其实我感觉它就像个无赖,比如说一堆小朋友玩,小蓝问洪涛:你是好人还是坏蛋?洪涛从身边抓了3个小朋友,其中有两个是好人,一个是坏蛋,洪涛就可以说:“俺身边大多数人都是好人,所以俺也是好人!”
代码如下:
import numpy as np
from sklearn.neighbors import KNeighborsClassifier
def main():
# 训练数据
X_train=np.array([[5,4],
[9,6],
[4,7],
[2,3],
[8,1],
[7,2]])
y_train=np.array([1,1,1,-1,-1,-1])
# 待预测数据
X_new = np.array([[5, 3],[6,2]])
# 不同k值对结果的影响
for k in range(1,6,2):
# 构建实例
clf = KNeighborsClassifier(n_neighbors=k,n_jobs=-1)
# 选择合适算法
clf.fit(X_train, y_train)
# print(clf.kneighbors(X_new))
# 预测
y_predict=clf.predict(X_new)
print(clf.predict_proba(X_new))
#print("预测正确率:{:.0%}".format(clf.score([[5,3]],[[-1]])))
print("k={},被分类为:{}".format(k,y_predict))
if __name__=="__main__":
main()
我认为与其说是训练,不如说就在原始数据中进行对比。