机器学习——kNN(1)基本原理

=================================版权声明=================================

版权声明:原创文章 禁止转载 

请通过右侧公告中的“联系邮箱(wlsandwho@foxmail.com)”联系我

勿用于学术性引用。

勿用于商业出版、商业印刷、商业引用以及其他商业用途。                

本文不定期修正完善。

本文链接:http://www.cnblogs.com/wlsandwho/p/7512119.html

耻辱墙:http://www.cnblogs.com/wlsandwho/p/4206472.html

=======================================================================

很显然我没有足够的巩俐,啊功力去讲解机器学习的大道理,但是我愿意把我的读书笔记分享出来。

当然,我保留版权。

=======================================================================

关于kNN算法的伪代码描述,我这里得写一下,因为《机器学习实践》这本书里写的不是很清楚。(当然我的用词更通俗,毕竟不能照抄原文啊:)

1   计算目标点与数据集中每个点的距离。

  这个求距离的算法应当是根据实际情况具体问题具体分析采取的。书中使用的是欧几里德几何体系里的两点之间的距离。对,就是初中学的那个。

2  对距离的结果按照从小到大的顺序排序。

  这里要记录哪个结果是由哪个点产生的。总不能排序之后结果排序了,但是对应点找不到了吧?

3  从结果中取前k个点。

  kNN算法之所以叫kNN算法,是因为它选取了前k个点。 

4  记录这k个点对应类别的频率。

  比方说在这k个点中,a类出现了5次,b类出现了2次,c类出现了7次

5  取出现频率最高的类别作为结果。

  通俗地讲,就是发现跟a有5成像,跟b有2成像,跟c有7成像。当然是选最像的啦。

=======================================================================

话是这么说,看起来也很简单。但是用指定的编程语言实现,就得看对于该语言的熟练程度了。

比方说,我用C++写的话,比较麻烦的地方是矩阵运算,其他就很简单了。

但是用Python的话,我需要熟悉相关的类库和代码。

=======================================================================

对于我这种只看过《Python编程:从入门到实践》的人来说,看《机器学习与实践》的代码还是要查资料的。

要理解下面的内容:

1  tile(x,(m,n))

  通俗的说就是把指定的块x,按行复制m次,按列复制n次。m和n是可以取0的,但这没有意义,因为把没有复制了0次,还是没有啊:)

  为什么我说的是块x呢?因为这个x可以是一个数,也可以是一个矩阵。对,大学线性代数课程里对矩阵运算时,就是可以把某一部分看成一个子矩阵的。这个同理。

2  x.sum(axis=?)

  手册上说,是垂直求和还是水平求和。

3  a.argsort()

  这个得画个图。一图胜千言。输入5316,输出2103。

机器学习——kNN(1)基本原理

贴出示例小代码有助于理解。毕竟我们用事实说话。

 from numpy import *
import operator r=array([[1,2,3,4],[5,6,7,8],[9,10,11,12]])
rows=r.shape[0]
print(rows) x=[5,6]
xxx=tile(x,(3,2))
print(xxx) a=array([5,3,1,6])
#1,3, 5, 6
#2,1, 0, 3
b=a.argsort()
print(b)
print(b[0]) c={}
c['c']=1
c["b"]=2
c["a"]=1
c["a"]=c.get('a')+5
print(c["a"]) d=sorted(c.items(),key=operator.itemgetter(1),reverse=True)
print(d)
print(d[0][0]) mm=array([[1,2,3],[5,6,7]])
print(mm.sum(axis=0))
print(mm.sum(axis=1))

机器学习——kNN(1)基本原理

=======================================================================

好了,可以贴我的kNN代码了。Python的风格不习惯,随手写了下。

 from numpy import *
import operator def create_data_set():
group=array([[1.0,1.1],[1.0,1.0],[0,0],[0,0.1]])
labels=["A","A","B","B"] return group,labels def classify_kNN(dest,sample,labels,k):
rows=sample.shape[0]
dests=tile(dest,(rows,1))
res=(((dests-sample)**2).sum(axis=1))**0.5
resrank=res.argsort() clfy={} for i in range(k):
index=resrank[i]
sometype=labels[index]
clfy[sometype]=clfy.get(sometype,0)+1 sclfy=sorted(clfy.items(),key=operator.itemgetter(1),reverse=True) return sclfy[0][0]

这是算法。

下面是调用。

 g,l=create_data_set()
r=classify_kNN([0.5,0.6],g,l,2)
print(r)

这个是结果

机器学习——kNN(1)基本原理

=======================================================================

那么问题来了:

新分类值是否可以加入样本扩充原来的数据?

上一篇:Alpha集合


下一篇:使用 .toLocaleString() 轻松实现多国语言价格数字格式化