K近邻法(knn)是一种基本的分类与回归方法。k-means是一种简单而有效的聚类方法。
knn
算法思路:
如果一个样本在特征空间中的k个最相似(即特征空间中最邻近)的样本中的大多数属于某一个类别,则该样本也属于这个类别。
k近邻模型的三个基本要素:
k值的选择:k值的选择会对结果产生重大影响。较小的k值可以减少近似误差,但是会增加估计误差;较大的k值可以减小估计误差,但是会增加近似误差。一般而言,通常采用交叉验证法来选取最优的k值。
距离度量:距离反映了特征空间中两个实例的相似程度。可以采用欧氏距离、曼哈顿距离等。
分类决策规则:少数服从多数。
k-means
算法步骤:
- 从n个数据中随机选择 k 个对象作为初始聚类中心;
- 根据每个聚类对象的均值(中心对象),计算每个数据点与这些中心对象的距离;并根据最小距离准则,重新对数据进行划分;
- 重新计算每个有变化的聚类簇的均值,选择与均值距离最小的数据作为中心对象;
- 循环步骤2和3,直到每个聚类簇不再发生变化为止。
k-means方法的基本要素:
k值的选择:也就是类别的确定,与K近邻中k值的确定方法类似。
距离度量:可以采用欧氏距离、曼哈顿距离等。