聚类方法K-means和DBSCAN,附matlab代码

目录

引言

聚类的主要特点

聚类算法的主要步骤

聚类的应用场景

聚类算法的局限性

聚类方法

1. K-means聚类算法

2. DBSCAN聚类算法

3. 层次聚类算法


引言

聚类(Clustering)是数据挖掘和统计学中的一个重要概念,它是一种无监督学习的方法,用于将数据集中的样本或观测值分组为若干个类或簇(Cluster),使得同一簇内的样本之间相似度较高,而不同簇的样本之间相似度较低。与监督学习(如分类)不同,聚类不需要事先知道每个样本的类别标签,它完全基于数据本身的特征来进行分组。

聚类的主要特点

  1. 无监督学习:聚类算法不需要训练数据集中的标签信息,它们仅根据数据本身的特征来发现数据的内在结构。
  2. 发现隐藏模式:聚类可以帮助我们发现数据中的隐藏模式或群组,这些群组可能对应着数据的不同类别或子群体。
  3. 多样性和灵活性:存在多种聚类算法,每种算法都有其独特的优势和适用场景,如基于距离的聚类(如K-means)、基于密度的聚类(如DBSCAN)、基于层次的聚类(如AGNES和DIANA)等。

聚类算法的主要步骤

  1. 特征选择:选择用于聚类的数据特征。
  2. 相似性度量:定义如何计算样本之间的相似性或距离。
  3. 聚类算法选择:根据数据的特性和需求选择合适的聚类算法。
  4. 执行聚类:应用选定的聚类算法对数据进行分组。
  5. 评估聚类结果:评估聚类结果的质量,可能需要根据实际需求进行多次迭代调整。
  6. 结果解释和应用:解释聚类结果,并将其应用于实际问题解决中。

聚类的应用场景

聚类在多个领域都有广泛的应用,包括但不限于:

  • 市场细分:将消费者根据购买行为、偏好等特征进行分组,以制定更精准的营销策略。
  • 生物信息学:对基因表达数据进行聚类,以发现具有相似表达模式的基因群组。
  • 图像处理:对图像中的像素或特征进行聚类,以实现图像分割、目标检测等任务。
  • 社交网络分析:对用户或群组进行聚类,以发现社交网络中的社区结构或用户行为模式。
  • 文本挖掘:对文档或文本数据进行聚类,以发现主题或信息类别。

聚类算法的局限性

尽管聚类具有广泛的应用,但它也存在一些局限性:

  • 聚类结果的不确定性:由于聚类是无监督学习,聚类结果可能受到算法选择、参数设置等多种因素的影响,导致结果具有一定的不确定性。
  • 对数据质量的依赖:聚类效果很大程度上依赖于输入数据的质量,如数据的完整性、准确性等。
  • 难以解释性:在某些情况下,聚类结果可能难以直观解释或理解,特别是对于高维数据或复杂数据集。

总之,聚类是一种强大的数据分析工具,它可以帮助我们发现数据中的隐藏模式和群组结构,为后续的决策分析提供有力支持。然而,在实际应用中,我们也需要充分考虑其局限性和挑战,以选择合适的聚类方法和策略。

聚类方法

常用的聚类方法多种多样,每种方法都有其独特的优势和适用场景。以下是一些常用的聚类方法及其详细介绍:

1. K-means聚类算法

概述
K-means聚类算法是一种基于划分的聚类方法,由James MacQueen在1967年提出。该算法将数据分为K个簇,通过迭代的方式优化簇内数据点的平均距离,使得同一簇内的数据点尽可能相似,而不同簇间的数据点尽可能不同。

步骤

  1. 随机选择K个数据点作为初始的聚类中心。
  2. 计算每个数据点与各个聚类中心之间的距离,将数据点分配到最近的聚类中心所在的簇中。
  3. 重新计算每个簇的聚类中心(通常是簇内数据点的均值)。
  4. 重复步骤2和3,直到聚类中心不再发生变化或达到其他终止条件(如迭代次数限制、误差平方和局部最小等)。

优点

  • 实现简单,收敛速度快。
  • 聚类效果通常较好,特别是当簇的形状接近球形时。

缺点

  • 需要事先指定聚类数目K。
  • 对初始聚类中心的选择敏感,可能导致不同的聚类结果。
  • 对噪声和异常值敏感。
clc;  
clear;  
  
% 假设data已经被加载,并且是一个二维数组(N x M),其中N是样本数,M是特征数  


% 聚类中心的数量  
k = 3;  
  
% 显示原始数据的一部分(可选)  
figure;  
subplot(1,2,1);  
plot(data(:,1), data(:,2), 'o'); % 假设我们有两个特征来可视化  
xlabel('Feature 1');  
ylabel('Feature 2');  
title('Original Data Points');  
grid on;  
  
% 初始化聚类中心(随机选择)  
indices = randperm(size(data, 1), k);  
CC = data(indices, :);  
  
% 初始化距离矩阵和聚类分配矩阵  
D = zeros(size(data, 1), k);  
C = cell(1, k);  
for i = 1:k  
    C{i} = [];  
end  
  
% 迭代过程  
while true  
    % 计算每个点到每个聚类中心的距离  
    for i = 1:size(data, 1)  
        for j = 1:k  
            D(i, j) = sqrt(sum((data(i, :) - CC(j, :)) .^ 2, 2)); % 计算欧氏距离  
        end  
        [~, minIndex] = min(D(i, :)); % 找到最近的聚类中心索引  
        % 更新聚类分配  
        if ~isempty(C{minIndex})  
            C{minIndex} = [C{minIndex}, i];  
        else  
            C{minIndex} = i;  
        end  
    end  
  
    % 重新计算聚类中心  
    newCC = zeros(k, size(data, 2));  
    for j = 1:k  
        if ~isempty(C{j})  
            newCC(j, :) = mean(data(C{j}, :), 1); % 计算新的聚类中心  
        end  
    end  
  
    % 检查聚类中心是否收敛  
    if all(newCC == CC, 'all')  
        break;  
    end  
  
    CC = newCC; % 更新聚类中心  
end  
  
% 绘制聚类结果  
figure;  
subplot(1,2,2);  
colors = ['r', 'g', 'b'];  
for j = 1:k  
    if ~isempty(C{j})  
        plot(data(C{j}, 1), data(C{j}, 2), '.', 'Color', colors(j));  
        hold on;  
        plot(newCC(j, 1), newCC(j, 2), 'kx', 'MarkerSize', 15, 'LineWidth', 3, 'Color', colors(j));  
    end  
end  
xlabel('Feature 1');  
ylabel('Feature 2');  
title('K-means Clustering Results');  
grid on;  
legend(arrayfun(@(j) sprintf('Cluster %d', j), 1:k, 'UniformOutput', false));

2. DBSCAN聚类算法

概述
DBSCAN(Density-Based Spatial Clustering of Applications with Noise)是一种基于密度的聚类算法。该算法将簇定义为密度相连的点的最大集合,能够发现任意形状的簇,并处理噪声点。

核心概念

  • ε邻域:给定对象半径为ε内的区域称为该对象的ε邻域。
  • 核心对象:如果给定对象ε邻域内的样本点数大于等于MinPts(最小点数),则称该对象为核心对象。
  • 密度可达密度相连:基于核心对象和ε邻域的概念,定义了密度可达和密度相连的关系,用于描述簇内数据点之间的连接性。

步骤

  1. 从数据集中随机选择一个未处理的数据点p。
  2. 如果p是核心对象,则找出所有从p密度可达的数据点,形成一个簇。
  3. 递归地对簇内的每个未处理的数据点执行步骤2,直到簇内的所有点都被处理。
  4. 重复步骤1-3,直到数据集中的所有点都被处理完毕。

优点

  • 不需要事先指定聚类数目。
  • 能够发现任意形状的簇。
  • 对噪声和异常值具有鲁棒性。

缺点

  • 对参数ε和MinPts的选择敏感。
  • 当数据集的密度差异很大时,可能难以选择合适的参数。
function [IDX, isnoise]=DBSCAN(X,epsilon,MinPts)    % DBSCAN聚类函数
 
    C=0;                       % 统计簇类个数,初始化为0
    
    n=size(X,1);               % 把矩阵X的行数数赋值给n,即一共有n个点
    IDX=zeros(n,1);            % 定义一个n行1列的矩阵
    
    D=pdist2(X,X);             % 计算(X,X)的行的距离
    
    visited=false(n,1);        % 创建一维的标记数组,全部初始化为false,代表还未被访问
    isnoise=false(n,1);        % 创建一维的异常点数组,全部初始化为false,代表该点不是异常点
    
    for i=1:n                  % 遍历1~n个所有的点
        if ~visited(i)         % 未被访问,则执行下列代码
            visited(i)=true;   % 标记为true,已经访问
            
            Neighbors=RegionQuery(i);     % 查询周围点中距离小于等于epsilon的个数
            if numel(Neighbors)<MinPts    % 如果小于MinPts
                % X(i,:) is NOISE        
                isnoise(i)=true;          % 该点是异常点
            else              % 如果大于MinPts,且距离大于epsilon
                C=C+1;        % 该点又是新的簇类中心点,簇类个数+1
                ExpandCluster(i,Neighbors,C);    % 如果是新的簇类中心,执行下面的函数
            end
            
        end
    
    end                    % 循环完n个点,跳出循环
    
    function ExpandCluster(i,Neighbors,C)    % 判断该点周围的点是否直接密度可达
        IDX(i)=C;                            % 将第i个C簇类记录到IDX(i)中
        
        k = 1;                             
        while true                           % 一直循环
            j = Neighbors(k);                % 找到距离小于epsilon的第一个直接密度可达点
            
            if ~visited(j)                   % 如果没有被访问
                visited(j)=true;             % 标记为已访问
                Neighbors2=RegionQuery(j);   % 查询周围点中距离小于epsilon的个数
                if numel(Neighbors2)>=MinPts % 如果周围点的个数大于等于Minpts,代表该点直接密度可达
                    Neighbors=[Neighbors Neighbors2];   %#ok  % 将该点包含着同一个簇类当中
                end
            end                              % 退出循环
            if IDX(j)==0                     % 如果还没形成任何簇类
                IDX(j)=C;                    % 将第j个簇类记录到IDX(j)中
            end                              % 退出循坏
            
            k = k + 1;                       % k+1,继续遍历下一个直接密度可达的点
            if k > numel(Neighbors)          % 如果已经遍历完所有直接密度可达的点,则退出循环
                break;
            end
        end
    end                                      % 退出循环
    
    function Neighbors=RegionQuery(i)        % 该函数用来查询周围点中距离小于等于epsilon的个数
        Neighbors=find(D(i,:)<=epsilon);
    end
 

3. 层次聚类算法

概述
层次聚类算法通过计算数据点之间的相似度或距离,将数据点组织成树状的层次结构。根据构建层次结构的方向,层次聚类可以分为凝聚的层次聚类(如AGNES)和分裂的层次聚类(如DIANA)。

AGNES(AGglomerative NESting)

  • 概述:AGNES是一种凝聚的层次聚类方法,它最初将每个数据点视为一个单独的簇,然后逐步合并最相似的簇,直到达到指定的簇数目或满足其他终止条件。
  • 步骤:包括初始化、合并簇、重复合并直到满足终止条件等。

DIANA(Divisive ANAlysis)

  • 概述:DIANA是一种分裂的层次聚类方法,它首先将所有数据点视为一个簇,然后逐步分裂成更小的簇,直到每个簇只包含一个数据点或达到指定的簇数目。
  • 步骤:包括初始化、选择分裂点、分裂簇、重复分裂直到满足终止条件等。

优点

  • 不需要事先指定聚类数目。
  • 能够生成聚类的层次结构,便于分析不同层次的聚类结果。

缺点

  • 计算复杂度较高,特别是对于大数据集。
  • 合并或分裂点的选择可能影响聚类结果的质量。
上一篇:zdppy+vue3+antd 实现表格单元格编辑功能


下一篇:基于ARM Cortex-M3单片机研发的国产指纹芯片 - P1032BF1