聚类试图将数据中的样本划分为若干个通常是不相交的子集,每个子集称为一个“簇”(cluster)。通过这样的划分,每个簇可能对应于一些潜在的概念(类别),如“浅色瓜”“深色瓜”,“有籽瓜”“无籽瓜”,甚至“本地瓜”“外地瓜”等;需要说明的是,这类概念对聚类算法而言事先是未知的,聚类过程仅能自动形成簇结构,簇所对应的概念语义需由使用者来把握和命名。
聚类既能作为一个单独过程,用于寻找数据内在的分布结构,也可作为分类等其他学习任务的先驱过程。例如,在一些商业应用中需对新用户的类型进行判别,但定义“用户类型”对商家来说却可能不太容易,此时往往可先对用户数据进行聚类,根据聚类结果将每个簇定义为一个类,然后再基于这些类训练分类模型,用于判别新用户的类型。
聚类性能度量亦称聚类“有效性指标”(validity index)。与监督学习中的性能度量作用相似,对聚类结果,我们需要通过某种性能度量来评估其好坏;另一方面,若明确了最终将要使用的性能度量,则可直接将其作为聚类过程的优化目标,从而更好地得到符合要求的聚类结果。
聚类性能度量大致有两类,一类是将聚类结果与某个“参考模型”(reference model)进行比较,成为“外部指标”(external index);另一类是直接考察聚类结果而不利用任何参考模型,称为“内部指标”(internal index)。
a=|SS|(样本在,结果在) a = | S S | ( 样 本 在 , 结 果 在 )
b=|SD|(样本在,结果不在) b = | S D | ( 样 本 在 , 结 果 不 在 )
c=|DS|(样本不在,结果在) c = | D S | ( 样 本 不 在 , 结 果 在 )
d=|DD|(样本不在,结果不在) d = | D D | ( 样 本 不 在 , 结 果 不 在 )
下面是一些常用的聚类性能度量外部指标:
Jaccard系数(Jaccard Coefficient,简称JC)
FM指数(Fowlkes and Mallows Index,简称FMI)
Rand指数(Rand Index,简称RI)
显然上述性能度量的结果值均在[0, 1]之间,值越大说明结果越好。
给定样本 xi=(xi1;xi2;...;xin) x i = ( x i 1 ; x i 2 ; . . . ; x i n ) 与 xj=(xj1;xj2;...;xjn) x j = ( x j 1 ; x j 2 ; . . . ; x j n ) ,最常用的是“闵可夫斯基距离”(Minkowski distance)
给定样本集 D={x1,x2,...,xm} D = { x 1 , x 2 , . . . , x m } ,“k均值”算法针对聚类所得簇划分 C={C1,C2,...,Ck} C = { C 1 , C 2 , . . . , C k } 最小化平方误差
与k均值算法类似,“学习向量量化”(LVQ)也是试图找到一组原型向量来刻画聚类结构,但与一般聚类算法不同的是,LVQ假设数据样本带有类别标记,学习过程利用样本的这些监督的信息来辅助聚类。
给定样本集 D={(x1,y1),(x2,y2),...,(xm,ym)} D = { ( x 1 , y 1 ) , ( x 2 , y 2 ) , . . . , ( x m , y m ) } ,每个样本 xj x j 是由 n n 个属性描述的特征向量 (xj1;xj2;...;xjn),yj∈Y ( x j 1 ; x j 2 ; . . . ; x j n ) , y j ∈ Y 是样本 xj x j 的类别标记。LVQ的目标是学得一组 n n 维原型向量 {p1,p2,...,pq} { p 1 , p 2 , . . . , p q } ,每个原型向量代表一个聚类簇,簇标记为 ti∈Y t i ∈ Y 。
给出学习向量量化的伪代码:
与k均值、LVQ用原型向量来刻画聚类结构不同,高斯混合(Mixture-of-Gaussian)聚类采用概率模型来表达聚类原型。
给出高斯混合聚类的伪代码:
密度聚类亦称为“基于密度的聚类”(density-based clustering),此类算法假设聚类结构能够通过样本分布的紧密程度确定。通常情况下,密度聚类算法从样本密度的角度来考察样本之间的可连接性,并基于可连接样本不断扩展聚类簇以获得最终的聚类结果。
DBSCAN是一种著名的密度聚类算法,全称为”Density-Based Spatial Clustering of Applications with Noise”,它基于一组“邻域”(neighborhood)参数( ϵ ϵ , MinPts M i n P t s )来刻画样本分布的紧密程度。给定数据集 D={x1,x2,...,xm} D = { x 1 , x 2 , . . . , x m } ,定义下面几个概念:
上图为DBSN定义的基本概念( MinPts=3 M i n P t s = 3 ):虚线显示出 ϵ ϵ -邻域, x1 x 1 是核心对象, x2 x 2 由密度 x1 x 1 直达, x3 x 3 由 x1 x 1 密度可达, x3 x 3 与 x4 x 4 密度相连。
基于这些概念,DBSCAN将“簇”定义为:有密度可达关系导出的最大的密度相连样本集合。
给出DBSCAN算法的伪代码:
层次聚类(hierarchical clustering)试图在不同层次对数据集进行划分,从而形成树形聚类结构,数据集的划分可采用“自底向上”的聚合策略,也可采用“自顶向下”的分拆策略。
AGNES是一种采用自底向上聚合策略的层次聚类算法。它先将数据集中的每个样本看作一个初始聚类簇,然后在算法运行的每一步中找出距离最近的两个聚类簇进行合并,该过程不断重复,直至达到预设的聚类簇个数。给定聚类簇 Ci C i 与 Cj C j ,可通过下面的式子来计算距离:
当聚类簇距离由 dmin d m i n 、 dmax d m a x 或 davg d a v g 计算时AGNES算法被相应称为“单链接”(single-linkage)、“全链接”(complete-linkage)或“均链接”(average-linkage)算法。
下面是AGNES算法的示意图: