相关文章

  1. K近邻算法和KD树详细介绍及其原理详解
  2. 朴素贝叶斯算法和拉普拉斯平滑详细介绍及其原理详解
  3. 决策树算法和CART决策树算法详细介绍及其原理详解
  4. 线性回归算法和逻辑斯谛回归算法详细介绍及其原理详解
  5. 硬间隔支持向量机算法、软间隔支持向量机算法、非线性支持向量机算法详细介绍及其原理详解
  6. 高斯分布、高斯混合模型、EM算法详细介绍及其原理详解




前言

  K近邻算法一般是我们学习机器学习的入门算法,本篇文章详细介绍了K近邻算法,并对其原理进行了说明。同时,为了优化K近邻算法查找最近K个邻域样本的性能,本文也对KD进行详细介绍和原理说明。相信通过文本的学习,您对K近邻算法和KD树一定有更深的理解,本文的全部内容如下所示!


一、K近邻算法

  假设现在有这么一种情况,如下图所示,平面上有两类点,其中有三个A类点,两个B类点,我们如何确定新的点(?点)属于A类点还是B类点呢?

图1:简单的分类问题

  一个非常自然的想法就是,如果它(?点)更靠近A类点,那么就属于A类点,反之,如果它更靠近B类点,那么就属于B类点。所以,我们可以选择距离它最近的三个点作为参考点,如下图所示:

图2:确定邻域范围

  可以看到,在离它最近的三个点中,其中一个属于A类点,两个属于B类点,如果此时我们采用少数服从多数的原则,就可以判断它属于B类点,这种分类算法就是K近邻( K-Nearest Neighbor,KNN )算法,在本例中,因为选取了三个点作为参考点,所以K=3,这也是K近邻算法名称的由来。K近邻算法通常由三个要素:

  • 距离远近:距离度量
  • 参考点数量:K值
  • 分类决策规则:少数服从多数

  现在我们考虑更一般的情况,假设现在有数据集


T


=


{


(



x


1



,



y


1



)


,


(



x


2



,



y


2



)


,





,


(



x


n



,



y


n



)


}



T={(x_{1},y_{1}),(x_{2},y_{2}),\dots ,(x_{n},y_{n})}


T={(x1,y1),(x2,y2),,(xn,yn)}
,其中每一个元素是一个样本,数据集




T



T


T
中共




N



N


N
个样本,其中:







  • x


    1







    x


    n




    x_{1} \sim x_{n}


    x1xn
    是样本特征






  • y


    1







    y


    n




    y_{1} \sim y_{n}


    y1yn
    样本类别

  假设现在数据集

T



T


T
中共有




5



5


5





n


=


5



n=5


n=5
)个样本点,我们的目的就是将待分类样本




(


x


,


y


)



(x,y)


(x,y)
进行正确的样本分类

图3:更一般的分类问题

  根据上面介绍过的K近邻算法,我们可以首先找到待分类样本

(


x


,


y


)



(x,y)


(x,y)
的邻域:

图4:待分类样本(x,y)的邻域


  找到其邻域后,我们就可以对待分类样本




(


x


,


y


)



(x,y)


(x,y)
进行分类,这个过程共分为两步:

  1. 根据距离度量和K值计算

    x



    x


    x
    的邻域





    N


    k



    (


    x


    )



    N_{k}(x)


    Nk(x)
  2. 根据分类决策规则计算类别

    y



    y


    y

  这里首先要解决的问题就是如何计算



x



x


x
的邻域





N


k



(


x


)



N_{k}(x)


Nk(x)
,一个非常自然的想法就是计算




x



x


x
和每个样本之间的距离,如下图所示:

图5:待分类样本x和每个样本之间的距离

  然后将计算后得到的距离保存在一个数组里面:

图6:使用数组保存待分类样本x和每个样本之间的距离

  因为我们要找距离最近的K个样本作为邻域样本,所以对数组进行升序排序,排序后的前K个数据,就代表了距离


x



x


x
最近的K个样本,那么这K个样本就是



x



x


x
的邻域样本:

图7:找出与待分类样本x距离最近的K个样本

  上面提到的这种方法虽然很简单,但是需要计算


x



x


x
和每个样本之间的距离,所以整个线性查找计算过程的时间复杂度为


O


(


N


)



O(N)


O(N)
,所以计算量较大,那么是否存在更加快速的求邻域的方法呢?答案是有的,也就是我们耳熟能详的KD树(K-Dimensional Tree)。


二、KD树

  以下图中的七个初始样本为例,这七个样本作为初始样本使用,如果有需要进行分类的样本,那么就要计算待分类样本与这七个初始样本之间的距离。

图8:二维空间中的七个初始样本

  刚才我们也提到了,如果全部都遍历求距离的话,计算量较大,所以我们使用KD树来计算最小距离,在使用KD树之前,我们首先要对初始样本进行KD树的初始化,整个过程如下所示:

  1. 首先要将这七个初始样本储存在KD树中,由上图可以看到,样本坐标为


    (


    x


    ,


    y


    )



    (x,y)


    (x,y)
    ,所以首先我们考虑



    x



    x


    x
    轴,也就是首先以




    x



    x


    x
    轴为标准,找到这七个初始样本中




    x



    x


    x
    坐标的中位数,也就是节点四,此时,我们将节点四储存为KD树的根节点,以节点四的




    x



    x


    x
    坐标为界,可以把平面分成左右两个部分,如下图所示:

图9:根据x轴样本的中位数划分左右子空间


  1. 当我们将平面分为左右两部分之后,首先考虑左边三个初始样本,在这三个初始样本中,我们以


    y



    y


    y
    轴作为标准寻找这三个初始样本的




    y



    y


    y
    坐标的中位数,也就是节点一。我们把节点一储存在节点四的左子树中,并把左边的空间分割成两个子空间,如下图所示:

图10:根据根节点的左子树y轴样本的中位数划分上下子空间

需要注意的是,分割后的两个子空间中分别只有一个样本,那么我们分别将这两个样本储存为叶节点,如下图所示:

图11:将分割后的两个子空间中的唯一样本作为叶节点储存

  1. 以此类推,我们可以构建出右边的KD子树,首先以



    y



    y


    y
    轴为标准,找到中位数节点六,然后将两个子空间中的节点保存在叶节点中,如下图所示:

图12:根据根节点的右子树y轴样本的中位数划分上下子空间

  1. 当然,如果还有额外的样本,我们可以继续以


    x



    x


    x
    为标准,将空间进一步划分,如下图所示,总之,就是交替以




    x



    x


    x





    y



    y


    y
    作为标准进行子空间的划分和KD树的建立

图13:交替以x和y作为标准进行子空间的划分和KD树的建立

  此时,我们已经将七个初始样本进行了KD树的初始化,假如现在有一个待分类样本



x



x


x
,其坐标为




[


438


,


681


]



[438,681]


[438,681]
。如下图所示:

图14:待分类样本x在二维空间中的位置

  此时我们该如何利用已经初始化好的KD树寻找和



x



x


x
最近的样本呢?整个过程如下所示:

  1. 首先从根节点遍历,因为节点四的空间划分是以




    x



    x


    x
    轴为标准的,而待分类样本




    x



    x


    x





    x



    x


    x
    值小于节点四的




    x



    x


    x
    值,所以我们应该查找左边的子树,如下图所示:

图15:根据KD树向左子树进行邻域查找

  1. 类似的,因为左子树的根节点是节点一,并且节点一的划分依据是


    y



    y


    y
    轴,而且待分类样本




    x



    x


    x





    y



    y


    y
    值小于节点一的




    y



    y


    y
    值,因此我们应该查找左边的叶节点,如下图所示:

图16:根据KD树继续向左子树进行邻域查找

  1. 当我们达到叶节点后就不能继续划分了,因为已经到头了,所以我们暂时将叶节点二作为距离待分类样本


    x



    x


    x
    最近的初始样本,然后我们以待分类样本




    x



    x


    x
    到节点二的距离作为半径,得到




    x



    x


    x
    的查找范围,那么距离待分类样本




    x



    x


    x
    最近的样本就在这个范围里面,如下图所示:

图17:确定了距离待分类样本x最近的样本范围

  1. 现在我们已经确定了距离待分类样本



    x



    x


    x
    最近的初始样本所处的范围(上图中圆圈内的部分),所以我们只需要计算在这个范围内的所有初始样本与待分类样本




    x



    x


    x
    的距离,然后通过不停的更新最小距离样本就可以得到距离待分类样本




    x



    x


    x
    最近的初始样本了,这个过程我们可以通过回溯算法遍历KD树得到,在回溯的过程中需要记住一个查找原则:如果此节点所代表的空间范围和查找范围相交,则计算与待分类样本




    x



    x


    x
    的距离,否则不计算,整个回溯遍历KD树的过程如下所示:

    ① 首先回溯到节点二的父节点,也就是节点一,因为节点一所代表的空间范围和查找范围相交,所以我们计算节点一到待分类样本



    x



    x


    x
    之间的距离,并更新最小距离样本(因为节点一与待分类样本



    x



    x


    x
    之间的距离更小)。然后继续回溯到节点三,按照同样的方法计算并更新最小距离,如下图所示:

图18:使用回溯算法计算节点一与节点三距离待分类样本x的距离是否比刚才计算的最小邻域距离更小

② 以此类推,我们可以回溯到根节点,计算每一个和查找范围相交的节点(橙色的节点)与待分类样本




x



x


x
之间的距离,最后发现和待分类样本




x



x


x
最近的节点就是节点三,这个过程如下图所示:

图19:继续使用回溯算法计算其他所有节点距离待分类样本x的距离是否比之前计算的最小邻域距离更小,直至确定最小邻域距离
  1. 当我们找到距离待分类样本




    x



    x


    x
    最近的初始样本(节点三)后,可以根据K值继续求得其他最近的初始样本,直到求出K个停止,然后根据分类决策规则就可以得到待分类样本的类别了

  可以看到,通过KD树查找距离最近的样本时,并不需要对每个样本都计算距离,在上例中节点五并没有参与计算,因为节点五所代表的空间范围和查找范围不相交,所以就可以节省很多不必要的计算。在当




n



n


n
足够大,且样本随机分布的情况下,KD树检索距离最近样本的平均时间复杂度为




O


(


l


o


g


N


)



O(logN)


O(logN)
,很明显比最开始提到的线性查找计算性能更高。


  如果我们使用KD树作为计算距离最近的初始样本的检索方法,此时假设初始样本为




T


=


{


(



x


1



,



y


1



)


,


(



x


2



,



y


2



)


,





,


(



x


n



,



y


n



)


}



T={(x_{1},y_{1}),(x_{2},y_{2}),\dots ,(x_{n},y_{n})}


T={(x1,y1),(x2,y2),,(xn,yn)}
,待分类样本为




(


x


,


y


)



(x,y)


(x,y)
,那么原来的K近邻算法可以被改进为如下步骤:


  1. 根据




    T



    T


    T
    中的样本构建KD树
  2. 根据距离度量,运行K次KD树搜索,计算

    N


    k



    (


    x


    )



    N_{k}(x)


    Nk(x)
  3. 根据分类决策规则,计算新样本的类别
    y



    y


    y



总结

  以上就是本文的全部内容了,后续还会为大家带来更优质的关于机器学习的算法博客,下篇博文见!