机器学习之:K-近邻算法

 k-近邻算法(简称kNN)是易于理解和实现的算法,也是非常容易掌握的一种机器学习算法。
本文是学习Machine Learning in Action一书的成果,在此向著作此书的Peter Harrington 致敬。

01 什么是kNN

  简单说,kNN算法采用计算不同特征值之间的距离进行分类的算法。kNN算法的模型就是整个训练数据集。当需要对一个未知数据实例进行预测时,kNN算法会在训练数据集中搜寻k个最相似实例。对k个最相似实例的属性进行归纳,将其作为对未知实例的预测。

优点:精度高,对异常值不敏感,无数据输入假定。

缺点:计算复杂度高,空间复杂度高。

02k NN工作原理

  存在一个样本数据集合,也称作训练样本集,并且样本集中每个数据都存在标签,即我们知道样本集中每一数据与所属分类的对应关系。输人没有标签的新数据后,将新数据的每个特征与样本集中数据对应的特征进行比较,然后算法提取样本集中特征最相似数据(最近邻)的分类标签。一般来说,我们只选择样本数据集中前k个最相似的数据,这就是k-近邻算法中k的出处 , 通常k是不大于 20的整数。最后,选择k个最相似数据中出现次数最多的分类,作为新数据的分类。

03 k-近邻算法的一般流程

(1) 收集数据:可以使用任何方法。

(2) 准备数据:距离计算所需要的数值,最好是结构化的数据格式。

(3) 分析数据:可以使用任何方法。

(4) 测试算法:计算错误率。

(5) 使用算法:首先需要输入样本数据和结构化的输出结果,然后运行k-近邻算法判定输入数据分别属于哪个分类,最后应用对计算出的分类执行后续的处理。

04 使用python完成k-近邻算法

1、kNN算法主函数python代码实现

用到的python库:numpy,开源的数值计算扩展,用于处理和存储大型矩阵。

# -*- coding: utf-8 -*-
__author__ = 'kestiny'

import os
import numpy as np
import operator

''' K-近邻算法:首先需要输入样本数据和结构化的输出结果, 然后运行k-近邻算法盘低帮输入数据分别属于哪个分类, 最后应用对计算出的分类执行后续的处理 '''
def createDataSet():
    group = np.array([[1.0, 1.1], [1.0, 1.0], [0, 0], [0, 0.1]]) #样本数据集
    labels = ['A', 'A', 'B', 'B'] #结构化输出
    return group, labels


def classify0(inX, dataSet, labels, k):
    dataSetSize = dataSet.shape[0]     #输入样本数据的维度
    diffMat = np.tile(inX, (dataSetSize, 1)) - dataSet #使用测试数据构造一个和样本数据维度一致的矩阵
    sqDiffMat = diffMat ** 2
    sqDistance = sqDiffMat.sum(axis = 1)
    distance = sqDistance ** 0.5  #计算测试数据和样本数据间每一点的距离,公式sqrt((x1 - y1)**2 + (x2 - y2)**2)
    sortedDistIndicies = distance.argsort()  #对距离结果排序,返回排序的索引值
    classCount = {}   #构造结果返回
    for i in range(k):  #获取k个距离最小的值
        voteIlabel = labels[sortedDistIndicies[i]] #获取第i个距离最小值的类别
        #print(sortedDistIndicies[i], voteIlabel)
        classCount[voteIlabel] = classCount.get(voteIlabel, 0) + 1 #计数
        #print(classCount)
    sortedClassCount = sorted(classCount.items(), key=operator.itemgetter(1), reverse=True) #按照计数从大到小进行排序
    return sortedClassCount[0][0] #返回类别最多的分类,即时输入测试数据的分类

2、测试

if __name__ == '__main__':
    group, labels = createDataSet()
    print(classify0([0,1], group, labels, 3))  #输出 B


if __name__ == '__main__':
    group, labels = createDataSet()
    print(classify0([0,6], group, labels, 3))  #输出 A

3、总结

  以上就是kNN算法的主题实现,以及使用一个小数据集(四个二维实数)进行小小的验证。

05 写在最后

  k-近邻算法的主题工作已经完成了,如何使用kNN算法呢,下一篇文章中将使用这个kNN算法,完成机器学习中很著名的数据集手写数字数据的识别工作,即使用k-近邻算法完成手写数字的设别。

你可能感兴趣的:(Python/机器学习)