天天看點

機器學習實戰:K-近鄰算法(KNN)KNN

KNN

K-近鄰算法原理

歐幾裡得距離公式:

機器學習實戰:K-近鄰算法(KNN)KNN

僞代碼原理

  1. 計算已知類别資料集中的點與目前點之間的距離
  2. 按照距離遞增次序排序
  3. 選取與目前點距離最小的K個點
  4. 确定前K個點所在類别的出現頻率
  5. 傳回前K個點出現頻率最高的類别作為目前點的預測分類

詳細代碼

#coding=utf-8
'''
清單:建立一個清單,隻要把逗号分隔的不同的資料項使用方括号括起來即可。如下:labels,索引從0開始
(1)清單截取:list[0],list[0:],list[1:5],list[-1]
(2)删除清單元素:del list[i]
(3)清單長度:len(list)、清單組合:+ 、重複:['a']*2=['a','a']、元素是否存在于清單中:3 in [1,2,3]、疊代:for x in list:print x
(4)清單函數:cmp(list1,list2)/operator.eq(a,b),len(list),max(list),min(list),list(seq):元組轉換為清單
(5)清單方法:list.append(),list.count(obj),list.extend(seq),list.index(obj),list.insert(index,obj),list.pop(obj=list[-1]),list.remove(obj),list.reverse(),list.sort([func])
KNN算法使用到的主要函數和方法:
(1)矩陣行和列的數量:array(list).shape[i],0代表行,1代表列
(2)建立固定大小的0矩陣:np.zeros((2,3)),
(3)np.tile(A,reps):将A進行重複輸出,np.tile(list,[i,j]):i代表列方向,j代表行方向
(4)矩陣求和:array.sum(axis=0或1):0代表列,1代表行求和
(5)元素求平方:a**2,求開方:a**0.5
(6)排序sort(),提取源序列排序後的索引位置:argsort(),sorted:字典sorted(dic.items(),key=operator.itemgetter(1),reserve=True)
(7)a.get(k,d):如果K在字典a中,則傳回a[k];如果K不在a中,則傳回參數d.
(8)字典元素選擇:dic[i][j]
'''
from numpy import *
import operator
from os import listdir

def createDataSet():
    group=array([[,],[,],[,],[,]])
    labels=['A','A','B','B']
    return group,labels
'''
以上KNN算法的相關函數方法不熟悉,需要進一步了解如下知識點:
(1)和樣本集合一樣大小的0矩陣的建立,tile(a,x)擴大矩陣
(2)對矩陣中的一行中的所有列求和學習sum(axis=1):沒有axis參數表示全部相加,axis=0表示按列相加,axis=1表示按照行的方向相加
(3)對矩陣進行排序,然後輸出矩陣中的下标:argsort():argsort()函數是将x中的元素從小到大排列,提取其對應的index(索引)
(4)對字典中的key進行循環累計添加統計get()
(5)對字典按照key對應的值進行排序sorted()
'''
def classify0(inX,dataSet,labels,k):
    dataSetSize = dataSet.shape[]
    #計算點之間的距離:先建立一個和樣本一樣大小的0矩陣,沿着y軸方向擴大4倍
    diffMat=tile(inX,(dataSetSize,))-dataSet
    sqDiffMat=diffMat**
    sqDistances=sqDiffMat.sum(axis=)   #sum求和
    distance=sqDistances**
    sortDisIndicies=distance.argsort()  #從小到大排序,輸出排序的矩陣的位置标簽。
    classCount={} #建立字典,存儲所有點的距離和位置順序
    for i in range(k):
        voteIlabels=labels[sortDisIndicies[i]] #得到排序的坐标的類标簽
        classCount[voteIlabels]=classCount.get(voteIlabels,)+ #将所有的類标簽的數量進行統計
    #字典按照類作為key的數值進行排序,最後選擇位置為第一位最大數值的類标簽,輸出标簽
    sortedClassCount=sorted(classCount.iteritems(),key=operator.itemgetter(),reverse=True)
    return sortedClassCount[][]
           

案例1

'''
舉例:使用K-近鄰算法改進約會網站的配對效果
(1)建立資料源txt
(2)資料源變換
(3)歸一化 = (樣本-min)/(max-min)
(4)測試樣本
(5)人工輸入樣本進行測試分類
'''
def file2matrix(filename):
    fr = open(filename)#打開檔案
    arrayOLines = fr.readlines()#讀取多行
    numberOfLines = len(arrayOLines)#檔案行數
    returnMat = zeros((numberOfLines,))#建立行列0矩陣
    classLabelVector = []
    index = 
    for line in arrayOLines:
        line = line.strip()#移除頭尾固定字元
        listFromLine = line.split('\t')#分割符
        returnMat[index,:] = listFromLine[:]
        classLabelVector.append(str(listFromLine[-]))
        index += 
    return returnMat,classLabelVector

def autoNorm(dataSet):
    minVals = dataSet.min()#0代表列
    maxVals = dataSet.max()
    ranges=maxVals-minVals
    normDataSet = zeros(shape(dataSet))
    m = dataSet.shape[]
    normDataSet = dataSet - tile(minVals,(m,))
    normDataSet = normDataSet/tile(ranges,(m,))
    return normDataSet, ranges, minVals
#取10%樣本進行校驗,計算錯誤率
def datingClassTest():
    hoRatio = 
    datingDataMat, datingLabels = file2matrix('datingTestSet2.txt')
    normMat,ranges,minVals = autoNorm(datingDataMat)#歸一化
    m = normMat.shape[]
    numTestVecs = int(m*hoRatio)
    errorCount = 
    for i in range(numTestVecs):
        classifilerResult = classify0(normMat[i,:],normMat[numTestVecs:m,:],datingLabels[numTestVecs:m],)
        print "the classifier came back with: %d, the real answer is : %d" %(int(classifilerResult), int(datingLabels[i]))
        if (classifilerResult != datingLabels[i]):
            errorCount +=
        print "the tital error rate is : %f " %(errorCount/float(numTestVecs))
        print errorCount

def classifyPerson():
    resultList = ['not at all','in small doses','in large doses']
    percentTats = float(raw_input("percentage of time spent playing video games?"))
    ffMiles = float(raw_input("freguent flier miles earned per year?"))
    iceCream = float(raw_input("liters of ice cream consumed per year?"))
    #訓練
    datingDataMat,datingLabels=file2matrix('datingTestSet2.txt')
    normMat,ranges,minVals = autoNorm(datingDataMat)
    #測試
    inArr = array([ffMiles,percentTats,iceCream])
    classifierResult = classify0((inArr-minVals)/ranges,normMat,datingLabels,)
    print "You will probably like this person: ",resultList[int(classifierResult)-]
           

案例2

'''
舉例:手寫識别系統
(1)建立資料源txt
(2)轉換成向量資料
(3)調用測試和訓練資料集
(4)判斷測試錯誤率
'''
def img2vector(filename):
    returnVect = zeros((,))
    fr = open(filename)
    for i in range():
        lineStr = fr.readline()
        for j in range():
            returnVect[,*i+j] = int(lineStr[j])
    return returnVect

def handwritingClassTest():
    hwLabels = []
    trainingFileList = listdir('trainingDigits')
    print trainingFileList
    m = len(trainingFileList)
    trainingMat = zeros((m,))
    for i in range(m):
        fileNameStr = trainingFileList[i]
        fileStr = fileNameStr.split('.')[]
        classNumStr = int(fileStr.split('_')[])
        hwLabels.append(classNumStr)#存儲類标簽
        #轉化檔案内容矩陣為一維矩陣
        trainingMat[i,:] = img2vector('trainingDigits/%s'%fileNameStr)
    testFileList = listdir('testDigits')
    errorCount = 
    mTest = len(testFileList)
    for i in range(mTest):
        fileNameStr = testFileList[i]
        fileStr = fileNameStr.split('.')[]
        classNumStr = int(fileStr.split('_')[])
        vectorUnderTest = img2vector('testDigits/%s'%fileNameStr)
        classifierResult = classify0(vectorUnderTest,trainingMat,hwLabels,)
        #print "the classifier came back with:%d,the real answer is :%d"%(classifierResult,classNumStr)
        if(classifierResult != classNumStr):
            errorCount+=
    print "\nthe total number of errors is : %d "%errorCount
    print "\nthe total error rate is : %f " %(errorCount/float(mTest))
           

繼續閱讀