天天看點

Machine Learning in Action(機器學習實戰)之支援向量機(Support-Vector-Machines(SVM))算法學習筆記

1. 學習環境

      windows10 、Anaconda(向初學者推薦這個工具)  + Pycharm2018 、python 3.7。

2. Support Vector Machines概述

2.1 支援向量機優缺點

    優點:泛化錯誤率低,計算開銷不大,結果易解釋。

    缺點:對參數調節和核函數的選擇敏感,原始分類器不加修改僅适用于處理二類問題。

    适用資料類型:數值型和标稱型資料。

2.2 支援向量機的一般流程

    ⑴收集資料:可以使用任意方法。

    (2)準備資料:需要數值型資料。

    (3)分析資料:有助于可視化分隔超平面。

    (4)訓練算法:SVM的大部分時間都源自訓練,該過程主要實作兩個參數的調優。

    (5)測試算法:十分簡單的計算過程就可以實作。

    (6)使用算法:幾乎所有分類問題都可以使用SVM,值得一提的是,SVM本身是一個二類分類器,對多類問題應用SVM需要對代碼做一些修改。

3.應用簡化版SMO算法處理小規模資料集

3.1 SMO 算法中的輔助函數

from numpy import  *
#SMO 算法中的輔助函數
#loadDataSet()函數,該函數打開檔案并對其進行逐行解析,
# 進而得到每行的類标簽和整個資料矩陣。
def loadDataSet(fileName):
    dataMat = []; labelMat = []
    fr = open(fileName)
    # readlines()方法:1、一次性讀取整個檔案。 2、自動将檔案内容分析成一個行的清單。
    for line in fr.readlines():
        # strip()函數将文本中的每行最後一個換行符去掉
        # plit('\t')把每行中的字元一個個按橫向制表符(\t)拆分開,變成list
        lineArr = line.strip().split('\t')
        # list.append(obj) 在清單末尾添加新的對象
        dataMat.append([float(lineArr[0]), float(lineArr[1])])
        labelMat.append(float(lineArr[2]))
    return dataMat, labelMat

#selectJrand()有兩個參數值,其中1是第一個alpha的下标,m是所有alpha的數目。
# 隻要函數值不等于輸人值1,函數就會進行随機選擇
def selectJrand(i, m):
    j = i
    while (j ==i):
        # numpy 中random()函數
        #random.uniform(x, y) 方法将随機生成下一個實數,它在 [x,y] 範圍内。
        j = int(random.uniform)
    return j

#clipAlpha()它是用于調整大于H或小于L的alpha值
def clipAlpha(aj, H, L):
    if aj > H:
        aj = H
    if L > aj:
        aj = L
    return aj

dataArr, labelArr =loadDataSet('testSet.txt')
print(labelArr)
           

測試結果:

Machine Learning in Action(機器學習實戰)之支援向量機(Support-Vector-Machines(SVM))算法學習筆記

3.2 簡化版 SMO 算法

#簡化版 SMO 算法
#該函數有5個輸人參數,分别是:資料集、類别标簽、常數C、容錯率和退出前最大的循環次數
def smoSimple(dataMatIn, classLabels, C, toler, maxIter):
    #調用mat()函數可以将數組轉換為numpy矩陣,然後可以對矩陣進行一些線性代數的操作。
    #簡化很多數學操作
    #transpose()函數的作用就是調換數組的行列值的索引值,類似于求矩陣的轉置:
    #轉置了類别标簽,是以我們得到的就是一個列向量而不是清單
    #于是類别标簽向量的每行元素都和資料矩陣中的行一一對應。
    dataMatrix = mat(dataMatIn); labelMat = mat(classLabels).transpose()
    #通過shape()函數得到資料集的行數和列數(m,n)
    b = 0; m,n = shape(dataMatrix)
    #zeros()函數建構一個alpha列矩陣(m 行 1 列),矩陣中元素都初始化為0
    #調用mat()函數将矩陣轉換為numpy矩陣,對矩陣進行一些線性代數的操作,簡化很多數學操作
    alphas = mat(zeros((m,1)))
    #并建立一個讓61變量。該變量存儲的則是在沒有任何alpha改變的情況下周遊資料集的次數。
    # 當該變量達到輸入值 maxIter 時,函數結束運作并退出。
    iter = 0;
    while (iter < maxIter):
        #每次循環當中,将alphaPairsChanged先設為0,該變量用于記錄 alpha 是否巳經進行優化
        #在循環結束時就會得知這一點
        alphaPairsChanged = 0
        #對整個集合順序周遊
        for i in range(m):
            #首先,fXi能夠計算出來,這就是我們預測的類别
            fXi = float(multiply(alphas, labelMat).T*(dataMatrix*dataMatrix[i, :].T)) + b
            #然後,基于這個執行個體的預測結果和真實結果的比對,就可以計算誤差Ei 。
            # 如果誤差很大,那麼可以對該資料執行個體所對應的 alpha 值進行優化
            Ei = fXi - float(labelMat[i])
            #在if語句中,不管是正間隔還是負間隔都會被測試。并且在該if語句中,也要同時檢查alpha值,
            # 以保證其不能等于0或C。由于後面alpha值小于0或大于C将被調整為0或C是以一旦在該if語句中
            # 它們等于這兩個值的話,那麼它們就已經在“邊界”上了,因而不再能夠減小或增大,
            # 是以也就不值得再對它們進行優化了。
            if((labelMat[i])*Ei < -toler) and (alphas[i] < C) or \
                ((labelMat[i]*Ei > toler) and \
                (alphas[i] > 0)):
                # 如果目前向量可以被優化,随機選擇另外一個資料向量
                #通過selectJrand()函數來随機選擇第二個alpha值
                j = selectJrand(i, m)
                #可以采用第一個alpha值(alpha[i]) 的誤差計算方法,來計算這alpha值的誤差
                fXj = float(multiply(alphas, labelMat).T*\
                            (dataMatrix*dataMatrix[j, :].T)) + b
                # 然後,基于這個執行個體的預測結果和真實結果的比對,就可以計算誤差Ei 。
                # 如果誤差很大,那麼可以對該資料執行個體所對應的 alpha 值進行優化
                Ej = fXj - float(labelMat[j])
                #。這個過程可以通過copy()的方法來實作,是以稍後可以将新的alpha值與老的alpha值進行比較 。
                # python會通過引用的方式傳遞所有清單,是以必須明确地告知 python要為alphaIold和alphaJold
                #配置設定新的記憶體;否則的話,在對新值和舊值進行比較時,我們就看不到新舊值的變化
                alphaIold = alphas[i].copy();
                alphaJold = alphas[j].copy();
                if(labelMat[i] != labelMat[j]):
                    #計算 L和 H,它們用于将alphas[j]調整到0到C之間。
                    L = max(0, alphas[j] - alphas[i])
                    H = min(C, C + alphas[j] - alphas[i])
                else:
                    L = max(0, alphas[j] + alphas[i] - C)
                    H = min(C, alphas[j] + alphas[i])
                # 如果L和H相等,就不做任何改變,直接執行continue語句
                if L == H: print("L==H");continue
                #eta是alphas[j]的最優修改量,在那個很長的計算代碼行中得到
                eta = 2.0*dataMatrix[i,:]*dataMatrix[j,:].T - \
                    dataMatrix[i,:]*dataMatrix[i,:].T - \
                    dataMatrix[j,:]*dataMatrix[j,:].T
                # 。如果eta為0,那就是說需要退出for循環的目前疊代過程
                if eta >= 0: print("eta >=0 "); continue
                #于是,可以計算出一個新的alphas[j],
                alphas[j] -= labelMat[j]*(Ei - Ej)/eta
                #利用clipAlpha()函數以及L與H值對其進行調整。
                alphas[j] = clipAlpha(alphas[j], H, L)
                #然後,就是需要檢查alphas[j]是否有輕微改變。如果是的話,就退出for循環
                if (abs(alphas[j] - alphaJold) < 0.00001):print(\
                    "j not moving enough");continue
                #alphas[i] 和alphas[j]同樣進行改變,雖然改變的大小一樣,但是改變的方向正好相反
                # (即如果一個增加,那麼另外一個減少)
                alphas[i] += labelMat[j]*labelMat[i]*\
                             (alphaJold - alphas[j])
                #。在對alphas[i]和alphas[j]進行優化之後,給這兩個alpha值設定一個常數項b
                b1 = b - Ei - labelMat[i]*(alphas[i] - alphaIold)*\
                    dataMatrix[i, :]*dataMatrix[i, :].T - \
                    labelMat[j]*(alphas[j] - alphaJold)*\
                    dataMatrix[i, :]*dataMatrix[j, :].T
                b2 = b - Ej - labelMat[i] * (alphas[i] - alphaIold) * \
                     dataMatrix[i, :] * dataMatrix[j, :].T - \
                     labelMat[j] * (alphas[j] - alphaJold) * \
                     dataMatrix[j, :] * dataMatrix[j, :].T
                if(0 < alphas[i]) and (C > alphas[i]): b = b1
                elif (0 < alphas[j]) and (C > alphas[j]): b = b2
                else: b = (b1 + b2)/2.0
                #最後,在優化過程結束的同時,必須確定在合适的時機結束循環。如果程式執行到for循環
                #的最後一行都不執行continue語句,那麼就已經成功地改變了一對alpha,同時可以增加
                #alphaPairsChanged的值
                alphaPairsChanged += 1
                print("iter: %d i:%d, pairs changed %d" %\
                      (iter, i, alphaPairsChanged))
        #。在for循環之外,需要檢査alpha是否做了更新,如果有更新則将iter設定為0後繼續運作程式。
        # 隻有在所有資料集上周遊maxIter次,且不再發生任何alpha修改之後,程式才會停止并退出for循環。
        if(alphaPairsChanged == 0):iter += 1
        else: iter = 0
        print("iteration number:%d" % iter)
    return b, alphas

#測試函數
b,alphas = smoSimple(dataArr, labelArr, 0.6, 0.001, 40)
print("b:",b,'\n',"alpha: ", alphas[alphas>0])
           

測試結果:

Machine Learning in Action(機器學習實戰)之支援向量機(Support-Vector-Machines(SVM))算法學習筆記

了得到支援向量機的個數 和了解哪些資料點是支援向量

#為了得到支援向量機的個數
print("支援向量機的個數:",shape(alphas[alphas>0]))
#為了了解哪些資料點是支援向量
print("資料點是支援向量:")
for i in range(100):
    if alphas[i] > 0.0:
        print(dataArr[i], labelArr[i])
           

測試結果:

Machine Learning in Action(機器學習實戰)之支援向量機(Support-Vector-Machines(SVM))算法學習筆記

4.利用完整 Platt SMO 算法加速優化

4.1 完整版 Platt SMO 的支援函數

#利用完整 Platt SMO 算法加速優化
#建立一個init()(構造方法)的optStruct的類來儲存所有的重要值
#除了增加了一個 的矩m*2的矩陣成員變量eCache之外 ,這些做法和簡化版SMO一模一樣。
# eCache的第一列給出的是eCache是否有效的标志位,而第二列給出的是實際的E值。
class optStruct:
    ##函數有5個輸人參數,分别是:預設參數 self、資料集、類别标簽、常數C、容錯率
    def __init__(self, dataMatIn, classLabels, C, toler):
        self.X = dataMatIn
        self.labelMat = classLabels
        self.C = C
        self.tol = toler
        #shape函數是numpy.core.fromnumeric中的函數,它的功能是檢視矩陣或者數組的維數。
        #通過numpy庫中的shape()函數擷取資料集的行數 m
        self.m = shape(dataMatIn)[0]
        # zeros()函數建構一個alpha列矩陣(m 行 1 列),矩陣中元素都初始化為0
        # 調用mat()函數将矩陣轉換為numpy矩陣,對矩陣進行一些線性代數的操作,簡化很多數學操作
        self.alphas = mat(zeros((self.m,1)))
        self.b = 0
        # zeros()函數建構一個eCache列矩陣(m 行 1 列),矩陣中元素都初始化為0
        # 調用mat()函數将矩陣轉換為numpy矩陣,對矩陣進行一些線性代數的操作,簡化很多數學操作
        self.eCache = mat(zeros((self.m,2)))

def calcEk(oS, k):
    #對于給定的alpha值,第一個輔助函數calCEk()能夠計算E值并傳回
    fXk = float(multiply(oS.alphas,oS.labelMat).T*\
                (oS.X*oS.X[k,:].T)) + oS.b
    Ek =  fXk - float(oS.labelMat[k])
    return Ek

#selectJ()函數用于選擇第二個alpha或者說内循環的alpha值
#目标是選擇合适的第二個alpha值以保證在每次優化中采用最大步長
def selectJ(i, oS, Ei):
    maxK = -1; maxDeltaE = 0; Ej = 0
    oS.eCache[i] = [1, Ei]
    validEcacheList = nonzero(oS.eCache[:, 0].A)[0]
    if(len(validEcacheList)) > 1:
        for k in validEcacheList:
            if k == i: continue
            Ek = calcEk(oS, k)
            deltaE = abs(Ei - Ek)
            deltaE = abs(Ei - Ek)
            if (deltaE > maxDeltaE):
                maxK = k; maxDeltaE = deltaE; Ej = Ek
        return maxK, Ej
    else:
        j = selectJrand(i, oS.m)
        Ej = calcEk(oS, j)
    return j, Ej

#計算誤內插補點存入緩存中
def updateEk(oS, k):
    Ek = calcEk(oS, k)
    oS.eCache[k] = [1, Ek]
           

4.2 完整Platt SMO算法中的優化例程

#完整Platt SMO 算法中的優化例程
def innerL(i, oS):
    Ei = calcEk(oS, i)
    if ((oS.labelMat[i]*Ei < -oS.tol) and (oS.alphas[i] < oS.C)) or \
       ((oS.labelMat[i]*Ei > oS.tol) and (oS.alphas[i] > 0)):
        j, Ej = selectJ(i, oS, Ei)
        alphaIold = oS.alphas[i].copy();  alphaJold = oS.alphas[j].copy();
        if (oS.labelMat[i] != oS.labelMat[j]):
            # 計算 L和 H,它們用于将alphas[j]調整到0到C之間。
            L = max(0, oS.alphas[j] - oS.alphas[i])
            H = min(oS.C, oS.C + oS.alphas[j] - oS.alphas[i])
        else:
            L = max(0, oS.alphas[j] + oS.alphas[i] - oS.C)
            H = min(oS.C, oS.alphas[j] + oS.alphas[i])
        # 如果L和H相等,就不做任何改變,直接執行continue語句
        if L == H: print("L==H");return 0
        # eta是alphas[j]的最優修改量,在那個很長的計算代碼行中得到
        eta = 2.0 * oS.X[i, :] * oS.X[j, :].T - \
              oS.X[i, :] * oS.X[i, :].T - \
              oS.X[j, :] * oS.X[j, :].T
        # 。如果eta為0,那就是說需要退出for循環的目前疊代過程
        if eta >= 0: print("eta >=0 "); return 0
        # 于是,可以計算出一個新的alphas[j],
        oS.alphas[j] -= oS.labelMat[j] * (Ei - Ej) / eta
        # 利用clipAlpha()函數以及L與H值對其進行調整。
        oS.alphas[j] = clipAlpha(oS.alphas[j], H, L)
        #更新誤差緩存
        updateEk(oS, j)
        # 然後,就是需要檢查alphas[j]是否有輕微改變。如果是的話,就退出for循環
        if (abs(oS.alphas[j] - alphaJold) < 0.00001): print( \
            "j not moving enough");return 0
        # alphas[i] 和alphas[j]同樣進行改變,雖然改變的大小一樣,但是改變的方向正好相反
        # (即如果一個增加,那麼另外一個減少)
        oS.alphas[i] += oS.labelMat[j] * oS.labelMat[i] * \
                     (alphaJold - oS.alphas[j])
        # 更新誤差緩存
        updateEk(oS, j)
        # 。在對alphas[i]和alphas[j]進行優化之後,給這兩個alpha值設定一個常數項b
        b1 = oS.b - Ei - oS.labelMat[i] * (oS.alphas[i] - alphaIold) * \
             oS.X[i, :] * oS.X[i, :].T - \
             oS.labelMat[j] * (oS.alphas[j] - alphaJold) * \
             oS.X[i, :] * oS.X[j, :].T
        b2 = oS.b - Ej - oS.labelMat[i] * (oS.alphas[i] - alphaIold) * \
             oS.X[i, :] * oS.X[j, :].T - \
             oS.labelMat[j] * (oS.alphas[j] - alphaIold) * \
             oS.X[j, :] * oS.X[j, :].T
        if (0 <  oS.alphas[i]) and ( oS.C >  oS.alphas[i]):
            oS.b = b1
        elif (0 <  oS.alphas[j]) and ( oS.C >  oS.alphas[j]):
            oS.b = b2
        else:
            oS.b = (b1 + b2) / 2.0
        return  1
    else: return  0;
           

4.3 完整版Platt SMO的外循環

#完整版 Plat  SMO的外循環代碼
def smoP(dataMatIn, classLabels, C, toler, maxIter, kTup=('lin', 0)):
    #函數一開始建構一個資料結構來容納所有的資料
    oS = optStruct(mat(dataMatIn), mat(classLabels).transpose(), C, toler)
    #對控制函數退出的一些變量進行初始化
    iter = 0
    entireSet = True; alphaPairsChanged = 0;
    #1.這裡的maxIter變量和函數smoSimple()中的作用有一點不同,後者當沒有任何alpha發生改變
    #時會将整個集合的一次周遊過程計成一次疊代,而這裡的一次疊代定義為一次循環過程,而不管
    #該循環具體做了什麼事。此時,如果在優化過程中存在波動就會停止,是以這裡的做法優于
    #smoSimple ()函數中的計數方法。
    ##2.當疊代次數超過指定的最大值,或者周遊整個集合都未對任意alpna對進行修改時,就退出循環
    while (iter < maxIter) and ((alphaPairsChanged > 0) or (entireSet)):
        alphaPairsChanged = 0
        if entireSet:
            #周遊所有的值
            for i in range(oS.m):
                #過調用innerL()來選擇第二個alpha,并在可能時對其進行優化處理
                alphaPairsChanged += innerL(i, oS)
                print("fullSet, iter: %d i:%d, pairs changed %d" %\
        (iter, i ,alphaPairsChanged))
            iter +=1
        else:
            nonBundIs = nonzero((oS.alphas.A > 0)*(oS.alphas.A < C))[0]
            #循環周遊所有的非邊界alpha值,,也就是不在邊界0或C上的值
            for i in nonBundIs:
                alphaPairsChanged += innerL(i, oS)
                print("non-bound, iter: %d i:%d, pairs changed %d" % \
                      (iter, i, alphaPairsChanged))
            iter += 1
        if entireSet: entireSet = False_
        elif (alphaPairsChanged == 0): entireSet = True
        print("iteration number: %d" % iter)
    return  oS.b, oS.alphas

#測試函數
dataArr, labelArr =loadDataSet('testSet.txt')
b, alphas = smoP(dataArr, labelArr, 0.6, 0.001, 40)
           

測試結果:

Machine Learning in Action(機器學習實戰)之支援向量機(Support-Vector-Machines(SVM))算法學習筆記

5 .在複雜資料上應用核函數

5.1 徑向基核函數

#在複雜資料集上應用核函數
#核轉換函數
def kernelTrans(X, A, kTup):
    # 通過numpy 庫的shape()函數得到資料集的 行數和列數 (m ,n)
    m,n = shape(X)
    # 通過numpy 庫中的zeros()函數建構一個alpha列矩陣(m 行 1 列),矩陣中元素都初始化為0
    # 通過numpy 庫中的mat()函數将矩陣轉換為numpy矩陣,對矩陣進行一些線性代數的操作,簡化很多數學操作
    K = mat(zeros((m,1)))
    if kTup[0] == 'lin': K = X*A.T
    elif kTup[0] == 'rbf':
        #python range() 函數可建立一個整數清單
        for j in range(m):
            deltaRow = X[j, :] - A
            K[j] = deltaRow*deltaRow.T
        K = exp(K /(-1*kTup[1]**2))
    else: raise  NameError('Houston We Have a Proble -- That Kernel is not recognized')
    return  K

#對opStruct進行改造
class optStruct:
    ##函數有5個輸人參數,分别是:預設參數 self、資料集、類别标簽、常數C、容錯率
    #kTup是一個包含核函數資訊‘的元組
    def __init__(self, dataMatIn, classLabels, C, toler, kTup):
        self.X = dataMatIn
        self.labelMat = classLabels
        self.C = C
        self.tol = toler
        #shape函數是numpy.core.fromnumeric中的函數,它的功能是檢視矩陣或者數組的維數。
        #通過numpy庫中的shape()函數擷取資料集的行數 m
        self.m = shape(dataMatIn)[0]
        # zeros()函數建構一個alpha列矩陣(m 行 1 列),矩陣中元素都初始化為0
        # 調用mat()函數将矩陣轉換為numpy矩陣,對矩陣進行一些線性代數的操作,簡化很多數學操作
        self.alphas = mat(zeros((self.m,1)))
        self.b = 0
        # zeros()函數建構一個eCache列矩陣(m 行 1 列),矩陣中元素都初始化為0
        # 調用mat()函數将矩陣轉換為numpy矩陣,對矩陣進行一些線性代數的操作,簡化很多數學操作
        self.eCache = mat(zeros((self.m,2)))
        #矩陣K被建構,然後再通過調用函數kernelTrans()進行填充。全局的K值隻需計算一次。
        # 然後,當想要使用核函數時,就可以對它進行調用。這也省去了很多備援的計算開銷。
        self.K = mat(zeros((self.m, self.m)))
        for i in range(self.m):
            self.K[:, i] = kernelTrans(self.X, self.X[i, :], kTup)
           

建議讀者最好看一下optStruct類的新版本。除了引人了一個新變量kTup之外,該版本和原來的optStruct一模一樣

5.2 為了使用核函數,先期的兩個函數innerL()和calcEk()的代碼需要做些修改

#修改後的代碼:
#完整Platt SMO 算法中的優化例程
def innerL(i, oS):
    Ei = calcEk(oS, i)
    if ((oS.labelMat[i]*Ei < -oS.tol) and (oS.alphas[i] < oS.C)) or ((oS.labelMat[i]*Ei > oS.tol) and (oS.alphas[i] > 0)):
        j, Ej = selectJ(i, oS, Ei)
        alphaIold = oS.alphas[i].copy();  alphaJold = oS.alphas[j].copy();
        if (oS.labelMat[i] != oS.labelMat[j]):
            # 計算 L和 H,它們用于将alphas[j]調整到0到C之間。
            L = max(0, oS.alphas[j] - oS.alphas[i])
            H = min(oS.C, oS.C + oS.alphas[j] - oS.alphas[i])
        else:
            L = max(0, oS.alphas[j] + oS.alphas[i] - oS.C)
            H = min(oS.C, oS.alphas[j] + oS.alphas[i])
        # 如果L和H相等,就不做任何改變,直接執行continue語句
        if L == H: print("L==H");return 0
        # eta是alphas[j]的最優修改量,在那個很長的計算代碼行中得到
        eta = 2.0 * oS.K[i, j] * oS.K[i, i] - oS.K[j,j]

        # 。如果eta為0,那就是說需要退出for循環的目前疊代過程
        if eta >= 0: print("eta >=0 "); return 0
        # 于是,可以計算出一個新的alphas[j],
        oS.alphas[j] -= oS.labelMat[j] * (Ei - Ej) / eta
        # 利用clipAlpha()函數以及L與H值對其進行調整。
        oS.alphas[j] = clipAlpha(oS.alphas[j], H, L)
        #更新誤差緩存
        updateEk(oS, j)
        # 然後,就是需要檢查alphas[j]是否有輕微改變。如果是的話,就退出for循環
        if (abs(oS.alphas[j] - alphaJold) < 0.00001): print("j not moving enough");return 0
        # alphas[i] 和alphas[j]同樣進行改變,雖然改變的大小一樣,但是改變的方向正好相反
        # (即如果一個增加,那麼另外一個減少)
        oS.alphas[i] += oS.labelMat[j] * oS.labelMat[i] * (alphaJold - oS.alphas[j])
        # 更新誤差緩存
        updateEk(oS, j)
        # 。在對alphas[i]和alphas[j]進行優化之後,給這兩個alpha值設定一個常數項b
        b1 = oS.b - Ei - oS.labelMat[i] * (oS.alphas[i] - alphaIold) * oS.K[i, i]  - oS.labelMat[j] * (oS.alphas[j] - alphaJold) * oS.K[i, j]
        b2 = oS.b - Ej - oS.labelMat[i] * (oS.alphas[i] - alphaIold) * oS.K[i, j] - oS.labelMat[j] * (oS.alphas[j] - alphaJold) * oS.K[j, j]
        if (0 <  oS.alphas[i]) and ( oS.C >  oS.alphas[i]):
            oS.b = b1
        elif (0 <  oS.alphas[j]) and ( oS.C >  oS.alphas[j]):
            oS.b = b2
        else:
            oS.b = (b1 + b2) / 2.0
        return  1
    else: return  0;


#修改後的 calcEk()
def calcEk(oS, k):
    #對于給定的alpha值,第一個輔助函數calCEk()能夠計算E值并傳回
    fXk = float(multiply(oS.alphas,oS.labelMat).T*oS.K[:, k] + oS.b)
    Ek =  fXk - float(oS.labelMat[k])
    return Ek

           

5.3 在測試中使用核函數

#在測試中使用核函數
#該輸人參數是高斯徑向基函數中的一個使用者定義變量
def testRbf(k1 =1.3):
    #程式從檔案中讀人資料集
    dataArr, labelArr = loadDataSet("testSetRBF.txt")
    #在該資料集上運作PlattSMO算法,其中核函數的類型為'rbf'
    b, alphas = smoP(dataArr, labelArr, 200, 0.0001, 10000, ('rbf', k1))
    #優化過程結束後,在後面的矩陣數學運算中建立資料的矩陣副本
    datMat = mat(dataArr); labelMat = mat(labelArr).transpose()
    #且找出那些非零的alpha值,進而得到所需要的支援向量
    svInd = nonzero(alphas.A > 0)[0]
    #同時,也就得到了這些支援向量和alpha的類别标簽值
    sVs = datMat[svInd]
    labelSV = labelMat[svInd];
    print("there are %d Support Vector" % shape(sVs)[0])
    m, n = shape(datMat)
    errorCount = 0;
    for i in range(m):
        #首先利用結構初始化方法中使用過的kernelTrans()函數,得到轉換後的資料
        kernelEval = kernelTrans(sVs, datMat[i, :],('rbf',k1))
        #然後,再用其與前面的alpha及類别标簽值求積。其中需要特别注意的另一件事是,
        # 在這幾行代碼中,是如何做到隻需要支援向量資料就可以進行分類的。除此之外,
        # 其他資料都可以直接舍棄。
        predict = kernelEval.T*multiply(labelSV, alphas[svInd]) + b
        if sign(predict) != sign(labelArr[i]): errorCount += 1
    print("the training error rate is: %f" % (float(errorCount)/m))
    ##程式從測試資料集檔案中讀人資料集
    dataArr, labelArr = loadDataSet('testSetRBF2.txt')
    errorCount = 0
    #1.在後面的矩陣數學運算中建立資料的矩陣副本,
    ##2.并用通過numpy 庫中的mat()函數将矩陣轉換為numpy矩陣,對矩陣進行一些線性代數的操作,
    # 簡化很多數學操作
    datMat = mat(dataArr); labelMat = mat(labelArr).transpose()
    #通過numpy 庫的shape()函數得到資料集的 行數和列數 (m ,n)
    m, n = shape(datMat)
    for i in range(m):
        # 首先利用結構初始化方法中使用過的kernelTrans()函數,得到轉換後的資料
        kernelEval = kernelTrans(sVs, datMat[i, :], ('rbf', k1))
        # 然後,再用其與前面的alpha及類别标簽值求積。其中需要特别注意的另一件事是,
        # 在這幾行代碼中,是如何做到隻需要支援向量資料就可以進行分類的。除此之外,
        # 其他資料都可以直接舍棄。
        predict = kernelEval.T*multiply(labelSV, alphas[svInd]) + b
        if sign(predict) != sign(labelArr[i]):errorCount += 1
    print("the test error rate is: %f" % (float(errorCount)/m))

#測試函數
testRbf()
           

測試結果截圖:

Machine Learning in Action(機器學習實戰)之支援向量機(Support-Vector-Machines(SVM))算法學習筆記

書上源代碼測試截圖:

Machine Learning in Action(機器學習實戰)之支援向量機(Support-Vector-Machines(SVM))算法學習筆記

從圖中可以發現錯誤率相差太多,我檢查了很多遍代碼還是沒找到原因。

6.手寫識别問題回顧

6.1 示例:基于曰SVM的數宇識别

    (1)收集資料:提供的文本檔案。

    (2)準備資料:基于二值圖像構造向量。

    (3)分析資料:對圖像向量進行目測。

    (4)訓練算法:采用兩種不同的核函數,并對徑向基核函數采用不同的設定來運作SMO算法。

    (5)測試算法:編寫一個函數來測試不同的核函數并計算措誤率。

    (6)使用算法:一個圖像識别的完整應用還需要一些圖像處理的知識,這裡并不打算深入介紹。

6.2 基于SVM的手寫數字識别

"""
手寫資料集 準備資料:将圖像轉換為測試向量
"""
def img2vector(filename):
    returnVect = zeros((1,1024))
    fr = open(filename)
    for i in range(32):
        lineStr = fr.readline()
        for j in range(32):
            returnVect[0, 32*i+j] = int(lineStr[j])
    #傳回數組
    return returnVect

#基于SVM的手寫數字識别
def loadImages(dirName):
    from os import listdir
    hwLabels = []
    trainingFileList = listdir(dirName)
    m = len(trainingFileList)
    trainingMat = zeros((m,1024))
    for i in range(m):
        fileNameStr = trainingFileList[i]
        fileStr = fileNameStr.split('.')[0]
        classNumStr = int(fileStr.split('_')[0])
        if classNumStr == 9: hwLabels.append(-1)
        else: hwLabels.append(1)
        trainingMat[i,:] = img2vector('%s/%s' % (dirName, fileNameStr))
    return  trainingMat, hwLabels

def testDigits(kTup =('rbf',10)):
    dataArr , labelArr = loadImages('trainingDigits')
    b, alphas = smoP(dataArr, labelArr, 200, 0.0001, 10000, kTup)
    datMat = mat(dataArr)
    labelMat = mat(labelArr).transpose()
    # 且找出那些非零的alpha值,進而得到所需要的支援向量
    svInd = nonzero(alphas.A > 0)[0]
    # 同時,也就得到了這些支援向量和alpha的類别标簽值
    sVs = datMat[svInd]
    labelSV = labelMat[svInd];
    print("there are %d Support Vector" % shape(sVs)[0])
    m, n = shape(datMat)
    errorCount = 0;
    for i in range(m):
        # 首先利用結構初始化方法中使用過的kernelTrans()函數,得到轉換後的資料
        kernelEval = kernelTrans(sVs, datMat[i, :], kTup)
        # 然後,再用其與前面的alpha及類别标簽值求積。其中需要特别注意的另一件事是,
        # 在這幾行代碼中,是如何做到隻需要支援向量資料就可以進行分類的。除此之外,
        # 其他資料都可以直接舍棄。
        predict = kernelEval.T * multiply(labelSV, alphas[svInd]) + b
        if sign(predict) != sign(labelArr[i]): errorCount += 1
    print("the training error rate is: %f" % (float(errorCount) / m))
    ##程式從測試資料集檔案中讀人資料集
    dataArr, labelArr = loadImages('testDigits')
    errorCount = 0
    # 1.在後面的矩陣數學運算中建立資料的矩陣副本,
    ##2.并用通過numpy 庫中的mat()函數将矩陣轉換為numpy矩陣,對矩陣進行一些線性代數的操作,
    # 簡化很多數學操作
    datMat = mat(dataArr);
    labelMat = mat(labelArr).transpose()
    # 通過numpy 庫的shape()函數得到資料集的 行數和列數 (m ,n)
    m, n = shape(datMat)
    for i in range(m):
        # 首先利用結構初始化方法中使用過的kernelTrans()函數,得到轉換後的資料
        kernelEval = kernelTrans(sVs, datMat[i, :], kTup)
        # 然後,再用其與前面的alpha及類别标簽值求積。其中需要特别注意的另一件事是,
        # 在這幾行代碼中,是如何做到隻需要支援向量資料就可以進行分類的。除此之外,
        # 其他資料都可以直接舍棄。
        predict = kernelEval.T * multiply(labelSV, alphas[svInd]) + b
        if sign(predict) != sign(labelArr[i]): errorCount += 1
    print("the test error rate is: %f" % (float(errorCount) / m))

#測試函數
testDigits(('rbf',20))
end = time.process_time()
print( "read: %f s" % (end - start))
           

測試結果:

Machine Learning in Action(機器學習實戰)之支援向量機(Support-Vector-Machines(SVM))算法學習筆記

繼續閱讀