作者:Rohit Pandey
機器之心編譯
作者說:我以前一直沒有真正了解支援向量機,直到我畫了一張圖。
1. 問題
支援向量機(SVM)旨在解決「分類」問題。資料通常包含一定數量的條目/行/點。現在,我們想對每個資料點進行分類。為簡單起見,我們假設兩個類别:「正類」和「負類」。這或許可以幫助解答以下問題:
- 基于圖像的像素資料,判斷這張圖像中是否有貓(有貓則标簽為正類);
- 基于郵件的主題、發送者、文本等,判斷該郵件是否為垃圾郵件;
- 判斷某個病人是否患有某種疾病。
其精髓在于,當我們知道正确答案時,我們會想到一些将資料分為兩類的規則(對于支援向量機而言,「規則」是畫一個平面,一側的所有點均為「正」,另一側的所有點均為「負」)。當我們遇到不知道類别的新資料點時,我們使用規則對其進行分類。分類問題嚴重依賴限制優化,同時也是限制優化的一個直覺示例。大家可以參考以下部落格或吳恩達的文章。
- 部落格位址:https://towardsdatascience.com/lagrange-multipliers-with-pictures-and-code-ace8018dac5e
- 吳恩達文章位址:http://cs229.stanford.edu/notes/cs229-notes3.pdf
1.1 圖解
我以前一直沒有真正了解支援向量機,直到我畫了一張圖。
我們可以看到特征空間中有一些點。為友善可視化,我們使用一個可在螢幕上觀看的 2D 特征空間。該空間中散落着一些資料點,每個點具備二進制标簽((1/-1)。如下圖所示,我們将綠色點看作正類,紅色點看作負類,黃色點類别未知。如果讓你猜測黃色點的标簽,你會怎麼選?你可能會發現其中一些點并不是那麼容易确認類别。

圖 1:2-D 分類問題。綠色點是正類,紅色點是負類。你可以猜出黃色點的标簽嗎?(繪圖工具:https://github.com/ryu577/pyray)
現在,如果我畫一條紫色線将兩個類别分割開,那麼黃色點屬于哪個類别就清晰多了(紫色線上方是綠色點,下方是紅色點)。
圖 2:畫一條線,作為将正類标簽和負類标簽分割開來的「規則」。現在,我們可以使用該規則标注每個黃色點的類别。
然而,這條線并非唯一。有很多條紫色線可以将綠色點和紅色點完美分割(見下圖)。随着下圖中紫色線的移動,某些黃色點就顯得很微妙了(它們處于紫色線的不同側,是以它們的類别取決于你選擇使用哪條紫色線)。
圖 3:将紅色點和綠色點完美分割的線有很多條。那麼我們應該選擇哪一條呢?
問題在于,所有候選線中,哪一條是「最優」的?有一點很清楚:當上圖中的紫色線接近右下角的紅色點(critical point)時,其泛化效果不好,而當它遠離那個點時,其分割效果要好得多。是以,這個紅色點可以說明紫色線的分類效果,是以它是「關鍵點」。我們可以說,遠離該紅色點的線同樣遠離所有訓練樣本,而靠近該紅色點的線最終的分類效果并不好。是以,離最近的訓練樣本較遠的線才是優秀的分類器。
接下來,我們來看如何利用數學知識繪制分割線。
2. 繪制分割線
現在我們要(在 2D 空間中)畫一條分割線(在更高次元的空間中,則為分割面)。那麼這條線是什麼呢?它是具備某種共性的點的無限集合。這些點滿足一個特定公式。為了找到這個公式,我們先從最簡單的線 x 軸開始。x 軸上所有點的位置向量存在什麼共性?v_x = [x,0],即它們對應的 y 坐标均為 0。
也就是說,x 軸上每個點的位置向量與指向 y 軸方向的向量是正交(垂直)的。
這個說法可能看起來比較晦澀難懂,但是我們必須這麼說,因為這種現象其實對所有線都成立,而并非隻适用于 x 軸。我們希望将此說法泛化至任意線。現在每次挪動一小步,我們來看看穿過原點的線(如 x 軸)。如下圖所示,隻需将 x 軸旋轉一定角度,就可以得到這些線。
圖 4:旋轉 x 軸可以得到穿過原點的任意線。這些線上的每個點都與橙色向量相垂直。
随着線的變化,與線相垂直的向量也在變化,但是所有線上每個點的位置向量都與某個向量垂直。我們把這個與線垂直的向量叫做 w。當我們改變 w 時,就可以捕捉到所有此類線。
注意,對于任意給定線而言,存在多個 w 值。如果我們将向量 w 擴充或縮小一定數值,該線上每個點的位置向量仍與向量 w 垂直。
圖 5:擴大或縮小正交 w 向量。
為什麼不把 w 向量限制在大小為 1 呢?下文中,我們将 w 向量的大小設為 1。
現在我們已經将穿過原點的所有線都參數化了。那麼那些沒有穿過原點的線呢?我們将穿過原點的線移動一定量,即在該線法向量 w 的方向上移動 b。現在,w 與該線上每個點的位置向量的點積不為零,而是常量 b(參見下圖)。w 向量是從原點指向紫色線的機關向量,且與紫色線垂直。A 即紫色線上與原點最接近的點。假設 OA 的距離是 -b。現在,考慮兩個随機點 B 和 C(分别是圖中綠色點和橙色點)。将 OB 或 OC 與機關向量 w 相乘,分别得到三角形 OAB 和 OAC 的底。
在這兩種情況中,OA 為 -b。由于這兩個點隻是紫色線上的任意點,我們可以推斷出,紫色線上的所有點均滿足 w^T x+b=0(其中 x 表示紫色線上點的位置向量)。
圖 6:未穿過原點的線。
如果我們将不在該線上的點應用于上述公式呢?得到的結果不是零,而是從該點到紫色線的垂直距離(對于紫色線上的點而言也是如此,是以它們所對應的公式結果為零)。我們需要注意:這個結論僅适用于 |w|=1 的情況。下圖清晰說明了這一結果。B 為不屬于紫色線的任意點,B』』 為從 B 到紫色線的垂點,B』 為從 B 到 w 向量的垂點。從 B 到紫色線的垂直距離為 BB』』。但是由于 A-B』-B-B』』 是一個矩形,是以該垂直距離等于 AB』=OB』-OA。現在,OB』 是 B 的位置向量與 w 的點積。是以,如果 x 是 B 的位置向量,則 |OB』| = w^T x。這意味着 |AB』|=w^T x-(-b)(OA=-b)。是以從點 B 到紫色線的距離是:|AB』|=w^T x+b(該公式恰好是紫色線的公式)。
圖 7:将不在紫色線上的點應用于紫色線公式會發生什麼?我們得到該點與紫色線之間的垂直距離。
注意,在 w 指向方向一側的所有點(如圖 7 中的點 B)到紫色線的垂直距離為正值,而另一側點的垂直距離為負值。
在 w 指向方向一側的所有點均得到正類标簽 (t_i=1),而另一側的所有點均得到負類标簽 (t_i=-1)。是以,如果我們将這些标簽與垂直距離相乘,則所有點調整後的垂直距離均為正,前提是這些點均被紫色線正确分類(即具備正類标簽的點線上一側,具備負類标簽的點在另一側)。
3. 最佳分割線
現在到了 SVM 的重點了。我們将任意點到分割線的調整後垂直距離叫做「間距」(margin)。那麼,對于任意給定分割線,所有點均具備間距(如果點被分割線正确分類,則間距為正,反之則間距為負)。我們想擷取将正類和負類完美分割的線。也就是說,間距越大越好,即使是對于鄰近界限(分割平面)的點。
那麼,最大化所有間距(甚至是最接近分割線的點的間距)的分割平面應該能夠很好地分割這些點。現在,給出 (w,b),第 i 個點的間距為:
間距公式。
其中 x_i 表示特征空間中的位置向量,t_i 表示标簽:1 為正類,-1 為負類。
所有點中的最小間距為:
公式 1:所有點中的最小間距。
我們想讓 (w,b) 最大化上述最小間距。也就是:
即我們想讓 (w,b) 滿足 |w|=1,且最大化間距:
公式 2:SVM 目标函數。
注意:如果這條線沒有分離資料,那麼對于 (w,b),某些點的間距
間距公式。
為負。且這些點中的其中一個會在第一次最小化中「脫穎而出」,這意味着 (w,b) 無法在第二次 arg max 時勝出。是以,該公式保證了勝出的 (w,b) 能夠分割資料。
公式 2 是一個優化問題,涉及最小化和最大化(mini-max)。解決一級優化總比二級優化要簡單。是以,我們嘗試将公式 2 轉化為限制優化問題。
我們用 γ 表示所有點的最小間距。
公式 3:限制。
最終得到的優化問題為:
公式 4:SVM 優化問題。
上述優化問題具備二次/線性限制和線性目标函數。我們可以使用二次規劃求解器(quadratic programming solver)和最優分割線/平面 (w,b) 解決該問題。
現在,我們來試着進一步簡化該問題。我們發現可以去除 γ。其代價是,我們必須放棄 w^T w = 1 這一要求。但這是值得的。我們使用 γ 将限制分割為兩部分,得到:
公式 5:使用 γ 分割分割平面公式。
現在,使
引入新的 w 變量。
為兩側取絕對值:
取絕對值。
我們之前要求 |w|=1。這意味着:
是以,公式 3 變成了:
公式 5 和公式 6 使公式 4 中的優化問題變成了:
現在,優化問題有了一個醜陋的目标函數。但是最大化 1/|w| 等同于最小化 |w|,等同于最小化 |w|²。添加 1/2 使得計算更加簡單。
是以,上述優化問題變為: