了解了深度學習的概念等
不如西瓜書來得友善
喜歡看書不喜歡看視訊
加入 relu 激活函數以後,分類的準确率得到了顯著提高的原因?
為什麼用 relu 而不是 elu 或者 prelu ?
個人覺得類似numpy,之前用過這個。不過這兩個都挺強。
pytorch張量具有gpu支援,通過.cuda()方法移至gpu加速運算
傳統的numpy庫不支援gpu加速,是以在使用cuda加速時,無法使用numpy轉化以及numpy庫的相關方法,但可以通過.cpu()将目标張量移至cpu,再進行numpy轉換。
認識了張量,但是不是很明白向量和它的關系。
基本的資料類型、操作都有,不止包括轉置、求逆等等。加減乘除啥的都有
pytorch的tensor類型可以轉換為numpy類型
這應該是聚類問題吧?
首先是線性分類
由于資料的分布是程螺旋狀的,線性分類注定沒法準确區分資料
線性模型的準确率最高隻能達到 50% 左右,對于這樣複雜的一個資料分布,線性模型難以實作準确分類。
建構兩層神經網絡分類
和上面模型不同的是,在兩層之間加入了一個 relu 激活函數
<code>nn.relu()</code>
加入 relu 激活函數以後,分類的準确率得到了顯著提高!
如果不用激活函數,在這種情況下每一層輸出都是上層輸入的線性函數。容易驗證,無論神經網絡有多少層,輸出都是輸入的線性組合,與沒有隐藏層效果相當,這種情況就是最原始的感覺機(perceptron)了。是以引入非線性函數作為激活函數,這樣深層神經網絡就有意義了(不再是輸入的線性組合,可以逼近任意函數)。
兩層之間加入了一個 elu 激活函數
<code>elu</code>
這裡使用了另一個激活函數elu來對比
結果還不如relu函數。