天天看點

深度學習

了解了深度學習的概念等

不如西瓜書來得友善

喜歡看書不喜歡看視訊

加入 relu 激活函數以後,分類的準确率得到了顯著提高的原因?

為什麼用 relu 而不是 elu 或者 prelu ?

個人覺得類似numpy,之前用過這個。不過這兩個都挺強。

pytorch張量具有gpu支援,通過.cuda()方法移至gpu加速運算

傳統的numpy庫不支援gpu加速,是以在使用cuda加速時,無法使用numpy轉化以及numpy庫的相關方法,但可以通過.cpu()将目标張量移至cpu,再進行numpy轉換。

認識了張量,但是不是很明白向量和它的關系。

基本的資料類型、操作都有,不止包括轉置、求逆等等。加減乘除啥的都有

深度學習
深度學習

pytorch的tensor類型可以轉換為numpy類型

深度學習
深度學習

這應該是聚類問題吧?

首先是線性分類

由于資料的分布是程螺旋狀的,線性分類注定沒法準确區分資料

深度學習

線性模型的準确率最高隻能達到 50% 左右,對于這樣複雜的一個資料分布,線性模型難以實作準确分類。

建構兩層神經網絡分類

和上面模型不同的是,在兩層之間加入了一個 relu 激活函數

<code>nn.relu()</code>

深度學習

加入 relu 激活函數以後,分類的準确率得到了顯著提高!

如果不用激活函數,在這種情況下每一層輸出都是上層輸入的線性函數。容易驗證,無論神經網絡有多少層,輸出都是輸入的線性組合,與沒有隐藏層效果相當,這種情況就是最原始的感覺機(perceptron)了。是以引入非線性函數作為激活函數,這樣深層神經網絡就有意義了(不再是輸入的線性組合,可以逼近任意函數)。

兩層之間加入了一個 elu 激活函數

<code>elu</code>

這裡使用了另一個激活函數elu來對比

深度學習

結果還不如relu函數。

繼續閱讀