天天看點

非計算機專業 怎樣高效學習人工智能“深度學習”?

作者:Deepcong

深度學習之入門感悟:學習機械出身,由于課題需要,轉入深度學習方向,入門之前感覺深度學習這四個字高大上,非我這種學習能力差、腦袋笨重的人所能企及。經過一兩年的摸索試探,感覺并沒有那麼的高大上,說到底還是一個解決問題的工具。作者将基于自己的思維理念從各方面進行總結,其中涉及各位大神的部落格及其他方面資料已注明引用,搜集起來就是為了友善那些從十萬八千裡的行業跨入深度學習這一個領域的小白,行業大牛請自動忽略這篇淺文。裡面難免很多錯誤和不足之處,希望不吝指教。

首先總結常見的專業名詞,如下:

1、卷積

2、池化

3、資料預處理

4、局部響應歸一化

5、Padding

6、BN

7、Dropout

8、LRN

9、L1正則、L2正則

10、梯度下降

11、過拟合

12、欠拟合

13、batch_size

14、學習率

15、NMS非極大值抑制

16、深度學習評價名額

17、反向傳播算法

18、參數初始化

19、超參數

專業名詞各個擊破之後(後續文章一一介紹總結),嘗試學習有名的各種深度神經網絡,并運作開源代碼。比較基礎的幾個深度神經網絡如下:

1、LeNet

2、AlexNet

3、VGG16/19

4、InceptionV1-V3

5、ResNet

6、Faster-RCNN

7、SSD

8、YOLOV1-YOLOV6

了解并實踐過上述開源代碼後,發散思維找一些可以應用的實驗場景和實驗資料,實踐一下。

作者總結了近幾年來碰到的面試或者工作中遇到的一些問題:

1、 了解最基礎的神經網絡

2、 前向傳播過程

3、 激活函數的作用

4、 激活函數的種類及其優缺點

5、 怎樣選擇激活函數

6、 什麼是梯度消失、爆炸,為什麼出現梯度消失、梯度爆炸,怎樣解決?

7、 梯度下降算法

8、 常見的梯度下降優化算法

9、 沿着梯度反方向,更新權值之後再前向傳播時,計算出來的損失函數的值一定比之前的損失值小嗎??

10、 反向傳播算法,四個方程??

11、 梯度下降和反向傳播的關系

12、 什麼是凸函數?

13、 損失函數是不是凸函數?

14、 什麼是線性分類器,怎樣判斷是線性模型還是非線性模型?

15、 超平面是個啥?

16、 偏置b的作用?

17、 卷積神經網絡的反向傳播?

18、 Hessian矩陣是什麼?

19、 全局最優和局部最優?

20、 局部最優的優化方法

21、 怎樣判斷是否陷入局部最優?

22、 鞍點是什麼?

23、 損失函數的種類

24、 怎樣解決過拟合?

25、 怎樣解決欠拟合?

26、 loss變成Nan為什麼,怎樣解決?

27、 batch-size大小怎樣确定?

28、 1*1卷積核的作用是什麼?

29、 卷積神經網絡中的權值共享

30、 池化方法

31、 L1、L2正則

32、 BN層的作用

33、 dropout的作用,推理時還要嗎?

34、 BN和dropout能不能一起使用?

35、 yolov3中,大尺度的特征圖用于檢測小物體,小尺度特征圖核檢測大物體?

36、 yolov3的原理總結

37、 yolov1、yolov2、yolov3和yolov4的差別?

38、

39、 NMS算法

40、 yolov3中,tx、ty、tw、th,為什麼隻預測偏移量?

41、 模型評價方式:Recall,Precision,AUC/ROC,iou,AP,mAP,F1?

42、 ROI

43、 anchor的作用、怎樣計算得到?

44、 yolo系列的損失函數

45、 小目标檢測的難點

46、 faster rcnn的準确率為什麼比yolo算法高?

47、 為什麼叫darknet53?

48、 什麼是殘差結構?

49、 語義分割,圖像分割、執行個體分割、全景分割之間的差別?

50、 姿态識别

51、 目标跟蹤

52、 目标跟蹤深度學習算法中,卡爾曼濾波的作用?

53、 目标跟蹤深度學習算法中,匈牙利算法的作用?

54、 sort、deepsort、JDE、alphapose的差別?

55、 自然場景文本檢測:文本檢測+文本識别

56、 命名實體識别

57、 人臉檢測

58、 人臉識别

59、 資料預處理的方法

60、 資料集的要求

61、 什麼樣的資料集不适合深度學習?

62、 深度學習中,樣本不均衡怎麼辦?

63、 參數初始化的方法

64、 無監督學習的過程

65、 模型不收斂的原因有哪些?

66、 大批量的資料以怎樣的方法讀入記憶體?

67、 loss不降的原因和處理辦法?

68、 yolov4中,資料增強的方法

69、 yolov3和yolov4的差別?

70、 為什麼都在用VGG16的預訓練模型?

71、 對fine-tuning (微調模型的了解),為什麼要修改最後幾層神經網絡權值?

72、 卷積神經網絡為什麼有平移不變性?

73、 解釋 GoogLeNet 的 Inception 子產品的原理

74、 聚類算法

75、 邏輯回歸

76、 支援向量機

77、 随機森林

78、 SVD和PCA

79、 超參數怎樣選擇确定?

80、 訓練集、驗證集、測試集怎麼劃分?

81、 交叉驗證

82、 卷積核是否越大越好?

83、 one-hot編碼優缺點

84、 空洞卷積的原理

85、 卷積神經網絡中的padding

86、 卷積、池化後的特征圖尺寸怎麼計算?

87、 RNN、LSTM、GRU

88、 Bert

89、 GAN

90、 Attention機制

91、 激活函數、損失函數的組合方法

92、 人臉識别成貓臉,怎樣解決?

上述問題相關解讀會在後續文章中一一呈現。

繼續閱讀