python牛客刷題——深度學習第六彈
!!!個人首頁:個人首頁
!!!推薦一款模拟面試、刷題神器,從基礎到大廠面試題:點選此處進入牛客網注冊學習吧
!!!今日的努力,明日的未來
1.下圖顯示了訓練過的3層卷積神經網絡準确度,與參數數量(特征核的數量)的關系。從圖中趨勢可見,如果增加神經網絡的寬度,精确度會增加到一個特定門檻值後,便開始降低。造成這一現象的可能原因是什麼?
A. 即使增加卷積核的數量,隻有少部分的核會被用作預測
B. 當卷積核數量增加時,神經網絡的預測能力(Power)會降低
C. 當卷積核數量增加時,導緻過拟合
D. 以上都不正确
解析:C 過拟合在訓練過程中不會導緻精度下降,隻有在驗證階段,用驗證集和訓練集做對比的時候,會導緻訓練集的精度高于驗證集的精度,導緻模型的泛化能力下降。這道題的C選項單獨作為一個論點是沒有問題的,但是放進題目中就不對。
- 如果我們用了一個過大的學習速率會發生什麼?
A. 神經網絡會收斂 B .不好說 C. 都不對 D. 神經網絡不會收斂
解析:D 學習率過大,會使得疊代時,越過最低點。
3.caffe中基本的計算單元為()
A . blob
B. layer
C. net
D. solver
解析:B Blob是一個模闆類,聲明在include/caffe/blob.hpp中,分裝了SyncedMemory類,作為基本計算單元服務Layer、Net、Solver等,在記憶體中是4維數組,次元從低到高(width_,height_,channels_,num_),用來存儲資料或權值(data)和權值增量(diff),在進行網絡計算時,每層的輸入和輸出都需要通過Blob對象緩沖。Blob是Caffe的基本存儲單元。
Layer Layer是Caffe的基本計算單元,至少有一個輸入Blob和一個輸出Blob,部分Layer帶有權值(Weight)和偏執項(Bias),有兩個運算方向,前向傳播(Forward)和反向傳播(BackWard)
4.下列哪些項所描述的相關技術是錯誤的?
A. AdaGrad使用的是一階差分(first order differentiation)
B. L-BFGS使用的是二階差分(second order differentiation)
C. AdaGrad使用的是二階差分
解析:C AdaGrad是梯度下降法,用的是一階導數資訊,L-BFGS是拟牛頓法,在牛頓法的基礎上發展而來的,用到了二階導數資訊。
5.在CNN網絡中,圖A經過核為3x3,步長為2的卷積層,ReLU激活函數層,BN層,以及一個步長為2,核為22的池化層後,再經過一個33的的卷積層,步長為1,此時的感受野是()
A. 10
B. 11
C. 12
D. 13