天天看點

python牛客刷題——深度學習第六彈python牛客刷題——深度學習第六彈

python牛客刷題——深度學習第六彈

!!!個人首頁:個人首頁

!!!推薦一款模拟面試、刷題神器,從基礎到大廠面試題:點選此處進入牛客網注冊學習吧

!!!今日的努力,明日的未來

1.下圖顯示了訓練過的3層卷積神經網絡準确度,與參數數量(特征核的數量)的關系。從圖中趨勢可見,如果增加神經網絡的寬度,精确度會增加到一個特定門檻值後,便開始降低。造成這一現象的可能原因是什麼?

python牛客刷題——深度學習第六彈python牛客刷題——深度學習第六彈
A. 即使增加卷積核的數量,隻有少部分的核會被用作預測
	B. 當卷積核數量增加時,神經網絡的預測能力(Power)會降低
	C. 當卷積核數量增加時,導緻過拟合
	D. 以上都不正确
           

解析:C 過拟合在訓練過程中不會導緻精度下降,隻有在驗證階段,用驗證集和訓練集做對比的時候,會導緻訓練集的精度高于驗證集的精度,導緻模型的泛化能力下降。這道題的C選項單獨作為一個論點是沒有問題的,但是放進題目中就不對。

  1. 如果我們用了一個過大的學習速率會發生什麼?
    A. 神經網絡會收斂
     B .不好說
     C. 都不對
     D. 神經網絡不會收斂
               

解析:D 學習率過大,會使得疊代時,越過最低點。

3.caffe中基本的計算單元為()

A . blob
	B. layer
	C. net
	D. solver
           

解析:B Blob是一個模闆類,聲明在include/caffe/blob.hpp中,分裝了SyncedMemory類,作為基本計算單元服務Layer、Net、Solver等,在記憶體中是4維數組,次元從低到高(width_,height_,channels_,num_),用來存儲資料或權值(data)和權值增量(diff),在進行網絡計算時,每層的輸入和輸出都需要通過Blob對象緩沖。Blob是Caffe的基本存儲單元。

Layer Layer是Caffe的基本計算單元,至少有一個輸入Blob和一個輸出Blob,部分Layer帶有權值(Weight)和偏執項(Bias),有兩個運算方向,前向傳播(Forward)和反向傳播(BackWard)

4.下列哪些項所描述的相關技術是錯誤的?

A. AdaGrad使用的是一階差分(first order differentiation)
	B. L-BFGS使用的是二階差分(second order differentiation)
	C. AdaGrad使用的是二階差分
           

解析:C AdaGrad是梯度下降法,用的是一階導數資訊,L-BFGS是拟牛頓法,在牛頓法的基礎上發展而來的,用到了二階導數資訊。

5.在CNN網絡中,圖A經過核為3x3,步長為2的卷積層,ReLU激活函數層,BN層,以及一個步長為2,核為22的池化層後,再經過一個33的的卷積層,步長為1,此時的感受野是()

A. 10
	B. 11
	C. 12
	D. 13
           

解析:D 感受野的意思是現在的一個像素對應原來的多少個像素

倒着推導: “再經過一個33的的卷積層,步長為1”得到的一個像素對應原來33個像素 “33像素對應 “一個步長為2,核為22的池化層” 之前的 66或者77 在倒推 對應 第一次卷積“核為3x3,步長為2的卷積層”之前的 1313或者1414或者1515或者1616 答案中隻有13,是以選13

繼續閱讀