天天看點

【壓縮率3000%】上交大ICCV:精度保證下的新型深度網絡壓縮架構

【壓縮率3000%】上交大ICCV:精度保證下的新型深度網絡壓縮架構

上海交通大學人工智能實驗室的研究人員提出了一種新的方法,能夠在保證網絡模型精度的前提下對深度網絡進行壓縮。相關論文已被iccv 2017接收,由上海交通大學人工智能實驗室李澤凡博士實作,倪冰冰教授,張文軍教授,楊小康教授,高文院士指導。

随着人工智能在各個領域的應用中大放異彩,深度學習已經成為街頭巷尾都能聽到的詞彙。然而,網絡越來越深,資料越來越大,訓練越來越久,如何在保證準确率的情況下加速網絡,甚至讓網絡在cpu或者移動裝置上進行訓練與測試,就變成了迫在眉睫的問題。

上海交通大學人工智能實驗室的研究人員發表了論文《基于高階殘差量化的高精度網絡加速》(performance guaranteed network acceleration via high-order residual quantization),提出一種新的方法,能夠在保證網絡模型精度的前提下對深度網絡進行壓縮。實驗結果,他們将網絡的大小降低了約32倍,速度上有30倍的提升。雖然以往的方法在體積和速度上也曾經取得類似的效果,但本論文提出的方法在精度保證上更勝一籌。

【壓縮率3000%】上交大ICCV:精度保證下的新型深度網絡壓縮架構

新的壓縮方法horq:加快網絡計算的同時保證準确率

除了網絡pruning,網絡稀疏近似等等,網絡二值化也是常見的網絡加速方式。通常情況下,我們用 +1 和 -1 來代替原來的浮點數數值,使得卷積中的乘法操作變成加減操作,而如果輸入和權重同時二值化,乘法操作就會變成異或操作。

這看似是一種合理的網絡壓縮方式,然而如果單純的運用門檻值二值化方法對網絡輸入進行二值化處理,那麼模型最後的精度将無法得到保證。但如果不運用二值化方法對網絡進行加速,那麼就又無法利用二值化所帶來的在計算和存儲方面的優勢。

這篇文章提出的horq(high order residual quantization)方法,提出了一種針對輸入的高階殘差二值量化的方法,既能夠利用二值化計算來加快網絡的計算,又能夠保證訓練所得的二值化網絡模型擁有較高的準确率。

圖一展示了如何用horq方法将一個普通的卷積層進行殘差量化。

【壓縮率3000%】上交大ICCV:精度保證下的新型深度網絡壓縮架構

圖一 horq結構

之前的二值化方法,例如xnor,對輸入簡單地采用了門檻值量化的操作。這樣的方法可以看成是對浮點數的一階二值近似方法。在此之上,本文運用遞歸門檻值量化的方法,提出了horq的架構。具體來講,如圖一所示,在第一次門檻值量化操作後,我們可以定義并計算改階近似對應的殘差,然後對該階殘差進行新一輪的二值近似。通過對高階殘差的近似,我們可以得到對應于不同尺度下的二值feature map。将這些feature map相加,便可得到最終的輸出。

實驗結果

這篇文章的實驗部分在mnist和cifar-10資料集上進行測試,發現horq-net對比之前對輸入簡單采取一階門檻值二值化的方法有喜人的優勢:

【壓縮率3000%】上交大ICCV:精度保證下的新型深度網絡壓縮架構

圖二 mnist實驗

【壓縮率3000%】上交大ICCV:精度保證下的新型深度網絡壓縮架構

圖三 cifar-10實驗

我們發現,對于二階殘差量化方法,該方法将網絡的大小降低了約32倍,同時速度上有30倍的提升,相比xnor-net在兩個mnist和cifar-10上測試準确率均有提升,并且展現出了可在cpu上進行網絡訓練的潛能。

【壓縮率3000%】上交大ICCV:精度保證下的新型深度網絡壓縮架構

圖四 horq方法加速比性能分析

【壓縮率3000%】上交大ICCV:精度保證下的新型深度網絡壓縮架構

圖五 horq方法加速比與量化階數分析

horq方法對卷積層計算的的加速比跟卷積核大小,feature map數量,以及殘差量化的階數都有較大關系。這些關系展現在圖四和圖五中。而且,如圖六所示,基于二值化的模型存儲空間可以得到大幅度的降低。

結語

該論文提出的horq方法可以作為一個基礎的二值量化的方法,用于網絡的輸入二值化中,能夠在保證網絡模型精度的前提下,利用二值量化的技術提升網絡的計算速度,而且同時可以根據實際的硬體需要來調整殘差階數以适應需求。

這個方法有着很大的發展和使用前景。對于一般的深度學習網絡,horq方法能能夠很大程度上加速深度網絡的計算速度。由于網絡的每層輸入的輸入和權值都被二值化,模型的前向傳播時間得到大大降低,同時存儲模型所需的空間得到大大壓縮,使得在資源受限的小運算平台,例如手機和筆記本上運作大規模深度網絡模型成為可能。另外,高階殘差量化的方法能夠使得網絡精度的得到保證,使得網絡不再會因為簡單二值化方法而出現精度大幅下降。

該論文已經被iccv2017接收,由上海交通大學人工智能實驗室李澤凡博士實作,倪冰冰教授,張文軍教授,楊小康教授,高文院士指導。

來源:新智元

<a href="https://mp.weixin.qq.com/s/uyk3yqmfw7-44ruojuqfgg">原文連結</a>