作者 | 青壁
點選檢視視訊
上圖的相機的智能識别是怎麼做到的呢?請往下看。
什麼是前端智能推理引擎
在前端智能推理引擎之前,我們先來說一下什麼是”端智能”。
端智能(On-Device Machine Learning)是指把機器學習的應用放在端側做。這裡的“端側”,是相對于雲服務而言的。它可以是手機,也可以是 IOT 裝置等。
傳統的機器學習,由于模型大小、機器算力的問題,很多是放在服務端做的。比如 Amazon AWS 有“Amazon Rekognition Service”,Google 有 “Google Cloud Vision Service”。而随着以手機為代表的端側裝置算力的提高,以及模型設計本身的演進,大小更小、能力更強的模型逐漸能夠部署到端上運作。
--參考自《 https://www.infoq.cn/article/m5m93qyadscnyil3kprv 》
相比雲端部署的方式,APP端擁有更直接的使用者特征,同時具備如下優勢:
- 實時性高,端側處理可節省資料的網絡傳輸時間。
- 節省資源,充分利用端側算力和存儲空間。
- 隐私性好,産生資料到消費資料都在端側完成,避免傳輸引起的隐私洩露風險。
這些是端智能的優勢,但它不是萬金油,仍然存在一些局限性:
- 裝置資源有限,端側算力、存儲是有限的,不能做大規模高強度的持續計算。
- 算法規模小,端側算力小,而且單使用者的資料,在算法上并不能做到最優。
- 使用者資料有限,端側資料不适合長期存儲,同時可用資料有限。
同理,前端智能是指将機器學習的應用放到前端上(web、h5、小程式等).
是以,什麼是前端智能推理引擎呢?
如下圖:

前端智能推理引擎實際上就是利用前端上算力去執行模型的那個東西。
業界現有的前端推理引擎
這裡列出三個常見的推理引擎
- tensorflow.js(下面簡稱為tfjs)
- ONNX.js
- WebDNN
對于一個端上推理引擎來說,最重要的是什麼?當然是性能了!性能越好,也代表在端上的應用場景也會越多,下面我們來看下這三個推理引擎的性能對比:
(下面資料使用模型為MobileNetV2分類模型)
cpu(js計算)
可以看到,在純JS環境下進行計算,僅僅做一次分類都要1500ms以上。設想一下如果一個相機需要實時對拍攝的物體做分類預測(比如預測拍攝的對象是貓還是狗),那麼每預測一次需要1500ms,這樣的性能是無法忍受的。
WASM
在WASM環境下,性能最佳的ONNX.js達到了135ms的性能,也就是7fps左右,已經到了勉強能用的程度了。而tfjs卻是糟糕的1501ms。這裡是因為onnx.js利用了worker進行多線程加速,是以性能最好。
WebGL(GPU)
最後是GPU環境,可以看到tfjs和ONNXjs的性能都達到了比較好的性能水準,而WebDNN表現較為糟糕。
除了上面這三種引擎,目前國内還有百度的paddle.js以及淘寶的mnn.js等,這裡不做讨論。
當然,在選擇一個合适的推理引擎時,除了性能以外,還有生态、引擎維護情況等等一系列的考慮。從綜合的方面來說,tfjs是當下市場上最适合的前端推理引擎。因為tfjs可以依靠tensorflow的強大的生态、google官方團隊的全職維護等。相比之下ONNX架構比較小衆,且ONNXjs已經有近一年沒有維護了。WebDNN性能及生态都沒有任何競争力。
前端上的高性能計算方案
從上一章節其實能看到,在前端上做高性能計算一般比較普遍的就是WASM和基于WebGL的GPU計算,當然也有asm.js這裡不做讨論。
WASM大家應該是比較熟悉的,這裡隻做下簡短的介紹:
WebAssembly是一種運作在現代網絡浏覽器中的新型代碼,并且提供新的性能特性和效果。它設計的目的不是為了手寫代碼而是為諸如C、C++和Rust等低級源語言提供一個高效的編譯目标。
對于網絡平台而言,這具有巨大的意義——這為用戶端app提供了一種在網絡平台以接近本地速度的方式運作多種語言編寫的代碼的方式;在這之前,用戶端app是不可能做到的。
而且,你在不知道如何編寫WebAssembly代碼的情況下就可以使用它。WebAssembly的子產品可以被導入的到一個網絡app(或Node.js)中,并且暴露出供JavaScript使用的WebAssembly函數。JavaScript架構不但可以使用WebAssembly獲得巨大性能優勢和新特性,而且還能使得各種功能保持對網絡開發者的易用性。--《摘自MDNWebAssembly概念》
WebGL
啥?WebGL不是做圖形渲染的嗎?不是做3D的嗎?為啥能做高性能計算?
可能一些同學聽說過gpgpu.js這個庫,這個庫就是利用webgl做通用計算的,具體的原理是怎麼樣的呢?(為了能夠繼續往下閱讀,請先快速浏覽下這篇文章):《利用WebGL2 實作Web前端的GPU計算》。
将推理引擎的性能進行極緻優化
好了,目前我們知道在前端上的兩種高性能計算方式了,那麼如果現有的架構(tfjs、onnxjs)性能上就是不滿足我們的需求怎麼辦呢?怎麼樣才能進一步提升引擎性能,并落地生産環境呢?
答案是:手撕源碼,優化性能。對,就是這麼簡單粗暴。以tfjs為例(其他的架構原理上是一緻的),下面給大家介紹下如何用不同的姿勢去優化引擎性能。
在去年年初時候,我們團隊和google的tfjs團隊做了一次深入交流,google那邊明确表示tfjs後面的發展方向以WASM計算為主、webgl計算不做新的feature以維護為主。但是現階段各浏覽器、小程式對WASM的支援并不完整(例如SIMD、Multi-Thread等特性),是以WASM暫時無法在生産環境落地。是以,現階段還是需要依賴webgl的計算能力。糟糕的是,此時tfjs的webgl性能在移動端上表現依舊差強人意,尤其在中低端機上的性能完全達不到我們的業務要求。沒辦法,隻能自己硬着頭皮進去優化引擎。是以以下的内容都是針對于webgl計算進行介紹。
優化 WebGL 高性能計算的n種姿勢
姿勢一:計算向量化
計算向量化是指,利用glsl的vec2/vec4/matrix資料類型進行計算,因為對于GPU來說,最大的優勢就是計算并行化,通過向量去計算能夠盡可能地達到并行化的效果。
例如一次矩陣乘法:
c = a1 * b1 + a2 * b2 + a3 * b3 + a4 * b4;
可以改為
c = dot(vec4(a1, a2, a3, a4), vec4(b1,b2,b3,b4));
向量化的同時也要配合記憶體布局的優化;
姿勢二:記憶體布局優化
如果讀了上面《利用WebGL2 實作Web前端的GPU計算》這篇文章的同學應該了解到,在GPU内所有的資料存儲都是通過Texture的,而Texture本身是一個 長n * 寬m * 通道(rgba)4 的東西,如果我們要存一個3 * 224 * 224 * 150的四維矩陣進去要怎麼辦呢?肯定會涉及到矩陣的編碼,即以一定的格式把高維矩陣存進特性形狀的Texture内,而Texture的資料排布又會影響計算過程中的讀存性能。例如,舉一個較簡單的例子:
如果是正常記憶體排布的話,計算一次需要按行或者案列周遊矩陣一次,而GPU的cache是tile類型的,即n*n類型的緩存,根據不同晶片n有所不同。是以這種周遊方式會頻繁造成cache miss,進而成為性能的瓶頸。是以,我們就要通過記憶體排布的方式進行性能優化。類似下圖:
姿勢三:圖優化
由于一個模型是一個一個的算子組成的,而在GPU内每個算子被設計成一個webgl program,每次切換program的時候會造成較多的性能損耗。是以如果有一種手段能夠減少模型的program數量,對性能的提升也是十分可觀的。如下圖:
我們将一些可以融合的節點在圖結構上進行融合(nOP -> 1OP),基于新的計算結點實作新的OP。這樣一來大大減少了OP的數量,進而減少了Program的數量,是以提升了推理性能。在低端手機上效果尤為明顯。
姿勢四:混合精度計算
以上所有的計算都是基于正常浮點數計算,也就是float32單精度浮點數計算。那麼,在GPU内是否能實作混合精度的計算呢?例如float16、float32、uint8混合精度的計算。答案是可以的,在GPU内實作混合精度計算的價值是在于提升GPU的bandwidth。由于webgl的texture每一個像素點包含rgba四個通道,而每個通道最高為32位,我們可以在32位内盡可能存儲更多的資料。如果精度為float16,那麼可以存儲兩個float16,bandwidth就是之前的2倍,同理uint8的bandwidth是之前的4倍。這個性能的提升就是巨大的。還是上圖說話吧:
姿勢n:...
優化的手段還有很多,這裡就不一一列舉了。
引擎落地的場景
目前,基于我們深度優化的引擎已經落地螞蟻集團及阿裡經濟體多個應用場景,比較典型的就是文章開頭示範的寵物識别,還有卡證識别、碎屏相機等等等場景。
業界的有之前比較火的虛拟試妝小程式等。
讀到這篇文章的朋友們也可以打開你們的腦洞,挖掘出更多更好玩的智能場景。
未來展望
随着市面是機型的更新換代及引擎的深入優化,我相信tfjs會在更多富互動的場景上大放異彩,例如擁有AI能力的前端遊戲、AR、VR等等場景。現在我們要做的就是靜下心來,站在巨人的肩膀上持續打磨我們的引擎,願等花開。
電子書免費下載下傳
《2021前端熱門技術解讀》
阿裡巴巴前端委員會重磅推薦!阿裡巴巴前端技術專家為你解讀前端技術新趨勢以及2021你需要關注的技術熱點,覆寫前端安全生産、跨端技術、Node.js(Serverless)以及多樣化的前端技術四大方向,是2021不容錯過的前端學習手冊。
關注 Alibaba F2E 公衆号
回複 電子書 馬上下載下傳