邊緣智能相關論文(Edge Intelligence & Federated Learning)Fast InferenceModel CompressionReduction in CommunicationFederated Learning and OptimizationFederated Learning and security
BranchyNet: Fast inference via early exiting from deep neural networks, ICPR, 2016,提出了一種在模型推斷時,估計準确率,達到準确率門檻值後,就近選擇快速跳出模型獲得結果的方法。
Neurosurgeon: Collaborative Intelligence Between the Cloud and Mobile Edge, ASPLOS, 2017, 在BranchyNet的基礎上,結合邊緣計算,采用雲邊端協同推斷的方法,将神經網絡在推斷部署時分散到雲邊端中,達到模型推斷的能耗和延遲要求。
Edge Intelligence: On-Demand Deep Learning Model Co-Inference with Device-Edge Synergy, SIGCOMM, 2018, 在前兩篇BranchyNet和Neurosurgeon的基礎上,參考前一篇論文,使用線性回歸模型,來實作自動化的神經網絡拆分和自動化的BranchyNet,在滿足時延要求的同時達到最大化精度。
Adaptive Neural Networks for Efficient Inference, ICML, 2017, 在BranchyNet的基礎上,BranchyNet是在一個網絡模型例如AlexNet中,提前退出,不執行後面幾層。而該文章中,是按自動機的方式連接配接幾個神經網絡模型,如果提前退出就不執行後面更複雜的神經網絡。例如在圖像分類中,用類似自動機的方法,入口進入AlexNet,結合BranchyNet,如果精度達到就退出,否則進入後面的GoogleNet和ResNet部分繼續執行。
Opportunistic Learning: Budgeted Cost-Sensitive Learning from Data Streams, ICLR, 2019, 文章中提出某些機器學習場景和邊緣智能場景,例如對視訊流處理,特征擷取是需要付出代價的,使用強化學習的價值函數來擷取特征。文中還特别地指出BranchyNet中那樣利用熵估計精度不準确,提出了蒙特卡洛估計精度方法。
Model Compression
Efficient On-Device Models using Neural Projections
Deep Networks with Stochastic Depth, ECCV, 2016, 放在模型壓縮裡面,是因為别的都是加快模型推斷,這一篇加快了訓練過程,在訓練時使用skip的方法,把神經網絡看成一個個塊,像dropout一樣,對于一個塊,可以選擇跳過也可以選擇經過,可以加速訓練過程;在推斷時,使用完整的網絡。
Expanding the Reach of Federated Learning by Reducing Client Resource Requirements, TODO, 2018, 提出了Federated Dropout的方法來訓練,每個參與者擁有的不是傳統聯邦學習架構下完整的model,而是dropout的一部分submodel。
Energy-Constrained Compression for Deep Neural Networks via Weighted Sparse Projection and Layer Inp, ICLR, 2019, 第一個提出用量化的角度來看待神經網絡推斷時的能耗的,分析了加速矩陣乘加運算應該要盡可能多的零參與運算,通過神經網絡權重的稀疏投影,以及首次提出的input mask方法可以對輸入本身進行“訓練”,達到能耗最低。
Reduction in Communication
Federated Learning: Strategies for Improving Communication Efficiency, NIPS, 2016, 首次提出用structured update和skewed update來進行聯邦學習的參數更新,減少通信量。
3LC: Lightweight and Effective Traffic Compression for Distributed Machine Learning, SysML, 2019, 提出了有損的梯度壓縮編碼方案,首次使用錯誤累計矩陣,最佳時可壓縮280x。
Federated Learning and Optimization
Privacy-Preserving Deep Learning,CCS, 2015
文中提出了Distributed Selective SGD,許多聯邦學習文章都會引用該論文。
Communication-Efficient Learning of Deep Network from Decentralized Data,AISTATS, 2017,聯邦學習開山之作之一,提出了FedAVG的參數聚合方法。
FedMD: Heterogeneous Federated Learning via Model Distillation, NeuIPS WorkShop, 2019, 将知識蒸餾用于聯邦學習場景,傳遞的不是梯度,而是soft score。
Federated Learning with Non-IID Data, CoRR, 2018, 通過實驗和推導,指出聯邦學習的每個參與者資料的Earth mover’s distance與non-iid以及性能下降之間有關聯,并提出通過分享資料降低non-iid程度。
Overcoming Forgetting in Federaerd Learning on Non-IID Data, NeuIPS WorkShop, 2019, 提出使用持續學習中防止遺忘的EWC損失,緩解聯邦學習中non-iid問題。
SignSGD with Majority Vote is Communication Efficient and Fault Tolerant, ICLR, 2019, 提出了使用多數投票的方式來進行梯度更新,梯度位隻有1位,降低了通信量,提升了魯棒性。同時文中還對Adam的收斂性進行了說明。
Exploiting Unintended Feature Leakage in Collaborative Learning, S & P, 2019, 提出聯合學習中,與主任務無關的屬性會被洩露,例如年齡分類器會洩露性别,性别分類器會洩露人是不是戴眼鏡。
Property inference attacks on fully connected neural networks using permutation invariant representations, CCS, 2018, 以往屬性推斷攻擊,很少針對神經網絡,因為神經網絡的可能性太大, 沒辦法窮舉這麼多,分别對這些模型*2,提供1個模型具有某屬性(例如作業系統具有熔斷漏洞),另1個不具有某屬性(不具有該漏洞)的模型,2個模型分别訓練得到梯度,梯度再分别作為label了的資料,送給屬性推斷攻擊分類器進行訓練。提出使用DeepSet的方法,将神經網絡n!的可能性進行了大幅壓縮。
How To Backdoor Federated Learning, CoRR, 2018, 提出用模型毒化攻擊聯邦學習,比資料毒化更加有效,在文中,模型毒化沒有很有效的防禦方法,突破了現有的許多防禦方法。
Analyzing Federated Learning through an Adversarial Lens, ICML, 2019, 在上文的第1版的基礎上,對學習率進行了修正,提出應該用大的學習率,上文的第2版指出,本文用大的學習率的方法,會造成遺忘,使得需要多聯邦學習模型一直進行攻擊才能保持較高的後門任務準确率。
Can You Really Backdoor Federated Learning, CoRR, 2019, 對聯邦學習後門攻擊進行了分析,有許多實驗執行個體,文中,指出差分隐私和基于梯度範數值的防禦,對後門攻擊有一定效果。
Latent Backdoor Attacks on Deep Neural Networks, CCS, 2019, 提出了一種隐後門的攻擊,攻擊後的模型并沒有後門任務的label,把後門藏在中間表示,隐藏性更好,現有方法無法防禦。模型一旦被遷移學習,一旦遷移後的模型裡面有後門任務的标簽,後門任務就會被激活。
Deep leakage from gradients, NeurIPS 2019, 從梯度洩露像素級别的圖檔,僅僅通過梯度,恢複原有圖檔,是以聯邦學習中應該還是會進行安全聚合。