天天看點

一周AI最火論文 | 學習版CNN 101,極簡神經網絡手慢無!

本周關鍵詞:機器翻譯,神經網絡教學,姿勢估計

本周最佳學術研究

CNN 101: 卷積神經網絡的互動式視覺學習

為了應對深度學習模型中的複雜性挑戰,研究人員開發了CNN 101,這是一個互動式的可視化系統,可以幫助學生更好地了解和學習卷積神經網絡,它是基礎的深度學習模型體系結構。

使用現代Web技術建構的CNN 101無需專用硬體即可在使用者的Web浏覽器中本地運作。通過緊密內建的互動式視圖,CNN 101通過解釋單神經元級别以及層級别的卷積,激活和池化操作,提供了模型工作方式的概述和詳細說明。

CNN 101進一步擴大了公衆對深度學習技術的教育途徑。它應用了互動式可視化技術,為使用者提供了一種更簡單的方法來學習深度學習機制并建立神經網絡直覺。并且,對于現有的通過互動式可視化來解釋複雜機器學習算法的研究工作,CNN 101可以與他們結合在一起。

作者還計劃擴充CNN 101的功能,用來進一步支援使用者自定義和個性化的學習。他們還緻力于将CNN 101部署和開源在類似于TensorFlow Playground和GAN Lab的平台上,以便來自世界各地的學習者都可以輕松通路。

CNN 101 示範視訊:

https://www.youtube.com/watch?v=g082-zitM7s&feature=youtu.be

原文:

https://arxiv.org/abs/2001.02004v1

主動人體姿勢估計的深度強化學習

姿勢深度強化學習(Pose-DRL)是一種在密集攝影機中運作的,基于完全可訓練的深度強化學習(DRL)的主動式姿勢估計架構,該架構可以選擇适當的視點以提供基礎的單眼姿勢預測器。

研究人員使用單目标估計器和多目标估計器對模型進行評估,在兩種情況下均獲得了良好的結果。該系統還學習了時間自動停止的情形,以及向視訊中的下一時間處理步驟過渡的功能。

研究人員稱:“在使用Panoptic多視圖設定進行的廣泛實驗中,對于包含多個人的複雜場景,我們證明了該模型學會了選擇與強多視圖基線相比明顯更準确的姿勢估計的視點。”

該系統學習選擇視圖集,與強多視圖基線相比,産生的姿态估計更準确。結果不僅顯示了智能視點選擇的優勢,而且還證明了“少即是多”,融合太多可能不正确的視點估計反而會導緻結果變差。

閱讀更多:

https://arxiv.org/abs/2001.02024v1

多語言神經機器翻譯的綜合研究

在本文中,日本大阪大學和日本國立資訊與通信技術研究所,以及印度的微軟人工智能研究院的研究人員對現有的多語言神經機器翻譯(MNMT)文獻進行了深入調查,以期使研究人員和從業人員對MNMT前景有更深入的了解。

他們根據中心使用執行個體對MNMT中的各種技術進行了簡單分類,并根據資源場景,基礎模組化原理,核心問題和挑戰對它們進行 進一步分類。他們還盡可能地通過互相比較來解決幾種技術的優缺點,并讨論MNMT的未來發展方向。

MNMT在過去幾年中已經起步。盡管它帶來了許多令人振奮的進步,但仍有許多有趣的方向可供進一步探索。

首先,這項工作涵蓋了與多語言NMT的主要場景相關的文獻,包括多路,低資源或零資源(轉移學習,資料透視和零鏡頭方法)和多源翻譯。本文系統地彙編了主要的設計方法及其變體,主要的MNMT問題及其建議的解決方案。

對于NMT的初學者和專家而言,這是朝着促進和加速MNMT研究邁出的重要一步。任何對于MNMT感興趣的人,都可以以此作為起點和新思想的來源。

https://arxiv.org/abs/2001.01115v2

強大且可擴充的快速分類器将用于車輛跟蹤和車輛再識别

近期的一項研究提出了一個針對不同條件下錄影機網絡中視訊分析的協作分類器架構,這些條件包括多尺度、多分辨率錄影機以不同的遮擋、模糊和方向捕獲環境。提出這一架構的研究人員來自于美國佐治亞理工學院和巴西聖保羅大學,他們描述了一種用于車輛跟蹤和車輛再識别的實作方式,他們在其中實施了零彈學習(ZSL)系統來對車輛執行自動化跟蹤。

對VeRi-776和Cars196的評估表明:成組的分類器架構具有強大的對抗能力,可以擴充到不斷變化的視訊特征(例如新的車輛類型 / 品牌和新的攝像頭)。并且,他們與目前的離線視訊分析方法相比更具有實時性能。

這項研究提出了一種用于車輛跟蹤的全新技術,它同時也能進行端到端的車輛屬性提取和車輛識别。它簡單而強大的基礎模型與目前的最新技術相比具有一定競争優勢,而且其參數要少幾個數量級。研究人員在基本模型中使用大約1200萬個參數來實作64.4 mAP,而在MTML-OSG中使用100多個參數時則具有62.6的平均平均精度(mAP,一種用于評估排名和檢索的名額)

減少參數數量将其與目前方法的性能進行對比,研究人員們可以認定:這一架構能夠達到這一領域内業界最頂尖的水準,這也是這一方法的優勢之一。

https://arxiv.org/abs/1912.04423v2

Sparse-GAN在視網膜OCT圖像疾病檢測中的應用

CNN等技術使得我們可以用計算機視覺技術和深度學習方法來檢測視網膜OCT圖像中的病變。 但是,這樣的方法需要大量的資料來進行訓練,深度學習應用也正是是以被限制在了醫學圖像分析中。而如果我們究其原因就會發現:從具有一種或幾種疾病的資料集中訓練出來的深度學習系統無法檢測到其他訓練集中沒有出現過的疾病。

為了解決這一問題,在Image-to-Image GAN(注:GAN指的是“對抗神經網絡”)的啟發下,研究人員現在建議在這項工作中采用Image-to-Image GAN進行醫學圖像的異常檢測,并建議将重建圖像映射到潛伏空間,并附加編碼器以減少圖像噪聲的影響。

與此同時,研究人員們還建議規範化潛在特征的稀疏性,以僅使用正常訓練資料來呈現所謂的稀疏限制生成對抗網絡(Sparse-GAN),以此進行圖像異常檢測。

在OCT成像中,來自健康受試者的3D掃描可提供數百個“B掃描”圖像而無損傷。如果我們将病變視為來自健康受試者的異常圖像,可以使用沒有病變的OCT “B掃描”來訓練異常檢測系統。

Sparse-GAN能夠預測空間中潛在的異常,而不是圖像級别的異常,并且還受到新穎的Sparsity Regularization Net的限制。而在可公開獲得的資料集上對其進行的評估表明,它的性能優于業界最新方法。

也就是說,Sparse-GAN可用于疾病篩查,其中訓練集中隻有健康資料即可。這樣,可以減輕資料收集和注釋的難度。該方法還可以預測異常激活圖,以顯示病變以進行臨床診斷。

https://arxiv.org/abs/1911.12527v2

其他爆款論文

第一個能夠通過單一視角重制房間3D布局的方法:

https://arxiv.org/abs/2001.02149v1

PaRoT:一個基于TensorFlow的全新系統:

https://arxiv.org/abs/2001.02152v1

全新的、現實的、具有關注意識的衆包方案:

https://arxiv.org/abs/1912.11238v2

第一個能夠幫助我們更好地了解深度學習的理論系統:

https://arxiv.org/abs/2001.00939v2

一種在計算機安全性領域中比較和評估不同解釋方法的标準:

https://arxiv.org/abs/1906.02108v3

資料集

資料集是怎麼來的:

https://arxiv.org/abs/1803.09010v5

使用VizWiz資料集浏覽器搜尋和浏覽一組大型機器學習資料集:

https://arxiv.org/abs/1912.09336v1

AI大事件

AI是如何幫助我們在中國戰勝貧困的:

https://time.com/5759428/ai-poverty-china/

新算法幫你找到最佳讀物:

http://news.mit.edu/2019/finding-good-read-among-billions-of-choices-1220

利用AI改善與消費者的聯系:

https://www.forbes.com/sites/forbesagencycouncil/2020/01/08/leveraging-ai-to-enhance-connection-with-consumers-12-techniques-for-marketers/#5fbdbd70cb69

對于美國公司來說,在美國建立實驗室會越來越難:

https://www.wired.com/story/export-controls-threaten-ai-outposts-china/?utm_brand=wired&utm_social-type=earned

MIT開發面向中學生的AI新課,傳授AI倫理和基礎知識:

http://news.mit.edu/2019/bringing-artificial-intelligence-and-mit-middle-school-classrooms-1230

繼續閱讀