本周最佳學術研究
基于神經樣式轉移的APP樣式轉換
斯坦福大學的研究人員介紹了ImageNet,使得終端使用者和app開發人員可以通過樣式轉換的方法,使用他們選擇的圖像來重新設定GUI的樣式。樣式轉移是指從參考圖像中提取樣式并将其應用于輸入圖像,是一項計算機視覺任務。
與傳統的圖像轉換(如模糊、銳化和顔色轉換)相比,該技術使用了了可以生成更豐富、更美麗且更多樣化結果的結構。研究人員向50位評估者展示了使用ImagineNet和其他樣式轉換技術重新設計過的幾種GUI,而所有人都偏好ImagineNet設計的樣式。
與以前在内容中添加處理步驟以保留細節的做法不同,ImageNet從樣式中複制了更多資訊。該方法使終端使用者可以使用他們選擇的藝術品來重新設計app界面的樣式,進而有效地使著名藝術家的技能變得觸手可及。具體來說,ImagineNet可用于重新設計:
- App的圖形資産
- 包含使用者提供内容的app
- 包含動态生成GUI的app
這個方法是未來技術發展的起點。即便是與當今最前沿的技術相比,我們也可以期待在未來看到更精美的app設計。
原文:
https://arxiv.org/abs/2001.04932v1基于深度3D網絡的按需實體紋理合成
在本文中,研究人員介紹了實體紋理合成的最新技術,然後介紹了使用卷積神經網絡(CNN)進行2D紋理合成的一些成功應用。本文介紹的方法是采用CNN生成器按需合成實體紋理的首個方法。
按需生成實體紋理所需的部分對于穩定的紋理合成至關重要,因為對于大多數應用領域而言,以有用的分辨率存儲整個實體紋理的價格是非常昂貴的。
該方法建立在先前基于示例合成2D紋理的CNN方法的基礎上,提供了僅生成實體紋理所需部分的功能。研究人員還提到了相關的使用2D視圖生成3D對象的CNN方法。
該方法可以得到一個簡單輕便的網絡,可以在生成體積的橫截面沿着一到三個方向重制示例的視覺特征。
紋理合成可以用于填充圖像中的空隙(例如修複),擴充小圖檔和生成巨大且不重複的背景圖像。
本文提出的方法是有關的正常按需技術的必要改進。它僅生成必要的實體元件,是以有助于加速紋理化表面并節省記憶體。它很好地解決了基于更新檔的2D和實體紋理方法遺留的問題。
該方法證明了合成逼真紋理的能力,也是向實作3D計算機圖形、圖像編輯、電影後期制作等領域的穩健應用邁進的重要一步。
https://arxiv.org/abs/2001.04528v1GoogleResearch:回顧2019,展望2020和更遠的未來
GoogleResearch專注于解決對人們的日常生活有極大幫助的問題。他們在最近釋出的一篇文章中公布了2019年所做的所有研究工作。
他們在各種基礎研究領域取得了進展、開源了各種代碼并與各種團隊繼續合作來建構對終端使用者更有用的工具和服務。
例如,在發展開發人員和AI研究社群方面,他們推出了TensorFlow 2.0,使ML系統和應用變得更加容易。他們還增加了對移動GPU推斷的支援,推出了Teachable Machine 2.0(無需編碼即可訓練ML模型的工具)等。
在資料集領域,他們啟動了多個資料集,來幫助ML社群探索不同的研究領域并負責任地共享開放資料。
大緻來講,你會在本文中找到一個令人興奮的摘要(你肯定不想錯過),其中列出了2019年完成的研究的全部清單,涉及包括AI倫理學、AI 造福社會、AI挑戰、輔助技術、量子計算、通用算法和理論、AutoML、自然語言了解和機器人技術等在内的很多領域。
對于Google Research以及更廣泛的研究社群而言,這是令人振奮的一年。就像Google Research一樣,整個機器學習社群應該為我們在2019年的成就和2020年面臨的挑戰而感到興奮。
https://ai.googleblog.com/2020/01/google-research-looking-back-at-2019.html輕量級光流卷積神經網絡
FlowNet和FlowNet2是實作光流估計的一些最新的CNN方法。但是要實作準确的流量估算,FlowNet2需要超過1.6億個參數,并且運作速度很慢。
為了應對這一挑戰,基于FlowNet2,研究人員現在開發了一種輕量且有效的卷積網絡版本,他們将其稱為LiteFlowNet2。新方法通過采用資料保真和基于變分的正則化,解決了經典的光流估計問題。
相較于FlowNet2,新方法在Sintel和KITTI基準測試上都表現更好,模型尺寸小了25.3倍,運作速度快了3.1倍。LiteFlowNet2也在正常方法的基礎上,起到了類似于變型方法中資料保真和正則化的作用。
任何機器學習模型的目标都是在使用最少資源的同時獲得準确的結果。
與傳統技術相比,LiteFlowNet2具有輕量,準确和快速的流量計算功能,是以可以部署在諸如視訊處理,視覺裡程計,運動分割,動作識别,運動估計,SLAM,3D重建等應用中。
網絡協定與訓練模型:
https://github.com/twhui/LiteFlowNet2 https://arxiv.org/abs/1903.07414v2如果機器人擁有計算機視覺魔法
計算機視覺處于快車道,而機器人技術處于慢車道。那麼,機器人專家如何才能進入他們從事計算機視覺同僚的快車道?
計算機視覺和機器人技術研究社群都始于相似的起點,但如今在會議和期刊,研究方法和研究速度方面存在很大的分歧。計算機視覺是基于評估而不是實驗的,在過去的一年中研究人員漸漸意識到了對真實機器人進行評估的重要性,但與此同時也涉及許多挑戰。
在這項工作中,研究人員提出了許多大膽的斷言,他們認為應該在研究界内進行辯論,以提高我們機器人技術的集體創新速度。總結如下:
- 标準資料集+競争(評估名額+競争者+競争)+快速傳播→快速進步
- 沒有競争的資料集對進度的影響收效甚微
- 為推動進步,研究人員應将他們的思維方式從實驗轉變為評估
- 仿真是我們重複評估機器人性能的唯一方法
- 研究人員可以使用新的 和新的名額來推動研究社群的發展
為了增加真實機器人對視覺研究社群的通路能力,他們提出并開發了BenchBot系統。BenchBot是一個線上門戶,它使世界各地的研究人員都可以在真實、公平和平等的環境中,遠端對各種類型的真實機器人進行機器學習和計算機視覺系統測試。
通過使研究人員通路原本可能無法通路的真實機器人,BenchBot的目标是使機器人民主化。它大大降低了研究需求門檻,無需擁有機器人、操作空間、操作人員或者精通ROS。
該代碼已經開源,世界各地的其他研究實驗室都可以複制BenchBot的設定,甚至可以建立更多線上門戶,容納更多研究人員在真實的機器人硬體上遠端測試其算法。BenchBot的最終目标是允許在真實機器人上測試各種算法,成為機器人研究的标準化測試。
https://arxiv.org/abs/2001.02366v1其他爆款論文
首屆語音識别系統錯誤糾正公開挑戰賽開幕,緻力于提高自動語音識别系統的性能:
https://arxiv.org/abs/2001.03041v1評估資料集移位下的預測不确定性。本文提出了關于現有分類問題最新方法的大規模基準,并評估了資料集偏移對準确性和校準的影響:
https://arxiv.org/abs/1906.02530理論進,理論出:社會理論如何解決機器學習無法解決的問題。本文旨在指導計算機和社會科學家解決将機器學習工具應用于社會資料所涉及的問題:
https://arxiv.org/abs/2001.03203v2代理可以類比學習嗎?與基于最新模型算法的可推斷模型相比,PAC強化學習的計算效率更高:
https://arxiv.org/abs/1912.10329v1第一次嘗試使用預訓練的深度學習模型來增強針對遷移學習的後門攻擊:
https://arxiv.org/abs/2001.03274v1AI大事件
隻有14.6%的公司在生産中部署了AI功能:
https://www.forbes.com/sites/gilpress/2020/01/13/ai-stats-news-only-146-of-firms-have-deployed-ai-capabilities-in-production/#7894fb7d2650人工智能和人類軟技能将成為2020年代的上司重點:
https://www.zdnet.com/article/ai-and-human-soft-skills-will-drive-leadership-priorities-in-2020s-linkedin-survey-finds/披薩巨頭達美樂正在利用英偉達GPU來加速和改善其AI驅動的應用程式:
https://blogs.nvidia.com/blog/2020/01/13/dominos-pizza-ai/