天天看點

伯克利創造出“可看到未來”的機器人,能幫助無人駕駛預測事故

對于嬰幼兒來說,玩玩具不僅僅是樂趣和遊戲,這對他們學習和了解世界的運作方式是很重要的。受此啟發,加州大學伯克利分校的研究人員開發了一個機器人,像嬰兒一樣,它從零開始學習了解世界,用物體進行實驗,找出如何以最好的路徑移動物體。這樣,機器人能夠“看到”未來要發生的事情。

如下面的視訊介紹所示,這個機器人名為Vestri,它像嬰兒一樣通過擺玩物體來想象如何完成任務。

伯克利創造出“可看到未來”的機器人,能幫助無人駕駛預測事故

UC Berkeley的研究人員開發了一種機器人學習技術,使機器人能夠想象自己的行為的未來,這樣它們就能夠知道如何操作以前從未遇到過的物體。未來,這項技術可以幫助自動駕駛汽車預測未來的路況,或者實作更智能的家庭機器人助理,但這個最初的原型專注于從完全自主的遊戲中學習簡單的動手技能。

這一技術被稱為“視覺預見”(visual foresight),使用這種技術,機器人能夠預測在執行某個動作的一個步驟時,它們的錄影機将會看到什麼。這些機器人的想象力在現在還比較簡單——隻能預測幾秒鐘的未來——但是它們足夠讓機器人弄清楚如何在桌子上移動物體,而不會碰到障礙物。重要的是,機器人可以在沒有人類的幫助的情況下學會執行這些任務,也不需要有關實體、環境或物體的先有知識。這是因為視覺想象力是在無監督的探索中從頭開始學習的,隻有機器人在桌子上擺玩物體。在這個遊戲階段之後,機器人建構了一個有關世界的預測模型,并且可以使用這個模型來操縱它以前從未見過的新物體。

“就像我們人類可以想象我們的動作将如何移動環境中的物體一樣,這種方法可以讓機器人想象不同的動作對周圍的世界将産生怎樣的影響,”伯克利大學電子工程和計算機科學系助理教授Sergey Levine說,他所在的實驗室開發了這項技術。“這可以在複雜的現實世界中實作對高度靈活的技能進行智能規劃。”

研究團隊NIPS 2017大會上進行了視覺預見技術的demo。

伯克利創造出“可看到未來”的機器人,能幫助無人駕駛預測事故

這個系統的核心是基于卷積循環視訊預測(convolutional recurrent video prediction)或dynamic neural advection (DNA)的深度學習技術。基于DNA的模型根據機器人的動作預測圖像中的像素如何從一個幀移動到下一幀。最近對這類模型的改進,以及大大提高的規劃能力,使得基于視訊預測的機器人控制能夠執行越來越複雜的任務,例如在障礙物周圍移動玩具并重新定位多個物體。

“在過去,機器人已經能夠在人類主管協助并提供回報的條件下學會技能,這項新工作令人興奮的地方在于,機器人可以完全自主地學習一系列的視覺對象操作技能。”Levine實驗室的一名博士學生、最初的DNA模型的發明人Chelsea Finn說。

利用這項新技術,機器人将物體推到桌子上,然後利用所學習的預測模型來選擇将物體移動到所需位置的動作。機器人利用從原始攝像頭觀察的學習模型來自學如何避開障礙物,并在障礙物周圍推動物體。

“人類的一生中,通過數百萬次與各種各樣的物體的互動,在沒有任何教師的情況下學習操控物體的技能。我們已經證明,建立一個利用大量的自主收集的資料來學習廣泛适用的操作技能的機器人系統也是可行的,特别是推動物體這一技能。”Frederik Ebert說,他是Levine實驗室的一名研究所學生,這個項目的研究者之一。

由于通過視訊預測的控制僅依賴于可以由機器人自主收集的觀察,例如通過錄影機收集的圖像,是以這一方法是通用的,具有廣泛的适用性。與傳統的計算機視覺方法不同,傳統的計算機視覺方法需要人類為數千甚至數百萬圖像進行手工标記,建構視訊預測模型隻需要未标注的視訊,是以可以完全由機器人自主采集。事實上,視訊預測模型也已經被應用于從人類活動到駕駛的各種資料集,并且取得了令人信服的結果。

Levine說:“嬰兒可以通過玩玩具、擺動玩具、抓握等等來了解世界。我們的目标是讓機器人做同樣的事情:通過自主的互動來了解世界是如何運作的。”他說:“這個機器人的能力雖然仍然有限,但它的技能完全是自主學習的,這讓它可以通過建構之前觀察到的互動模式來預測複雜的實體互動。”

UC Berkeley的科學家們将繼續通過視訊預測研究機器人控制,專注于進一步改進視訊預測和基于預測的控制,以及開發更複雜的方法,使機器人可以收集更集中的視訊資料,用于複雜的任務,例如拾取和放置物體,操縱布或繩索等柔軟和可變形的物體,以及組裝。

原文釋出時間為:2017-12-6

本文作者:馬文

本文來自雲栖社群合作夥伴新智元,了解相關資訊可以關注“AI_era”微信公衆号