<b>2.3 類人嬰兒機器人</b>
發展型機器人技術的研究誕生于21世紀初,它引發了各種類人嬰兒機器人的研究和平台制造。伴随着更新型、更标準的類人成人機器人平台的研發,嬰兒機器人也已經在一些發展型機器人研究中使用。
接下來的幾節将簡要描述這種機器人的主要特點。表2-3展示的是這些特征的簡要對比。表中主要列舉了發展型機器人研究中最常用的12種機器人平台,并詳細介紹其設計或制造的細節、自由度的總數、執行器的型号和位置、皮膚傳感器、外觀和尺寸特征以及主要的參考文獻和傳遞年份。通過對該表的簡要分析,大多數的機器人是類人全身機器人,上部軀幹和腿部都具有執行器,并且大多數執行器是電動的。但是有一個非常特别的例外,那就是cog,它是麻省理工學院研發的機器人,是最早使用在認知和發展型機器人研究中的機器人之一。最新的嬰兒機器人是affetto,目前它隻有上半身的執行器,但該機器人未來将拓展成全身型類人機器人。至于皮膚傳感器,隻有少數的機器人(icub、cb2和robovie)才擁有,這些傳感器分布在整個身體表面或覆寫了大部分體表。大多數的機器人有着類人的機械結構,35
除了典型的女嬰人形機器人repliee r1和全身覆寫矽型晶片的cb2。這并沒有讓人感到過于驚訝:大多數(12個裡面有10個)的發展型機器人平台有着類似嬰兒的外表或身材大小,其餘的則是擁有标準成人的人形尺寸。大多數機器人是非商用的,僅僅在學術或工業研究中有特定的用途,并且這些機器人的副本數量通常少于10個,或者隻有一台,就像repliee r1和cb2。當然也有例外,如法國奧爾德巴倫(aldebaran)機器人研究公司的nao機器人,截止到2013年已經售出了2500台。icub機器人也是一個例外,盡管該機器人也沒有開始商用,但是目前(截止到2013年)全世界範圍的實驗室裡已經有28台。這是因為歐盟第六研發架構計劃(fp6)和歐盟第七研發架構計劃(fp7)為認知系統和機器人學方面的研究投入了大筆資金,在這一背景下,意大利理工學院首先采用開源的方法來搭建robotcub-icub。
表2-3中選取的12種類人機器人是目前發展型機器人中最主要的研究平台。現在有越來越多的嬰兒和成人類人機器人相繼推出,其中部分被用于認知方面的研究。例如ieee綜覽(ieee spectrum,guizzo 2010)發表了13種嬰兒機器人在其外表和行為複雜度兩個方面的對比表。其分類含有表2-3中列舉的四種機器人(icub,nao,cb2,repliee r1),還有9種其他的嬰兒機器人: nexi(美國麻省理工學院),simon(美國佐治亞理工學院),m3 neony(日本大阪大學jst erato asada項目),diego-san(美國加州大學聖地亞哥分校和日本kokoro公司),zeno(美國漢森機器人技術公司),kojiro(日本東京大學),yotaro(日本築波大學),robotinho(德國波昂大學)和realcare baby(美國realityworks公司)。當然,其中有一些是類似玩具的娛樂産品,如realcare baby和yotaro。〖zp(〗
表2-3 發展型機器人研究中使用的類人機器人制造商自由度
個數執行器
類型執行器
位置是否擁有柔軟
敏感皮膚是否擁有
人形外觀是否兒童
尺寸身高/
體重時間(模型)主要參考文獻icubiit(意大利)53電動馬達全身是否是105cm
22kg2008metta 等人2008
parmigglani等人2012naoaldebaran(法國)25電動馬達全身否否是58cm
4.8kg2005(al-01)
2009(academic)gouaillier等人2008asimohonda(日本)57電動馬達全身否否是130cm
48kg2011
(所有新的asimo)sakagami等人2002
hirose和ogawa 2007qriosony(日本)38電動馬達全身否否是58cm
7.3kg2003(sdr-4x-ii)kuroki等人2003cbsarcos(美國)50液壓馬達全身否否否157cm
92kg2006cheng等人2007bcb2jst erato(日本)56氣動馬達全身是是是130cm
33kg2007minato等人2007pneuborn-13
(pneuborn-7ii)jst erato(日本)21氣動馬達全身否否是75cm
3.9kg2009narioka等人2009repliee
r1
(geminoid)atr,osaka
kokoro(日本)9
(50)電動馬達
(氣動馬達)頭部
(上半身)否
(是)是
(否)
(150cm)2004
(2007)minato等人2009
(sakamoto等人2007)infanoidnict(日本)29電動馬達上半身否否是2001kozima 2002affettoosaka(日本)31氣動和
電動馬達上半身否是是43cm
3kg2011ishihara等人2009kasparhertfordshire(英國)17電動馬達上半身否是是50cm
15kg2008dautenhahn等人2009cogmit(美國)21電動馬達上半身否否否1999brooks等人1999〖zp)〗其他的一些成人形類人機器人也在一定程度上用于認知機器人學中的一般性研究,包括:pr2(美國willow garage公司),hrp-2、hrp-3和hrp-4類人機器人系列(日本進階工業科學技術研究所和日本川田工業),lola(德國慕尼黑理工大學),hubo(南韓科學技術進階研究院),barthoc(德國比勒費爾德大學),robovie(日本國際電氣通信基礎技術研究所),toyota partner robot(日本豐田公司)和romeo(法國奧爾德巴倫機器人研究公司)。這其中的許多平台也被開發成用于雙足行走機器人(比如hrp機器人)、娛樂系統(比如豐田公司的音樂演奏機器人)以及機器人手臂與服務機器人的一般性研究平台。
<b>2.3.1 </b>
icub機器人
icub類人嬰兒機器人(metta等人2008;metta等人2010;parmiggiani等人2012;www.icub.org)36
~
37是發展型機器人研究中使用最廣泛的機器人平台之一。該機器人是以明确地支援跨實驗室協作為目的,通過開源許可模式來建構的。它的這種開放模式允許各個實驗室在icub上從事結果驗證與複制、和現有軟體的內建以及具有複雜認知能力的認知模型模組化等工作,這促使其成為發展型機器人研究的一個關鍵基準平台。
icub機器人是由意大利理工學院主導,由多個歐洲實驗室通過歐盟基金贊助的研究機構robotcub.org協同努力的成果(sandini等人2004;metta、vernon和sandini 2005)。icub機器人早先的兩個版本是由熱那亞大學(the university of genoa)和意大利理工學院lira實驗室的研究人員研發的。babybot的設計始于1986年,它是一個上半身的類人機器人,在其最終的配置中含有頭、臂、軀幹和手在内的18個自由度(metta等人2000)。babybot機器人的頭和手是在lira實驗實設計的,而它的臂是通過商用的puma機械臂來實作的。在babybot上的實驗經驗引導了james的後續研究,于是誕生了一個擁有23個自由度的更進階的上半身類人機器人(jamone等人2006)。對babybot和james的機械和電子方面的測試對之後的icub機器人設計産生了很大的影響,該歐盟項目robotcub.org開始于1996年。
icub機器人身高105cm,體重大約22kg,身體是以三歲半的兒童為模型設計的(圖2-4)。該機器人共有53個自由度,比相同大小的38其他類人機器人的自由度多得多。因為設計該機器人的主要目的是研究其操作和移動能力,是以它擁有自由度很高的手和上半身軀幹。其53個自由度主要包含:頭部有6個自由度,雙臂有14個自由度,雙手有18個自由度,軀幹有3個自由度,雙腿有12個自由度。
特别的,頭部的6個自由度包括:頸部的3個自由度,可提供全部的頭部動作;眼部的3個自由度,可以豎直/水準追蹤和轉動。每一隻手有9個自由度,其中有3根分别獨立控制的手指,第4根和第5根手指由1個自由度控制。機械手的執行器由肌腱驅動,大部分馬達位于前臂中。機械手的手腕整體寬度為34mm,手指長為60mm、直徑為25mm(圖2-4)。它的每條腿有6個自由度,并且可以直立行走或爬行。每條腿的6個自由度包括:臀部的3個自由度,膝部的1個自由度,腳踝處的2個自由度(前屈/後伸和外展/内收)。
圖2-4 icub機器人:頭部(左上)、手掌(左下)和人-機器人互動設定(右)。圖檔由giorgio metta、意大利理工大學和普利茅斯大學提供
icub機器人中的傳感器套件包括兩個數位錄影機(640×480px,30fps高分辨率)和麥克風。慣性傳感器有三個陀螺儀、三個線性加速度計和一個指南針。它的臀部和肩部也有四個定制的力/力矩傳感器。手掌和手指中的觸覺傳感器是基于電容式感應的。其分布式的感應皮膚也采用電容感應技術,并且通常位于手臂、手指、手掌和腿(cannata等人2008)。每一處關節都含有一個位置傳感器,在大多數情況下使用絕對位置編碼器。
在icub機器人的頭部是奔騰pc104主機闆,主要對內建所有傳感器和電機狀态資訊的各種資料流進行同步處理和格式化。但是,其複雜和耗時的計算會在外部的計算機叢集中完成。與機器人的通信是通過千兆以太網(gbit ehternet)連接配接的,并且通過臍帶式軟線提供網絡連接配接和能源。為适應icub有限的空間需求,一套基于dsp的控制卡通過can總線互連來實時負責局部的低級控制回路。共有10條can總線連接配接着機器人的各個部分。
yarp(yet another robot
platform;metta、fitzpatrick和natale 2006)是用于icub機器人的軟體中間件架構。這是一款通用的開源軟體應用工具,正如機器人是實時、計算密集和多樣化發展的硬體一樣。yarp由一組支援子產品化的軟體庫構成,子產品化的實作主要基于對兩個方面進行抽象化,即算法子產品化和硬體接口子產品化。第一個抽象化是根據通過“端口”的通信來定義的。它可以使用tcp-ip協定在網絡中傳遞資訊,并且可以在運作時連接配接和斷開。39特别是在icub機器人中,機器人被分為5個獨立的端口(頭、右臂/手、左臂/手、右腿、左腿)。第二個抽象化是為了處理硬體“裝置”。yarp使用定義類的接口來封裝本地代碼api(應用程式程式設計接口),api通常由硬體制造商提供,或者當硬體生産/更新時可以被建立和修改。
icub機器人的研發開始于2006年,并于2008年的秋天傳遞了第一個全身型icub原型,在2013年将28個icub機器人送到世界各地的實驗室。後續的icub機器人研發包括一個更新到2.0的頭以及分布式的高效電池。
icub已經被廣泛應用于發展型機器人學的研究中,盡管它的最初設計目的是通過嬰兒機器人來進行認知發展模組化。本書讨論了很多icub機器人的實驗例子,主要有運動學習(第4章)、社交合作(第6章)、語言學習(第7章)、抽象符号及數字(第8章)。還有一些其他發展相關的icub機器人的研究在本書中沒有涉及,這些不涉及的研究包括:抓取實驗(sauser等人2012),操縱物體來發現物體運動功能(macura等人2009;caligiore等人2013;yürüten等人2012),畫圖(mohan等人2011),通過振蕩神經網絡模型進行對象識别(browatzki等人2012;borisyuk等人2009),被動運動模式的工具使用(mohan等人2009;gori等人2012),基于視覺相關性的涉身識别(saegusa、metta和sandini 2012)。另外,可以參考metta等人(2010)和nosengo(2009)來獲得關于機器人認知發展模組化的綜述内容。
圖2-5 aldebaran機器人公司的nao機器人。圖檔由aldebaran機器人公司授權,由ed
aldcock拍攝2.3.2 nao機器人
nao類人機器人(gouaillier等人2008;aldebaran-robotics.com)是由法國aldebaran(奧爾德巴倫)機器人研究公司生産的,是近些年來在發展型機器人研究中使用越來越多的另一種類人機器人平台。nao機器人的廣泛使用不僅僅是因為它在研究領域的合理價格(2014年大約6000歐元),還因為它自2008年以來被選為機器人足球賽(robotcup.org)的“标準平台”,是以nao機器人在世界範圍内的很多大學實驗室裡比較常見。第一款nao機器人(al-01)于2005年生産,自2009年以來很多教育版本均可用于學術研究。截止到2012年,超過2500個nao機器人在全球60多個國家的約450家研究和教育機構中(通過個人聯系aldebaran公司獲得此資訊)被長期使用。
nao是一款小型的類人機器人,身高58cm,重達4.8kg(見圖2-5)。其教育版本是發展型機器人研究中最常用的,共有25個自由度。這些自由度包括:頭部有2個自由度,臂部有10個自由度(每個手臂有5個),骨盆有1個自由度,腿部有10個自由度(每條腿有5個自由度),手部有2個自由度(每隻手1個自由度)。目前在機器人足球标準賽使用的版本中,機器人隻有23個自由度,因為其手臂不需要執行器。nao使用兩種類型的馬達,該馬達的專利歸法國aldebaran機器人研究公司所有,每一種馬達能夠結合兩個旋轉的關節一起行成一個萬向關節子產品。
nao機器人的傳感器套件包括4個麥克風和2個cmos數字錄影機(960px,30fps有線傳輸;或640×480px,2.5fps無線傳輸)。錄影機并不位于眼睛的位置(眼睛其實是紅外發射器/接收器),而是位于額頭和下巴的位置。這種奇怪的錄影機位置可以在一定程度上由nao機器人的原型來解釋,因為原型機主要用于機器人足球比賽,額頭的錄影機有利于看到整個比賽場地,下巴的錄影機有利于看到前方需要踢到的足球。其他的傳感器包括:32個感應運動狀态的霍爾效應傳感器,2個單軸陀螺測試儀,1個三軸加速度計,2個足部防撞器,2個通道聲呐,2個紅外傳感器,40
418個力敏電阻(frs)傳感器(每隻腳上有4個),以及3個頭部的觸覺傳感器。
nao機器人有2個揚聲器,位于機器人的耳朵裡;4個麥克風,位于頭部四周(前、後、左、右)。它也使用各種led燈來促進人與機器人的互動,例如,用于頭部觸覺傳感器的12個led燈(16級藍色調),還有其他用于眼睛、耳朵、軀幹和腳部的led燈。
nao機器人還有其他硬體規範,包括wi-fi(ieee 802.11
b/g)網絡連接配接和有線以太網連接配接。2012年釋出的主機闆擁有atom z530 1.6ghz的cpu和2gb的閃存。
nao機器人中的cpu使用嵌入式linux作業系統(32bit
x86 elf),并且aldebaran choregraphe和aldebaran sdk是其專屬開發軟體。該機器人可以通過一個使用者友好型動作編輯器(choregraphe)進行控制,這個編輯器是通過編譯c++子產品或通過腳本與 api進行互動。nao機器人還可以使用其他程式設計語言,主要包括c++、urbi腳本、python和.net。
nao機器人的軟體模拟器也存在于很多機器人仿真軟體中,例如,“cogmation nao sim”“webots”和“microsoft robotics studio”(詳見2.5節)。還有很多專門的嵌入式軟體功能子產品,如通過機器人的揚聲器和麥克風進行語音識别和合成,通過視覺系統進行人臉和形狀檢測,通過聲呐進行障礙物檢測,通過led燈來展示視覺效果。
目前nao機器人已經用于各種發展型機器人的實驗,包括關于運動的研究,li、lowe、duran和ziemke等人(li等人2011;li、lowe和ziemke 2013)用中央模式生成器對icub機器人的爬行模型進行了拓展,進而與改進前的icub機器人和nao機器人的步态行為進行對比(詳見5.5節)。這部分工作是為了進一步對早期雙足行走行為進行模組化(lee、lowe和ziemke 2011)。yucel 等人(2009)開發了一種新型的由發展理論啟發的聯合注意力關注機制,該機制可以估計頭部的位置和注視方向,并可以使用自底而上的視覺顯著性。
由于nao機器人較低的價格和較好的商業安全性标準,是以nao機器人平台也被廣泛用于人-機器人互動的研究中,尤其是對嬰兒的研究。例如:sarabia、ros和demiris(2011)使用nao機器人在人-嬰兒互動中模仿學習跳舞的案例(詳見第7章);andry、blanchard和gaussier(2011)關于通過非語言交流來支援機器人學習的研究;pierris和dahl(2010)關于姿勢識别的研究;shamsuddin等人(2012)關于自閉症兒童互動的研究;以及baxter、wood、morse和belpaeme(baxter等人2011;belpaeme等人2012)關于nao作為住院兒童的長期夥伴的研究。對nao機器人更進一步的研究領域是用腦機接口技術來控制類人機器人(wei、jaramillo和yunyi 2012)。
42
<b>2.3.3 </b>
asimo和qrio機器人
asimo(本田)和qrio(索尼)都是類人機器人,asimo機器人是由汽車工業的全球性企業本田公司生産的,qrio機器人是由電子娛樂業巨頭索尼生産的。它們目前主要用于内部研發中,但是有一些基于asimo機器人和qrio機器人平台的研究是專門面向發展型機器人研究的。
asimo(advanced step in
innovative mobility,領先創新移動機器人)是世界上最著名的類人機器人之一(world.honda.com/asimo;sakagami等人2002;hirose和ogawa 2007)。asimo機器人的研究開始于1986年,其原型系統是本田公司的第一款雙足型機器人e0,以及之後在1987~1993年的足式改進型機器人(e1到e6系列)。通過1993~1997年對大型類人全身機器人(p1到p3系列)的研究,1997年生産的p3系列機器人是第一個完全獨立的雙足類人機器人(高1.6m,重130kg)。這直接導緻2000年11月第一款asimo機器人的誕生,它是身材略小的類人機器人,高1.2m,并且可以在人類生活空間中進行工作(sakagami等人2002)。asimo機器人的一個最主要特征是,它可以進行高效的雙足移動行走。這是基于本田公司的i-walk技術,該技術采用了預期動作控制。i-walk基于的是早期原型的行走控制技術,但是被拓展成可以産生更平滑、自然的動作。另外,自2002年以來,asimo機器人已經添加了可以對環境(物體、行人)、聲音、人臉、動作和姿勢等進行識别的軟體子產品。
“new asimo”機器人(見圖2-6a)研發于2005年,并且已經在認知機器人研究的各個層面上使用。它高1.3m,重54kg。新型的asimo機器人共有34個自由度:頭和頸部有3個自由度,手臂有14個自由度(每隻手臂有7個自由度:肩部有3個自由度、肘部有1個自由度、腕部有3個自由度),手部有4個自由度(每隻手有2根手指),臀部有1個自由度,腿部有12個自由度(每條腿有6個自由度:胯關節處有3個自由度、膝關節處有1個自由度、踝關節處有2個自由度)。這款類人機器人已經用于一些認知機器人的研究,包括在一些場景中與人類同步行動,例如,機器人跟人類手牽手散步。asimo可以以2.7km/h的速度行走,奔跑時可達6km/h。
圖2-6 圖檔由本田汽車公司(歐洲)和索尼公司授權提供
2011年,該機器人釋出了更新版本,即“all
new asimo”,其自由度有所增加(57個自由度),重量有所減少(47kg),擁有更好的運動性能,奔跑速度可達9km/h,添加了更多能夠操作物體的軟體功能。
qrio是由大型企業開發的第二種用于内部研發的類人機器人平台。索尼公司在2002年研發出qrio機器人(模型名稱為srd-4x,也被稱為索尼夢機器人;fujita等人2003;kuroki等人2003)。其配置以sdr-4x ii型号最為人熟知(kuroki等人2003),機器人高50cm,重約7kg(見圖2-6b)。該機器人共有38個自由度:頭部有4個自由度,軀幹有2個自由度,臂部有10個自由度(每隻手有5個自由度),手部有10個自由度(每根手指有1個自由度),腿部有12個自由度(每條腿有6個自由度)。
機器人的傳感器包括兩個小型的ccd彩色攝像頭(110000px)和多個麥克風。qrio的軀幹中含有一個三軸加速度計和陀螺儀,每隻腳上各有一個兩軸加速度計和力傳感器,頭、肩、腳部都有觸碰/壓力傳感器,頭和手部還有紅外距離傳感器。該機器人頭部使用7個麥克風來檢測聲音的方向并抑制電機噪聲。
qrio機器人擁有一個專門的內建了多種運動能力的 “實時綜合自适應運動控制系統”(real-time integrated adaptive motion control system)。其包含了負責全身穩定性、43
44地形自适應控制、內建式跌倒與恢複控制以及推舉動作控制的子產品。它在平整地面上的最快步行速度可達20m/min,在不平整的地面上可達6m/min。然而,該機器人主要面向索尼公司所特别關注的娛樂領域,它已經可以進行舞蹈優化和音樂表演。在2004年的一場兒童音樂會中,一個qrio機器人指揮東京愛樂交響樂團進行了貝多芬第五交響曲的彩排表演(geppert 2004)。與aibo機器人(詳見2.4節)相比,qrio從未達到商業化生産的階段,并且在2006年就停止了研發。
目前在asimo機器人上進行的發展型機器人研究的應用包括:物體識别(kirstein、wersing和krner 2008);分類學習和概念語言,如左、右、上、下、大、小(goerick等人2009);運動技能的模仿學習(mühlig等人2009);以及注視檢測與人-機器人輔導互動的回報(vollmer等人2010)。大多數基于本田機器人的發展型研究工作是受到神經科學啟發的發展型架構,該架構被稱為alis(autonomous learning and interaction system,自主學習和互動系統;goerick等人2007,2009)。該架構是一種建立在asimo機器人上的層級式、增量式的內建系統,其融合的功能包括:視覺、聽覺和觸覺顯著性探測功能;對象原型的視覺識别功能;物體分類與命名功能;全身動作和自身碰撞避免功能。alis架構允許通過人-機器人互動實驗來進行互動式學習,并且遵循認知能力增長式擷取和內建的發展型政策。該架構還能從類人機器人拓展延伸到與汽車駕駛相關的視覺場景中,用來輔助駕駛員進行移動物體的探索與檢測(dittes等人2009;michalke、fritsch和goerick 2010)。
qrio機器人也被用于一些認知實驗中,這些實驗是關于模仿和鏡像神經系統(the mirror neuron system;ito和tani 2004)的,通過多尺度回報式神經網絡來實作組成式運動表征方法(yamashita和tani 2008)、交流與構式文法(steels 2012)以及幼兒教育與娛樂支援(tanaka、cicourel和movellan 2007)。
<b>2.3.4 </b>
cb機器人
圖2-7 由atr(日本)和sarcos公司開發的cb機器人。圖檔由gordon
cheng授權提供cb(computational brain,計算之腦)機器人是一款成人大小的類人機器人,它作為“jst 計算之腦”項目的一部分,由sarcos在日本京都的atr計算神經科學實驗室研發(cheng等人2007b)。該機器人高1.57m,重92kg(見圖2-7)。該機器人共有50個自由度:頭部有7個自由度(脖子有3個自由度,兩隻眼睛各有1個自由度),軀幹有3個自由度,臂部有14個自由度(每個胳膊有7個自由度),手部有12個自由度(每隻手有6個自由度),腿部有14個自由度(每條腿有7個自由度)。手部和頭部使用被動型柔性馬達,其餘部分使用主動型柔性執行器。這些執行器是以人類身體的實體表現為模型設計的,如快速眼睛掃視動作、45
46指向、抓取和握捏動作。該機器人的傳感器套件包括:每隻眼睛中有兩個錄影機,一個提供周圍視覺的廣角錄影機和一個窄視的中央視覺錄影機。cb機器人也有用于聲音感覺的麥克風。在頭部有一些慣性傳感器(三軸旋轉陀螺儀和三軸平移加速度計),主要用于控制頭部朝向和注視的穩定性,在臀部有一個傳感器用于整個身體的平衡和方向感覺。本體感受資訊由各種位置、速度、力矩傳感器來提供,這些傳感器能感覺在手臂、腿、軀幹和脖子處的主動式柔性資訊,并且腳部的壓力傳感器可用于實作行走與平衡的控制。
鑒于cb機器人的設計強調了人類行為和社會神經科學,是以該機器人被用于探索各種運動和社會學習任務,進而可以更好地了解人-機器人的互動行為(chaminade和cheng 2009)。例如,在運動控制方面,機器人與中樞模式發生器被用于設計生物學啟發的行走算法(morimoto等人2006)。在社交技能方面,一種基于神經科學模型的分布式視覺注意模型被開發出來。該模型基于大腦的多資訊流處理機制(顔色、強度、方向、運動與不比對的視覺特征),這些資訊流被整合成一個關注焦點選擇的全局顯著性映射圖。一旦cb機器人實作選擇性注意,這個模型還能提供相關的回報連接配接(ude等人2005)。cb機器人也用于腦機接口中,使猴子可以控制機器人的動作(kawato 2008;cheng等人2007a)。
<b>2.3.5 </b>
cb2和pneuborn-13機器人
jst erato(日大學學技術振興事業團)的協同智能asada項目(asada等人2009)已經專門為實作發展型機器人研究提供了兩種嬰兒機器人平台的設計方案:cb2和pneuborn-13。該項目也為人類胎兒與新生兒研發了一個仿真模型(詳見關于機器人仿真的2.5.3節)。
cb2機器人(child-robot with
biomimetic body,擁有仿生身體的兒童型機器人)是一種兒童身材大小的類人機器人,它擁有仿生的身體和覆寫有分布式觸覺傳感器的軟矽膠皮膚。這種機器人通過氣動執行器來實作靈活的關節功能(minato等人2007)。該機器人高1.3m,重33kg(見圖2-8a)。它總共有56個自由度,除了眼球和眼睑的快速動作需要使用電動馬達外,其餘的執行器均是氣動型。氣動執行器可以通過高能壓縮空氣産生的機械能來實作靈活的關節動作,也可以通過釋放空氣進行被動的運動。這樣可以確定互動過程中人類參與者的安全。該機器人也有一個人工聲道,可以産生類似嬰兒的聲音。其傳感器套件包括兩個錄影機(一隻眼睛一個)和兩個麥克風。機器人的軀體中共有197個觸覺傳感器,都是嵌入軟矽膠皮膚下基于pvdf(聚偏氟乙烯)材料的壓力傳感器。由于觸覺傳感器是嵌入皮膚内部的,是以當機器人進行動作的時候也會引起自我肢體觸碰,而且這些動作和傳感器的回報還可以幫助機器人建立内部表征。
pneuborn-13是jst erato asada項目研發的第二款嬰兒機器人平台(narioka等人2009;narioka和hosoda 2008)。該機器人是一個氣動肌肉骨骼型機器人,高0.75m,重3.9kg(見圖2-8b),和13個月大的人類嬰兒具有相同的身高和體重。它總共有21個自由度:脖子有1個自由度,手臂有10個自由度(每個手臂有5個自由度,3個控制肩膀,1個控制肘部,1個控制手腕),腿部有10個自由度(每條腿有5個自由度,臀部有3個自由度,膝蓋和腳踝各有1個)。這款機器人的另一個原型是pneuborn-7ii,類似于人類7個月大的嬰兒,并且具有翻滾和爬行能力。
圖2-8 jst erato asada項目的嬰兒機器人。圖檔由jst
erato asada項目提供pneuborn-13機器人的執行器是受到人類嬰兒由骨骼與肌肉構成的啟發,47 ~48每個執行器都有一個作用和非作用的單關節肌肉,用來控制關節的角度動作和剛度。在pneuborn-13用于早期嬰兒雙足行走的研究時,它的18個氣動肌肉都集中在腳踝、膝蓋和臀部關節中(每條腿有9個)。是以,它的腿可以在臀部位置做彎曲、向内側收、向外側打開和左右旋轉動作,在膝蓋位置可以做彎曲和伸直動作,在腳踝位置可以做彎曲和伸直動作。
上述兩種嬰兒機器人都在人-機器人互動實驗中進行了運動控制和學習的相關測試。由于cb2的設計目标是支援人與機器人之間的長期社會互動,并且也是基于嬰兒發展規則的,是以一系列實驗均關注機器人感覺運動的發展,以及人類在搭建機器人運動學習架構中的作用。有一項研究探索了人類參與者在幫助機器人站立起來這一過程中的作用(ikemoto、minato ishiguro 2009;ikemoto等人2012)。在這項研究中,機器人可以完成三個姿勢:①初始坐姿,②中間彎膝起身,③最後站姿。在從①切換到②時,機器人的手是由人類拉着的,進而使得cb2機器人産生一個彎膝起身的過程。由②切換到③時,機器人的腿會被人類參與者持續拉升而伸直。該實驗分析了機器人在進行姿勢切換時的時間點和運動政策,并表明這些時間點與政策取決于機器人機構,并且也取決于人類參與者是擁有初級還是專家級别的技能。在訓練階段,機器人和人類的一對組合可以展現出更強的動作協調性,這個現象是由在學習過程中機器人與人類之間的逐漸提高的同步性所導緻的。在第二個實驗中,cb2機器人發展出基于視覺、觸覺和本體感覺輸入的跨模态內建的自身表征方法(hikita等人2008)。例如,當機器人與物體碰觸時,其觸覺資訊會影響身體的視覺接受域的建立。此外,當機器人使用工具來觸碰遠距離的物體時,該工具就會被內建到一個擴充的身體圖示中,可以參見iriki的猴子實驗(iriki、tanaka和iwamura 1996)。
pneuborn-7ii和pneuborn-13機器人也用于一些爬行、站立姿勢和行走的研究中。pneuborn-7ii型機器人上的實驗主要專注于翻滾和爬行行為,這些行為也包括在爬行時嘗試在手臂中使用軟性皮膚與觸覺傳感器(narioka、moriyama和hosoda 2011)。pneuborn-13機器人有一個自動的動力供應來源和空氣閥門,并且它可以在數小時的行走測試過程中不發生損壞和過熱(narioka等人2009)。
<b>2.3.6 </b>
repliee和geminoid機器人
repliee和geminoid機器人是hiroshi
ishiguro和他在日本atr實驗室以及大阪大學的同僚共同研發的一系列人形機器人。需要強調的是,repliee r1型機器人有着5歲日本女孩的外表(minato等人2004;如圖2-9所示)。該原型的頭部有9個自由度(眼睛有5個,嘴有1個,49脖子有3個),使用的都是電動執行馬達。該機器人下半身的關節都是被動式的,當人類實驗者移動關節時,這些自由的關節允許機器人做出各種動作。該機器人的臉部覆寫了一個日本女孩的臉部矽膠模型。repliee r1型機器人左胳膊的皮膚下有四個觸覺傳感器,這四個傳感器使用一種變形壓力傳感器來做出與人類皮膚伸展相似的反應。
圖2-9 repliee r1型機器人。圖檔由大阪大學hiroshi
ishiguro授權提供這款機器人的成人女性版本叫作repliee q1,它使用氣動執行器來控制整個成人女性的上半身軀幹(sakamoto等人2007)。随後的geminoid 人形機器人也是以成年人為模闆制作的(nishio、ishiguro和hagita 2007),例如geminoid hi-1型機器人是以hiroshi ishiguro本人為模闆(詳見圖2-1c)。geminoid hi-1型機器人坐在椅子上時(目前機器人還無法站立)有140cm高。它總共有50個自由度,其中有13個臉部自由度用來模仿人類面部動作。
兒童型機器人repliee r1目前已經應用到人形機器人注視行為的研究中。minato 等人(2004)探索了在與兒童型人形機器人按照劇本進行交談時,人們互動過程中的眼球動作。在參與者與機器人進行交流和參與者與一個女演員進行交流這兩個過程中,通過對比眼睛的注視次數與注視目标位置,可以發現:參與者看人形機器人眼睛的次數會比參與者看女演員臉的次數更頻繁。并且,通過對參與者注視點的分析可以發現:50參與者注視機器人眼睛的方式不同于參與者注視人類的方式。另外,repliee和geminoid機器人目前已經廣泛用于探索在人類感覺機器人的恐怖谷(uncanny valley)現象中的社交與認知機制,正如在2.1節中讨論的那些内容。
<b>2.3.7 </b>
infanoid機器人
infanoid機器人是由kozima(2002)開發出來的用于研究人類社交發展的機器人,并且在人與嬰兒的互動研究中,該機器人被作為支援兒童發展與教育的機器人實驗平台。該機器人是一款上半身型機器人,類似一個3~4歲的人類兒童(圖2-10)。其共含有29個電動執行器。infanoid機器人有四個彩色ccd錄影機,每隻眼睛有兩個,分别用于外圍視覺和中央視覺,在耳朵的位置還有兩個麥克風。每個電機都有編碼器和力傳感器。
圖2-10 infanoid機器人。圖檔由miyagi大學hideki
kozima授權提供
該機器人的手掌能夠做出一系列動作,例如指向、抓取和多種手勢等。在嘴唇和眉毛處的電機用來産生各種面部表情,
51包括吃驚和憤怒等。該機器人的眼睛能夠完成掃視動作和視覺目标的平穩跟蹤。機器人中的軟體系統提供了用于人臉檢測和用來注視物體的視覺注視方向定位的子產品。該機器人配備了一些相應的算法來聽取和分析人類的聲音,并且還可以進行語音模仿或者咿呀學語。
該兒童機器人目前已經廣泛用于人類社交發展的探索,特别強調人際間溝通交流能力的擷取。是以,該機器人還被廣泛用于衆多的兒童-機器人互動實驗,包括一些針對殘疾兒童和自閉症障礙兒童(kozima、nakagawa和yano 2005)的實驗。例如,在一項針對五六歲兒童的(包括正常發展的兒童和有自閉症的兒童)研究中,主要調查了兒童對機器人的感覺。機器人通過程式設計進入自主模式,在與兒童相處的45分鐘裡,機器人交替進行眼神交流和指向動作引導的聯合注意力任務。通過對兒童-機器人互動實驗的分析,可以看出兒童經曆了對infanoid機器人進行“本體論了解”的三個階段:①新事物恐懼階段,在開始的三到四分鐘,兒童表現出局促不安,并凝視着機器人;②探索階段,兒童通過觸碰機器人和向機器人展示玩具,來探索機器人的感覺和應變能力;③互動階段,兒童逐漸參與到對等的社會交往過程中,體會機器人的精神狀态和諸如渴望與喜歡/不喜歡的感覺。自閉症兒童的實驗展示出了類似的反應,唯一的差別是他們在長時間的交流後還不會感到無聊(kozima等人2004)。
<b>2.3.8 </b>
affetto機器人
圖2-11 affetto嬰兒機器人。圖檔由大阪大學hisashi
ishihara和minoru asada授權提供affetto機器人是一個有着嬰兒外表的上半身型人形機器人,由大阪大學的asada發展型機器人實驗室研制,該機器人研發的目的是專門研究人類看護者和嬰兒機器人之間的情感交流(ishihara、yoshikawa和asada 2011;如圖2-11所示)。為了使affetto機器人和人類看護者之間的類似嬰兒般互動的情感與依戀品質達到最大化,該機器人的設計概念需要遵循以下三條準則:①基于柔軟皮膚(聚氨酯彈性體凝膠)的真實臉部外表,并且使用嬰兒衣服來覆寫上半身的機械部分;②實際嬰兒的身材大小,機器人是1~2歲大人類兒童的模型(資料來自日本幼兒的尺寸資料庫);③基于微笑的面部表情,能夠與人類參與者進行積極的感情交流,同時使用節奏性的身體動作和手部姿勢來加強情感交流。此外,為了使人類參與者和affetto機器人之間的互動更加安全、無拘束,還必須遵循這些額外的技術标準:①使用柔性的被動執行器,通過在關節52 ~
53中使用氣動執行器來承受觸碰互動中的外力;②使用柔軟的肌膚,因為用柔軟的皮膚覆寫臉部和手臂可以減少人身受到傷害的風險,進而提高參與者接觸機器人的意願;③減輕重量,通過分開布置馬達與控制器,可以獲得更安全的身體接觸并能增強機器人的運動性能,還可以使用具有高功率品質/體積比的啟動執行器;④在臉上使用參數化變形點,使機器人的面部表情更加容易變化。
這款機器人的頭部高17cm,寬14cm,厚15cm。affetto機器人頭部有12個自由度:眼睑和嘴唇有5個自由度,下巴和眼睛有2個自由度用來上下運動,眼睛還有2個自由度用來左右移動,脖子還有1個垂直軸。頭的轉動和俯仰軸是由兩個氣動執行傳動器控制的。為了控制面部動作和情感表達,直流電機的輸出軸連接配接到皮膚的内側來拉動皮膚。
機器人的上身軀幹高26cm,整個嬰兒的身體高43cm。除去氣動執行器的外置控制器外,其頭部和軀幹的整體體重小于3kg。連接配接到頭部的這部分機器人軀幹總共有19個自由度:身體部分有5個自由度,每個手臂有7個自由度。
ishihara、yoshikawa和asada(2011)在affetto機器人平台上提出了四個研究領域。第一個領域專注于在人-機器人互動中,兒童真實外表和面部表情在人類看護者支架政策中的作用。其他的研究領域包括現實世界的依戀關系發展模拟器,以及探索機器人和人類看護者在情緒/情感互動的動态過程中影響作用的實驗。另外,affetto機器人可以支援類似兒童的多模态特征的探索研究,這些特征除了面部/皮膚之外,還包括聲音感覺模态(高音、稚嫩而有活力的聲音)和觸覺模态。
affetto機器人目前主要用于人-機器人互動的實驗中(ishihara和asada 2013)。互動的場景涉及:當人類看護者可以牽住嬰兒機器人的雙手并搖晃機器人的雙手時,嬰兒機器人還能試圖保持直立的姿勢。由于内在機構機電系統的柔性性質,affetto機器人的身體部分可以跟随人類看護者進行平滑運動,而不需要任何主動的計算。而且,為了友善在互動過程中節奏性動作的出現,後續的研究主要關注使用cpg控制器來實作動作節奏生成器。
圖2-12 kaspar機器人。圖檔由hertfordshire大學kerstin
dautenhahn授權提供2.3.9 kaspar機器人
kaspar(www.kaspar.herts.ac.uk)機器人是一個兒童身材大小的小型類人機器人,該機器人的研發最初隻是作為一個人-機器人互動設計項目的一個組成部分(dautenhahn等人2009年;圖2-12)。這個平台背後的設計理念是使用廉價的、現成的元件來使得更多的研究團隊可以負擔起機器人的成本,54 ~55其設計靈感來自于漫畫設計和日本能劇劇場,這些設計使得機器人擁有最低的具有表情能力的外觀。具體來說,dautenhahn等人對kaspar這類具有最低表情能力的機器人通用設計方法,提出了三個原則:①平衡的設計,換句話說,需要長期使用的審美與實體設計選擇要适合預期的人-機器人互動場景;②建立帶給人自主性印象的表情特征,這些特征包括機器人的注意力(通過頭部轉動和注視)、情緒狀态(面部表情)以及人類參與者與機器人之間行為的偶然性;③最低的面部表情特征,通過使用類似日本能劇元素的設計,以及控制數量有限的自由度來表達感情行為,如微笑、眨眼、皺眉。
最初的kaspar機器人高55cm,寬45cm,重15kg。最新版本的kaspar機器人共有13個自由度。在頭部:脖子有3個自由度(左右搖動、上下傾斜和轉動),眼睛有3個自由度(上/下、左/右、眼睑打開/關閉)同時控制兩隻眼睛,嘴有2個自由度(打開/關閉,微笑/悲傷)。每個手臂有4個自由度。該最新版本的機器人還包含具備1個自由度的軀幹,這樣可以使機器人向兩側轉動,并且在該型機器人的身體表面還覆寫着觸摸傳感器(robins等人2012a,2012b)。機器人的每隻眼睛有一個0.25ft 1ft=0.3048m的黑白cmos圖像錄影機,可以産生一個288(水準)×352(垂直)的pal制式的視訊輸出。該機器人的頭部覆寫着橡膠面具,這種面具被廣泛用在練習心肺複蘇的假人上。
kaspar機器人的後續版本是kasparⅡ機器人,它提高了傳感器和執行器的技術,但仍然是表情平台的低成本實作方案中最廉價的。kasparⅡ機器人有與之前版本相同的頭部機構,但是增加了眼睛的顔色并改進了連線方式,還有一個類似六歲兒童的更大型的身體。機器人的每個手腕也擁有了一個額外的自由度(扭轉運動),還加入了關節位置傳感器,且在機器人胸部裝有一個swiss ranger 3000型聲呐傳感器用來采集深度資訊。全新的、重大改進的kaspar機器人版本在2015年完成,該機器人的系統更加穩定,對于非專業人士更容易使用,并且成本依然很低。
dautenhahn等人(2009)發表了與kaspar機器人有關的三個重要研究成果。第一項研究是探索機器人輔助遊戲和自閉症兒童治療中的機器人應用情況。這是輔助型機器人與自閉症兒童(asd)的一系列廣泛實驗的一部分(wainer等人2010,2013;robins、dautenhahn和dickerson 2009),并且最近這些實驗還拓展應用到了唐氏綜合症患兒上(lehmann等人2014;詳情參見9.2節)。第二項研究是在一個音樂擊鼓遊戲場景中,為了實作通用的與成人進行的人-機器人互動實驗,探查人體動作學與姿勢的互動作用(kose-bagci、dautenhahn和nehaniv 2008)。第三項研究關注kaspar機器人如何使用在發展型機器人研究中,尤其是探索适合于躲貓貓(peekaboo)這類遊戲互動場景的互動曆史認知結構的設計(mirza等人2008)。56kaspar機器人可以通過使用遠端控制或者結合遠端控制的混合模式(通過教師或兒童的手動控制),進行完全自主的操作。
<b>2.3.10 </b>
cog機器人
cog機器人是一款隻有上半身的類人機器人,由mit(麻省理工學院)在20世紀90年代早期研發(brooks等人1999),它也是被專門研制用于認知機器人研究的第一代類人機器人之一。該機器人共有22個自由度:手臂有12個自由度(每個手臂有6個自由度),軀幹部有3個自由度,頭部和脖子有7個自由度(詳見圖2-1a)。該機器人的視覺系統含有四個彩色ccd錄影機,每隻眼睛有兩個錄影機(一個用于廣度視角,一個用于21°的窄度視角)。該機器人使用兩個麥克風來感覺聲音。cog機器人也有前庭神經系統,該系統采用一個三軸慣性系統部件、多個編碼器、電位計和應變器作為運動傳感器。
cog機器人目前用于發展型機器人學研究,特别是社交學習、主動視覺和啟發式學習。scassellati(2002;詳見6.5節)通過使用機器人意識理論的發展模型,在cog機器人上實作了多種認知和社交能力。fitzpatrick和metta(2002)在cog機器人上的實驗表明,通過實驗性操作,對物體的主動探索可以提高視覺識别能力。這種感覺運動的政策基于手臂動作與光流之間的可觀測到的相關性,這些相關性對機器人區分出自己手臂和物體的邊界有很大的幫助。