天天看點

AAAI主席Subbarao:機器的學習過程與人類不一樣 | CCF - GAIR2017

雷鋒網消息,7月7日,中國計算機學會(ccf)主辦,雷鋒網與香港中文大學(深圳)承辦的第二屆ccf-gair全球人工智能與機器人峰會在深圳如期開幕。今天的第三位講者是subbarao

kambhampati教授,他現在是aaai(美國人工智能學會)的主席,同時他也是亞利三溫暖州立大學的教授,他主要的研究是在自動化的決策機制,特别是在人工感覺的人工智能領域。

同時他也是一個非常知名的教授,他花了很多的時間,同時特别提到了關于人工智能對于人類感覺以及社會的影響,同時他自己本人也是aaai的成員,他也在很多的國際機構任職。他在2016年的大會的項目,以及2016—2025的aaai項目當中提供相關的咨詢服務。subbarao為我們講述了人工智能的興起,人工智能與人類學習模式的不同,一些人工智能的挑戰,關于人工智能倫理的一些思考,最後還介紹了他進行的研究。雷鋒網将其演講内容進行了整理。

AAAI主席Subbarao:機器的學習過程與人類不一樣 | CCF - GAIR2017

機器學習的過程與人類不一樣

人工智能在過去并不十分受重視,但是現在,越來越多的媒體關注人工智能。很多國家也希望ai能帶來變革。但機器的學習過程與人類是不一樣的。人類會觀察這個世界上的事物,然後開始有了情感的智能,然後他們有了社會的智能,另外他們還會有感覺的智能和推理的智能。而機器的過程則相反。不一樣的原因是:計算機解決問題的方案跟人類解決問題的方案是不一樣的,是相反的,機器學會認知才學會感覺。

現在的ai大熱

現在,我們可以發現,ai技術成為了人們的談資。但是ai大熱背後也有一些副作用,這會遮蔽我們的眼睛。subbarao講了一些典型例子,包括一些恐怖分子識别系統和犯罪識别系統等。

如何謹慎地使用人工智能

像犯罪分子行為預測這樣的系統是非常有争議的,必須要有合理、公平、道德的理由。ai現在是強有力的技術。很多公司對其進行了商業化,是以我們需要促進審慎的、有倫理的ai的發展。同時,我們在人工智能領域還有很多挑戰,例如,如何讓機器能了解語言背後的含義,如何讓人工智能對世界有完整的了解,如何讓人機互動不會有不良事件。

人工智能和人類應該如何互動

subbarao也告訴了我們在人工智能與人類互動方面,我們應該關注的部分:

我們能看到人工智能的正面報道,也能看到負面的。負面報道,我們必須關注

有意識的人工智能,如何讓人和機器能有效協作

人類希望能夠有能夠感覺的機器人與自己對話

他認為,人類會對周圍的環境、事物有情感上的反應。這是我們的情感的智能和社會的智能。我們需要社會的智能和情感的智能來彌補機器所不具備的這兩部分的技能。

此外,subbarao還向大家介紹自己的研究,其研究的主要目的主要是能夠對人類情感做出識别,并推測人類動作的意圖和期待。最後,他還向大家做了一個簡短的關于aaai(美國人工智能學會)的介紹。

以下是雷鋒網整理的subbarao演講速記:

我來自亞利桑那州立大學,我今天将和大家共同探讨一下ai的崛起以及人工智能的發展,非常感謝主辦方邀請我來中國,這也是我第三次來到中國。

就像剛才大家提到的,我也是aaai的主席,首先我向大家簡單介紹一下aaai,aaai主要是關注于人工智能的研發機構,它同時也是人工智能界最為久遠的一個科學研究機構,它是在1979年建立的,它現在擁有大量的成員機構,同時aaai也舉辦了目前全頂尖的人工智能論壇和相關的活動。我特别要提到的是,中國已經成為了aaai非常重要的一員,有來自中國的很多的學者,特别是在中國加入之後,目前在我們整體的aaai論文的送出數量,以及包括我們的科研送出量上,我們的文章的接受量已經遠遠超過了美國,而在去年aaai會議計劃在美國新奧爾良市舉辦,因為是春節期間,很多中國的開發者沒有參加。是以今年我們修改了時間,作為現任執委委員的楊強教授在當中出了不少力。(雷鋒網注:此外,楊強教授還是ccf-gair

2017大會的程式主席,香港科技大學計算機與工程系主任,國際頂級學術會議kdd、ijcai等大會主席。楊強教授是第一位華人aaai

aaai人工智能年會現在已經得到了來自中國人工智能學界和研究界的大力支援。參與我們人工智能年會的人數以及中國成員的人數是比較少的,盡管他們的論文送出量比較高,是以我也希望在未來能有越來越多的人參與人工智能年會,把我們的年會變得越來越國際化,讓我們傾聽來自中國的人工智能專家的聲音。同時我們也希望大家能夠注冊成為aaai的會員。在中國的會員身份一年是交20美金的會費,學生是18美金,是以對各位來講,如果加入這個人工智能年會是一件很簡單的事情,花費也不高。

當大家加入到aaai這個協會裡邊,我們是一個人工智能的組織,你們會看到各種各樣、各個地方的人工智能的專家,你會看到一些印度的人工智能專家,他們也在中國,我也會互相的進行會員的介紹。

因為我擔任aaai的主席,是以我簡單給各位介紹一下aaai,最核心的資訊就是歡迎大家成為aaai的會員。

今天我主要要講的就是人工智能。現在人工智能有一個非常有趣的話題,就是有意識的人工智能,有意識的人工智能除了它自己的特點之外,還有什麼樣的挑戰呢?另外我還會再講一講有人工意識的人工智能,因為這個人工智能的細分方向在未來可能會得到學界的大量的關注,并且這個問題的研究也是充滿了挑戰。

人們現在一般都在講ai做不了什麼,但是當我在馬裡蘭大學讀書的時候,我讀到了一本書,但是我讀了這本書之後,我發現人工智能還有很多能做成的地方。是以後來我們看到了谷歌,每天我訂閱谷歌的資訊,他們把關于人工智能的所有資訊都發給我,可以說在每一天收到的所有的文章裡面都有至少一篇是關于人工智能的,而現在我們看到越來越多的文章和新聞,以及媒體都在關注人工智能,而且這些文章越來越離譜,今天早上我收到一篇文章說人工智能是不是被炒得太熱了,大家能夠看到在人工智能的領域,現在有很多有趣的情況,也有很多的公司正在使用着ai的技術來從事某種業務,比如進行股東大會,在2018年可能越來越多的人還會再講到ai,而在之前沒有人這樣講,在2017年的時候我們已經開始聽到或者看到有股東大會在使用ai技術。當然,各國的政府也正在關注ai,在美國奧巴馬執政期間,美國政府有一個面向未來的計劃,這個計劃也主要是關注人工智能,奧巴馬說,他希望整個美國都能夠被ai技術變革,當然我們也看到同樣的國家執政者,在中國也是一樣的,希望大力去發展ai技術,變革中國的生産力。

當然,ai熱帶來的一個資訊是什麼呢?就是像我這樣的科學怪人能夠有機會上鏡,在電視上大講ai技術,在之前像我們這些做研究的學界的人士是沒有機會到電視上的,現在我們被邀請到電視上講一講人工智能,講一講機器人。

今天我想講什麼呢?就是考慮到我剛剛講的這些大的背景,在座的各位觀衆可能有的是研究ai的專門,有的是初學者,我給大家簡單地做了一個梳理,來幫助大家了解為什麼現在ai變得這麼熱。我們先想一想人的智能,我們看看寶寶,人類的寶寶在出生的時候,他們開始有一些特征和行為,在早期的時候,孩子會有感覺和模仿的能力,他們會觀察世界,然後他們會去模仿我們的行為。這是我妻子的學生做的一個圖,他用這個圖來看他的孩子在吃飯的時候做一些簡單的行為。另外,在孩子成長的過程中,他們會逐漸看這個世界上的事物,然後他們開始有了情感的智力,然後他們有了社會的智能,另外他們還會有感覺的智能和推理的智能,比如說大家去上學,在上學的時候就培養我們自己的感覺能力和推理能力。當然,在大學、中學和國小,我們都要進行各種各樣的考試來培養和鍛煉我們的感覺能力,這就是人類如何去發展自己的智能的。

我們再看一下ai,在90年代的時候,我們有一個專家系統,這個專家系統是一種基于規則的系統,當時許多企業都開始采用這種基于規則的系統,當時所有主流的公司都會用這種規則系統,在90年代的時候有深藍計算機,它和俄羅斯的國際象棋手進行了比拼,并且獲勝,是以那時候計算機開始有了推理的技能,到2000年的時候我們看到有深藍的更新版本。深藍能夠在一個蛋糕和一個棋子中間進行感覺和選擇。在那個時候深藍計算機本身還沒有感覺的能力,而在2000年之後,我們會看到現在最新的一些ai技術,讓我們的ai有了感覺的能力。另外,他們開始進行語音的識别、圖象的識别,而且我發現如果把語音和圖象的識别跟感覺結合在一起,将會是未來一個很火熱的話題。從過去到現在,人類是從感覺到智能,而機器是走了一條相反的路,是以機器的學習跟人類的學習是不一樣的。

為什麼機器或者是ai的學習跟人類的學習是相反的呢,它們為什麼不是先去感覺,然後再去觀察呢?我們就必須要了解一下計算機解決問題的方案跟人類解決問題的方案是不一樣的,計算機看到一個東西,它會有自己的思維,而如果人看到一個東西,它會去進行描述,另外它還會跟别人進行争論和探讨,是以對人類來講,人類的學習模式是更适用于人腦的,而機器的學習模式是适用于機器的,是以對機器來講,推理是非常難的。

如果我們的機器的感覺能力變得越來越好,現在的孩子花六七年的時間積累和了解、學習這個世界上的知識,如果機器在未來能夠有感覺能力,它們就能幫助我們的孩子進行基礎知識的積累。另外,我也不是講相比人類,人工智能顯得并不是那麼重要,在未來人工智能的推理技能将會得到極大的提高。而且不光是學習,機器對于視覺的資訊和圖象的提取都會變得越來越好。另外,在未來我們還會訓練機器去進行說、了解和解釋這樣的連環的教育訓練。

現在ai技術為什麼變得大熱呢?這是因為我們發現在現代的ai技術之下,我們能夠通過人工智能的技術,讓我們的手機看到我們所看到的世界,并且這個手機還能把它看到的資訊跟我們進行回報。如果我們能夠實作這樣的人機互動,每個人都能夠去用人工智能,大家都能知道在最新的圍棋比賽中,如果我們能夠使用這種人機共識或者是共同工作的狀态,在未來ai技術會得到更大的應用。同時,這個現象也有一些副作用,我們在生産生活的各個方面都看到ai技術的使用,在漫畫裡邊大家能夠看到,當深藍計算機跟人類的棋手進行比賽的時候,它說“這是1970年,你不要跟我講ai,這時候ai技術還沒有這麼智能”。現在又走到了另一個極端,任何一個行業都在講ai,而深藍以及alphaogo,這些機器每天都在跟人類的智能進行比較和衡量。是以現在大家看到任何東西都要言必講ai,因為這是人們願意聽到的,這也是ai大火帶來的一個負面作用。我覺得ai技術的大熱可能會讓我們蒙蔽了雙眼,不能看到它未來的前景。

    現在當然我們能夠做圖象的抓取,能夠做語音的識别,但是這就夠了嗎?

這是阿基米德,他是希臘的哲學家,他說“如果你給我一個支點,我就能夠撬動地球”。現在人們說,如果你給我一個足夠大的gpu和足夠大的資料,我就會給大家創造出超智能。這種超智能看起來可能比較滑稽,但實際上它給我們彰顯了在未來人工智能的一個新的前景,那就是超智能。

現在我們必須要去吸取早期在80年代、90年代在深度學習和大資料方面所走過的彎路,并且看未來一步怎麼走。這就給我們帶來了一些關于ai的風口期,我們都知道到目前為止,ai的發展是非常快的,但是也有人認為ai走向了冷凍期。當然很有意思的一點,去年有一家公司說,我們可以使用面部識别的方法告訴你這個人到底是不是犯罪分子或者是恐怖分子,這樣我們可以建立起一個機器學習的系統,最終能夠幫助我們去預測哪些人可能會成為恐怖分子,這是一家以色列的公司,但是我并不確定這到底是不是所謂的人工智能的系統。在中國,人的智商也是非常高的,在去年我們可以看到有一個來自中國的資料。我們如何使用面部識别的方法,能夠幫我們進行人的面部的感覺,以及包括一個推理,如果大家去到警察局,可能會看到有大量的人的照片,然後在雲端尋找這些資料,同時通過深度學習來進行推理,預測這些人是否會出現任何的犯罪行為。這些照片顯示的都是中國人,不是說他們都是犯罪分子,我們隻是拍了他們的照片而已。

通過機器學習,可以進行犯罪分子預測行為的準确性達到95%,可以甄别誰是犯罪分子,誰不是犯罪分子,它可以通過我們幫助社會上的人是不是犯罪分子,但是這樣的系統也出現了很多争議,大家在探讨這到底是不是人工智能的一個好的應用,這樣的方法是不是能夠使用在智能的犯罪分子的預測上。這篇文章要讓我們設想一下,為什麼我們要在人工智能方面談倫理學,我特别談到這一點,對于任何複雜、強大的技術,我們都要思考一下,我們到底應該如何使用它,如何用一種謹慎的方法來使用他。當ai在發展的過程中,很多人報道關于ai的技術,我們談到的隻是技術本身,我們現在也要探讨在人工智能方面的一些倫理方法,以及包括在技術使用上的倫理道德的原則。

這就讓我想起了另外一個組織,就是人工智能的合作夥伴關系,這個組織是由世界上非常知名的谷歌、微軟,以及臉書、ibm等等幾大公司發起的聯盟,我也是作為一個ai部門的理事加入到這個聯盟,我們這個組織最重要的目的,就是希望通過這個組織幫助我們了解,如何用有社會責任的方式來使用人工智能的技術。我們确實做出了很多的技術變革和技術發展,但是我們不希望用這個技術決定誰是犯罪分子,誰不是,因為這樣的做法實在是太瘋狂了。同時我們也可以探讨其它的ai技術的使用,可能會造成人的隐私的洩露,或者是影響到公民的權利,從這一點來講,就是我們建立這個聯盟的原因,而我本人也是這個聯盟的理事。從我個人的角度來說,我們提到了關于安全重要的人工智能,以及包括一個公平、透明、可信的、問責制的ai,以及包括人和人工智能系統之間的合作。

我們這裡特别提到了這一點,如果我們要讓ai來決定人到底是不是犯罪分子的話,我們不能找一些滑稽可笑的理由,我們必須要能夠向人們解釋出來,以合理、公平、道德的方式展示,為什麼這樣使用。這是我今天演講特别要提到的,ai對我們的文化産生了非常大的影響,同時ai也帶來了大量的福祉。但是現在ai已經是一個非常強有力的技術了,這個技術在發展過程當中,有很多的公司對其進行商業化,進行了大量的轉化。但是我們應該想想這些技術的使用,如何能夠進行一個審慎的、具有倫理性的發展,我相信大家可以更好地了解我們aaai,以及我們這個聯盟,事實上我們都在不斷地倡導對于ai技術的倫理性、道德行的使用。

    在youtube上有這樣一個視訊,我在這裡面特别提到了關于人工智能對社會倫理的影響,以及使用上的問題,如果大家感興趣的話可以看一看。

接下來我想跟大家探讨的是,我們在智能、認知、感覺技術上的發展,特别是在感覺技術和認知技術上的變化,還有一點就是我們對機器人的控制和操縱,從操縱的角度來說,我們也可以依靠大資料來達到這一點。但是我想問一下,我們是否就已經做完了所有的研究呢?事實并非如此,我們仍然有很多的挑戰,在這裡有一點就是我們現在大部分的學習和案例都是基于以機器為基礎的,學習知識為基礎的學習,但是它的案例數量仍然非常少。人類的學習一般是你給我一個片斷,或者我根據我自己所得到的知識來進行模拟、使用。但是目前在人工智能行業還做不到。還有另外一點就是常識,這一點是我稍後要跟大家探讨的,還有一點就是世界的不完整性,我們可以看到目前我們所有的關于這個世界的了解仍然是不完全的,在我們做ai的過程當中,我們是否需要一個完全完整的知識?但是對人來說,我們都沒有辦法對全世界有一個清晰的認識,我們如何能夠確定ai可以做到對世界完整的認識?還有一點就是互動,機器以及人工智能和人的互動。我們希望在和人互動的過程中,不會出現任何的不良事件,我們希望這個人工智能能夠和人進行緊密、有效、正向的聯系,而不會帶來過多的不良事件。稍後我會和大家探讨一下這方面的研究上的挑戰。

首先我們來看一個常識。常識是我們經常提到的,什麼叫做常識?我最喜歡的就是麥哲倫的這個案例,很多人都有這樣的常識,我們大家都知道這個問題的答案是什麼,但是對麥哲倫來說,他到底是在哪一次的旅程當中去世的?我相信在中文和英文當中都有同樣一點,如果你了解麥哲倫航海的故事,你就能非常清楚地了解到這一點。還有其它一點,我們可以看到從語義的角度來說,它從表面上是一模一樣的,但是我們到底能找出在同樣兩句話當中語義的差别是什麼?從2016年開始,我們就開始進行關于語義的了解,我們去年開始了一個比較大的競賽,這個競賽最終的結果事實上并不是非常的有效,我們希望能夠真正地尋找到在同樣的語言背後的語義的變化,能夠讓我們的人工智能真正了解到這一點,同時能夠幫助我們更好地了解到這個機器所沒有辦法了解到的人類的自然語言的語義變化。事實上還有其它的一些變化,我也想和大家進行分析,就像我們提到的關于麥哲倫的這個問題也是如此。

我剛才和大家提到了一個不完整性,也是一個非常大的挑戰。因為現在越來越多的人開始探讨超級智能,或者是包括智能至高無上的發展,以及機器的完全智能,它們将取代全世界,人類将會滅絕,或者有人說人類會成為機器的奴隸,我覺得你完全不用擔心這些部分,因為我相信如果我們有這種殺戮的機器,如果它使用的是一個對世界的不完整認知,它确實會帶來很多負面影響。但是對我們來說,它這樣的一種結果是非常不可預見的。我們如何能夠在一種不完全的模式下,能夠對機器來進行訓練,這一點是非常重要的,接下來這個部分我還會談這個觀點。

    最後一個部分我想和大家探讨的是一個非常大的挑戰,也就是我們如何去確定人工智能和人來進行共同的互動。這一點也是在接下來的十幾分鐘我會和大家進行分享的。

在這裡我想和大家特别提出的是,在人工智能當中,人工智能作為一個整體,它和人之間的關系是非常有意思的,他們希望能夠幫助人類,但是他們并不是非常希望能夠看到在人機協作方面所出現的大量的問題。大家想想下一次你提到人工智能的發展的時候,我們可能花了很多的時間來看我們的人工智能的機器戰勝了非常知名的棋手,它在幫助人的同時也戰勝了人,很多人提到了人工智能和人之間的關系的惡化。與此同時還有一點就是在之前的文章當中,很多人提到人工智能會取代人,人将會成為人工智能的奴隸。但是對于我們來說,我們自己應該要關注這一點,特别是對于人工智能的負面報道,我們必須關注。

去年我負責了我們的全球人工智能聯合大會的國際會議的主辦,當時我們就建立起一個特别團隊,我們提到了應該是有意識的人工智能,我們特别提到了關于人和機器如何能夠得到有效的結合,能夠共同協作,這才是最為重要的。在那次會議上,我們就提到了我們為什麼要主觀地設計這樣一個未來,我們為什麼要去設計一個讓我們自己能夠擔憂的未來,而與此同時,你們如果認為機器能夠戰勝人類的話,人還應該做什麼事情呢?我們人應該是能夠讓機器輔助人,增強人的能力,這是需要我們各界互相協作。很多人提到了有意識的人工智能,人工智能或者是有意識的人工智能,可以真正地将我們從傳統的機器人為主導的趨勢中救出來,我們相信對機器人的負面的報道也會不斷地減少。

這是jason報告,這是一個非常知名的智囊團和咨詢團,他們為美國不同的部門提供服務,我之前參加過一個jason的會議,有一個人說了我們現在必須決定的三大問題。在jazon現在進行了大量的關于人工智能的研究,同時他向我們展示我們如何在人工智能的各個方面發力,其中他特别提到了一點,就是以增強人類生産力為發展的人工智能,将會最終走向有意識的人工智能的發展。與此同時,我們可以看到當我們在預測未來的人工智能發展的時候,也有一個白宮的報告,它特别提到了我們必須要尋找到有人類意識的人工智能的新算法。

現在我們已經進入了人工智能2.0時代,我們會走向更多的人機協作的時代。為什麼我們必須要讓人們意識到這一點?為什麼我們會提到這一點?為什麼我們在做這方面的工作?我在這裡和大家探讨一下目前在ai方面的社會學問題。當每次提到人機協作的時候,人們都是覺得好像是一種期待的過程,大家覺得隻是人去解決問題,而機器就站在旁邊,什麼都做不了。對于我們在座的很多年輕人,或者是各位工程師、技術人員,我們都知道這是我們真正的機器對話,這個機器可以有非常好的智能,但是這個機器後面還有一個人,他在闡述這個機器人,但是裡面藏着一個真正的人,這是一種謊言,這樣的謊言其實是人們希望有人的感覺能力的人工智能發展。

人工智能還有沒有别的挑戰?如果機器做的事情越來越多,人的能力會不會被機器取代?大家都認為,如果機器的能力越來越高,我們就不需要人了。我們再看一下人機融合或者人機合作,人機合作就能拓寬ai技術的深度和廣度,而現在人機融合也能打消人們的擔憂,比如說有些人擔憂機器人将會取代所有的人類進行工作,如果進行人機協作的話,就打消了這種疑慮,同時人機合作或者是有意識的人工智能,它還是一種全新的研究方向,這在未來可能會被認為是一件很酷的科研的方向。現在有許多新的科研的挑戰在人機融合方面,從高層或者是政府層面來看是看不到的,我們講人機融合在操作上有許多的問題需要解決。

有人說,人們需要我們自己的大腦,不光是去看老虎,看獅子,而是去互相觀察,在大多數時候,人類的大腦實際上做的事情不是自然的觀察,而是社會的行為,比如說我們會傾聽、交流和互動,這也就是人腦和機器的大腦能夠互相進行合作的地方。因為人腦具有社會交際的功能,是以它能夠填補機器在這方面的空白。

(見ppt)這一張片子是我在前面給大家看到的,我剛剛沒有講過情感和社會的智能,但情感和社會的智能恰恰是人腦所擁有的,并且擅長的,我們利用這兩個方面的智能教育孩子在學校裡要守紀律,并且我們告訴他們如何掌控自己的情緒。同時我們還有社會的智能,社會智能讓我們更好地跟别人進行互動,比如說如果沒有這種情感和社會的智能,我們在采訪的過程中,可能采訪人和被采訪人之間就不會進行任何的互動,如果機器人去采訪,他就會丢掉這份采訪的工作,因為他沒法和他的采訪對象之間進行互動。另外,情感和社會的智能還會幫助人工智能模拟人腦,并且逐漸的具有一些情緒和社會的智能。現在我們已經知道,如果人們開始不使用ai系統,是因為ai系統沒有社會和情感的智能,對于現在在座的一些微軟的專家,可能聽起來不是那麼高興,因為人工智能的确沒有社會和情感的智能,而我們知道在微軟的辦公室裡,他們會有一種機器人,會幫助他們的員工去進行工作。在這個機器人身上展現了微軟現在已經取得的所有最新的機器人和人工智能的技術,但是當比爾蓋茨宣布他要退休的時候,在座的所有的員工都有了情感,有的人開心,有的人難過,有的人可能會哭。但是他們就發現跟他們在一起工作的這些機器人是完全沒有任何情感表示的,這也就是說如果我們在平常工作的過程中表現欠佳,我們需要同伴對我們進行一個情感安慰的時候,跟我們一起協作的機器人是做不到的,因為它們本身并沒有情感。是以我們現在要開始考慮這種機器的輔助人工智能是否能夠被引入到工作場合中去,因為它們本身并不具備情感和社會的智能。

現在大家再看一個智能主體的結構。我們會有一個智能的主體,首先我們要看在這個智能主體之内,它有制動器,也有傳感器,我們會看世界,觀察這個世界的資訊。而對于人腦來講,人腦也是一個智能主體,但是他觀察資訊的方式是完全不一樣的,大家知道人腦,我們也可以模拟人腦,我們會發現,如果我們讓ai的機器模拟人腦的時候,我們就會看到在這張表上一個智能主體的結構變得非常的複雜和豐富。舉個例子,如果是出現一個表征的情況,他們不光能夠看到現在是什麼樣,而且他們會想到此刻我周圍的人在考慮什麼,我周圍的人考慮的東西和我之間有沒有什麼關系。機器不光是對周圍的資訊感興趣,而且他開始因為新的人機融合的智慧主體,開始對周圍的事情産生關聯和聯想。就像人腦一樣,我們的機器和人腦進行融合,就會關注越來越多的周遭環境的資訊,包括這個人在想什麼,這個人下一刻在想什麼,他想的東西跟現在的環境有沒有關系,另外我們還要對這些資訊保持持續的追溯。是以人腦抓取資訊是越來越複雜和豐富的,如果進行人腦融合的話,我們就可以讓機器感覺和解決現實中的問題。如果我們關着門一個人待起來的話我周遭的世界是很簡單的,但是在社交生活中永遠都不是一個人在閉門造車,是以我們需要社會的智能和情感的智能來彌補機器所不具備的這兩部分的技能。

我們接下來再看這張圖檔,在接下來的幾分鐘我會講一講我們的團隊在人類意識的人工智能方面做了哪些研究。我們主要是研究人和機器不同的決策、學習的過程,然後去進行和人機融合的模拟,另外我們還要人和機器一起合作,在這裡面大家可以看到,我們讓一個人和機器進行對話,讓機器試圖去了解它對面的這個人的意圖,通過了解到的意圖做相應的動作。比如說他張開雙臂是代表什麼意思,他把手放在桌子上是什麼意思。當然在這個項目裡邊我們也投入了大量的資金,到現在為止我們的技術能夠在某種簡單的層面下去讓機器了解到它的人類的協作者希望它做什麼,并且了解人類的意圖,而通過人類的表情去看這個人是開心或者是不開心。另外人類還會給它發送不同的信号,有些信号代表的是高興,有些信号代表的是不高興,機器要根據接收到的信号做相應的判斷,并且它不光是要做人類期望它做的動作,而且要做人類接下來在下一個環節希望它繼續去從事的動作。因為一般情況下,我們可能都很容易去了解我們想做什麼,别人希望我們做什麼,但是别人為什麼希望我們這麼做是一個更加複雜的命題,是以在人機訓練的過程中,我們訓練機器聽我們的指令,不光是了解我們的意圖,我們不光做人類的語言,跟機器進行溝通,同時還加上手勢和表情,而如果手勢和表情不足夠的話,我們還提供額外的資訊來讓機器了解人類,讓它做某種動作的意圖是什麼,期待是什麼。

舉個例子,在荷蘭我們做了一個類似的實驗,人們看到前面的一個球,然後把信号傳遞給機器,機器自己去感覺它到底是不是要去抓這個球。現在大家來看這個機器和人試圖抓取桌子上的積木,而機器人需要了解,當人類開始去抓取的時候,人類希望它怎麼做,是以通過人機協作,人類的情感和社會智能就彌補了機器所不具備的情感和社會的智能。

我們現在看一下有哪些挑戰。首先,我們必須要有一個很好的人類和機器互動的體制,我剛剛也講過,現在世界上最複雜的一個問題就是我們去考慮旁邊那個人在想什麼,這是世界上最難以解決的命題,是以要考慮到人類的思維實際上是很難解決的,我們要訓練機器去了解它旁邊的人在想什麼,這是難上加難的問題。另外,我們不光要確定機器去了解它旁邊的這個人想什麼,而且要能夠根據它的判斷去做出一個明确的行為。另外還有一點就是,大家都知道我是一個ai的專家,但是即便是我這樣的專家,我也沒有辦法研制出一個機器人,讓它完全了解人類的意圖,并且跟人類進行互動。當然,我們都知道如果真的有這樣一個機器人産生,它可能會更好地跟人類進行相處,因為它能夠了解在這個封閉的社交環境裡邊人類希望它做什麼,但實際上要做出這樣的機器人是非常難的。另外我們也需要各國的政府準許人機可以在某種層面上進行互動和協作。舉個例子來說,在某些特别的情況下讓機器人跟人類一起去互動是不是一種可以被接受的情況,另外在某些細分的行業,比如說國防,是不是人可以和機器人進行合作。另外,在這張圖檔上大家可以看到,機器人對于世界有自己的感覺,而人類有大腦裡邊自己的關于機器能做什麼的預設,這兩個預設之間是不是完全一樣的?未必。我們必須要讓人類去了解他們腦中所設想的那個機器能做的事情,并不是真正機器在大腦裡頭所想的東西。我們必須要讓機器人能夠更好地跟人類溝通,比如說到底如何從一個目的地走向另外一個目的地,在前進的過程中最短的路徑是什麼,最好的計劃是什麼,人類和機器還有很多的在這樣的簡單互動方面需要協作的東西。另外還有如何去制定計劃,如何把制定出來的計劃用清晰的語言去解釋出來。所有這些溝通的方方面面都會影響到人機融合未來的前景。

我差不多講到這裡,最後我會給大家放一個短片。我再簡單地回顧一下我剛剛講的所有的東西,首先我給大家做了一個簡單的關于aaai的介紹,aaai是美國人工智能學會,我們每年都接收關于人工智能方面的論文。今天關于人工智能的研究已經成為我們社會責任的很重要的一部分,而且我們也可以看到中國在全球的人工智能方面的貢獻正在變得越來越多,因為我們收到的每兩篇人工智能的論文裡面就有一篇是來自中國學者的。其次我還講了人類的嬰兒和機器在學習方面的差異。另外我還講了現在ai技術的一些專業的門檻。最後我講了如何進行人機協作,并且培養出有人類智能的人工智能,當然這也是我們未來非常困難的命題,這也是像我這樣的科學家在未來可能去解決的問題。因為大家都知道,最終的目的實際上不是讓機器去取代人類,而是讓人類更好地跟機器協作。

本文作者:彭賽瓊

繼續閱讀