天天看點

機器人如何懂得人類感情

版權聲明:本文為部落客原創文章,未經部落客允許不得轉載。 https://blog.csdn.net/zergskj/article/details/43892879

今天在一席上聽了任教授的演講後,很受啟發,思路也陡然變得清晰很多。任教授的演講真是非常濃縮,所有的東西都是點到為止。需要我們自己記錄下來消化!

機器人懂得人類情感大緻可分為如下三步:

1. 識别:

識别包括識别人類的表情、聲音。這裡包括對語境的判斷和自然語言處理。這裡分為兩塊: 

A.表情識别:表情的識别大緻上可分為幾種常見模式: 高興、愉快、興奮、憤怒……其中每種模式均可向另外的各種模式轉換,但轉換的機率是不同的,如下圖所示:

這裡任教授對機器人的視覺識别有了更高的要求,不僅僅隻是視覺單幀圖像的識别了,而是連續圖像的處理,這裡對人類表情連續處理就叫做“情感計算”。也就是圖像上下文的關聯,這裡給我們的視覺平台有所啟發,機器人準确識别人類的表情需要的不僅僅是當下的靜态圖檔,通常需要一組圖檔或視訊集;

B.語氣識别:語氣也可分為幾種常見模式,但語氣的識别要難很多,這裡任教授介紹的是中文自然語言處理技術,我在這裡還可以補充一下,哈工大也正在做語氣模式識别的課題,這個倒是可以合作一下,不僅僅隻是從自然語言處理的角度去分析語義,更應讓機器人真正聽懂;

2.了解:

了解包括機器人對人類行為的綜合分析,并準确判斷出人類的情感狀态。這裡任教授提出了一個基于大資料的“豐心工學”模型,按字面意思了解就是豐富機器人的心靈,從技術角度了解就是收集海量的人類心理上的文字描述樣本,最終也就是一個基于漢字的模式識别。

随着收集的文字資訊越來越多,機器人的識别準确率就會越來越高。

3.回報:

了解了人類的心思後,接下來就要做出響應, 這裡任教授沒有具體談如何響應了。他給我們播放了他的人形機器人樣機,這樣從人類情感的角度更能很好的接受,看到了任教授的化身,感覺非常震撼!簡直可以以假亂真了!但是反應還是略微有點慢,如下圖所示:

看完以後,我還是有幾點困惑:

A.機器人的反應速度如何解決?

B.機器人的能源續航能力如何解決?

C.機器人的使用安全如何解決?(如果因為異常犯罪,這就非常有争議了!)

最後附上任教授的演講優酷播放位址:

http://v.youku.com/v_show/id_XNzQyNDczODcy.html?f=22783846&sf=10102

繼續閱讀