天天看點

AI搞了半天隻是曲線拟合?貝葉斯網絡之父力薦因果關系應用

雲栖号: https://www.aliyun.com/#module-yedOfott8 第一手的上雲資訊,不同行業精選的上雲企業案例庫,基于衆多成功案例萃取而成的最佳實踐,助力您上雲決策!
AI搞了半天隻是曲線拟合?貝葉斯網絡之父力薦因果關系應用

作者 | Kurt Marko

譯者 | 核子可樂

AI 前線導讀: 人工智能隻是優秀的曲線拟合?近兩年,關于這一觀點的讨論從未停止,圖靈獎獲得者、貝葉斯網絡之父 Judea Pearl 也參與其中,他一直自嘲自己是 AI 社群的反叛者,認為由于人類對智能的真正含義不完全了解而阻礙了人工智能的發展,他曾經在多個場合表達過這樣的觀點:人工智能領域的技術水準隻不過是上一代機器已有功能的增強版——在大量資料中發現隐藏的規律性,所有令人印象深刻的深度學習成果都隻是曲線拟合。從語音識别,到圖像識别,再到人機對話,難道這些都算不上“智能”,而隻是“曲線拟合”的結果?
更多優質内容請關注微信公衆号“AI 前線”(ID:ai-front)

毫無疑問,當下軟體在智能層面出現的一系列進步,背後推手正是機器學習與深度學習支撐起的人工智能技術體系。然而,近兩年來,越來越多的人開始讨論這樣的軟體是否具備真正的“智能”。盡管采用人工智能技術的軟體确實在不少領域保持着快速發展的勢頭,但仍然有學者與懷疑論者們表示:這種算法與理想中的智能算法仍有着巨大甚至無法彌合的鴻溝。

什麼叫做“智能”?

關于智能的定義,可以追溯到古希臘時代的那群哲學家們。他們當時關注的主要是人類與動物(而非與機器)間的差別。亞裡士多德就曾經提到,接受過良好教育思維的一大特征就是能夠了解那些自己并不認同的主張。那時的他當然不會想到,自己的格言如今同樣适用于區分智能與人。

目前,機器仍然無法獨立提出思想或者假設,無法彼此進行測試,也無法根據邏輯推理以及實驗結果(即科學方法的核心原理)接受或者拒絕某種論點。盡管不同形式的 AI(例如對抗性網絡)可能也會通過互相沖突的方式達成最佳效果,但很少有人會将這種算法推理稱為“智能”。

相反,這隻是一種在原理層面相當簡單的方法:由兩套神經網絡利用相同的資料集交叉工作,進而獲得準确率超越任何單一神經網絡的處理模型。當然,這種方法在實作既定目标方面确實表現得更為有效。

人與機器之間的核心智能差別在于定義目标以及在實作目标期間找尋合理性的能力。我們也可以将其描述為區分因果關系的能力,例如某兩個事件雖然經常同時發生,但并不代表着其中一個事件導緻了另一個事件。在公共話語當中,這類因果關系謬誤正是最常見的邏輯錯誤之一。圖靈獎得主、貝葉斯網絡之父 Judea Pearl 也認為 機器學習和人工智能領域中的待解難題本質上與因果關系有關。

AI:到底是在學習還是在描述?

AI 研究人員之間正在争論的另一個新問題在于,目前的機器學習與深度學習技術是否代表着一種全新的算法推理形式。或者說,這隻是對描述性統計與曲線拟合等原有數學技術的進一步延伸。

支援後一種觀點的陣營可謂人才濟濟,Judea Pearl 還親自寫了一本研究因果科學的新書。這項研究,也帶來了關于人工智能未來以及深度學習是否能夠帶來近人類通用智能的讨論。

Pearl 在此前的采訪中表達了一些敏銳的觀察:

在我深入研究深度學習的過程中,我發現這類算法都停留在關聯這個層次上。也就是曲線拟合。這聽起來似乎令人不屑,但必須承認,深度學習的所有令人印象深刻的成就,實際就是在資料上拟合出一條曲線。從數學層次的角度來看,無論深度學習模型能夠如何熟練地操作資料,以及在操作資料時引入了哪些變量,無論整個過程多麼複雜繁瑣,其本質仍然隻是一種曲線拟合運算。

從本質上講,深度學習是一種高度通用且極為強大的曲線拟合技術,能夠識别出以往無法被發現的模式,推斷趨勢并針對各類問題給出預測性結果。當然,曲線拟合在表示給定資料集時也存在一定風險,這就是過度拟合。具體來講,算法可能無法識别資料的正常波動,最終為了拟合度而将噪音視為有效資訊。

Pearl 坦言,深度學習的成功程度甚至超出了該領域專家的預期。但他也擔心,這可能會令研究人員們受困于概念的天花闆,甚至危及真正通用型學習技術的發展。

這一切令人印象深刻,因為我們都沒想到純曲線拟合能解決這麼多問題。事實證明,曲線拟合确實可以,但我關注的是未來該怎麼辦?

AI 研究人員正在根據自己對深度學習的觀點乃至立場劃分陣營,其中最堅決的倡導者聽不進任何批評意見。Pearl 以此為基礎對 AI 研究環境做出評述:

AI 領域目前已經出現分裂。首先,有些人對機器學習、深度學習以及神經網絡的成功深深着迷。他們不明白我在擔憂什麼,他們隻想繼續拟合曲線。但是,在與統計學習之外的 AI 工作者進行交流時,他們則能立刻意識到我提出的問題。

Pearl 提到,除非算法與算法控制下的機器能夠推理出因果關系,或者至少能夠識别出概念化差異,否則這類方法的效能以及通用性将永遠無法與人類相提并論。他表示,除非能夠模拟人類的直覺,否則機器人永遠不可能跟人類進行真正有意義的對話。 這要求機器能夠了解因果關系,同時掌握可行的其他行動與結果。簡而言之,我們又回歸了亞裡士多德的判斷。

機器如何做到像人一樣思考?

雖然可能屬于目前的少數派,但 Pearl 并不是唯一一位意識到人工智能應該在深度學習之外探索其他可能的技術人。對于如何制造出能像人一樣思考的機器,其他人也給出了自己的觀點。

麻省理工學院研究人員發表的一篇論文認為,要創造擁有類人學習與思維能力的機器,除了利用模式識别來解決問題之外,還需要確定機器有能力自主創造出能夠了解并解釋周遭環境的因果模型。

這篇論文提出,這樣的系統必須以實體(實體學)與社會(心理學)科學為基礎,用以建立起對世界進行直覺推理的能力,最終令機器能夠“迅速擷取知識并将結論推廣到更多新的任務與場景。”與 Pearl 一樣,作者在文章結尾對 AI 研究人員提出了忠告:

我們建議,深度學習與其他計算範式的發展目标,應當是利用盡可能少的訓練資料解決任務,而非單純建構起能夠識别手寫字元、使用引擎或者下圍棋的特定解決方案。是以,除了訓練模型完成單一特定任務之外,我們還可以根據一系列類人名額對模型做出評估。

這樣的通用人工智能(AGI)一直是馬斯克及蓋茨等技術名流的抨擊對象。

簡單來說,Pearl 一行人傾向認為,目前在人工智能方面取得的成果背後是海量資料訓練的結果,這些資料通常來自于模拟或大規模人類标注,問題也都是獨立同分布的(IID, independently identically distribution),要麼是使用基準資料集的圖像識别,要麼是為特定問題精心收集合适的訓練資料集,在資料處理上面花費了大量功夫等。這樣看來,在某些特定問題上,機器可以達到甚至超過人類也很正常。

但是,當一個能以高準确率被正常識别的物體被放進與該物體出現場景呈負相關的場景訓練集時,視覺系統很容易被誤導,比如一條放在草地裡的魚,因為機器的認知中,魚往往是出現在水裡。

此外,對抗脆弱性(adversarial vulnerability)現象強調,即使對 IID 假設作出非常微小但有針對性的破壞(這類破壞可以通過向圖像添加精心選擇的噪聲來實作,而人類無法察覺此類更改),也會造成危險的錯誤,比如混淆交通标志,這說明當下的人工智能系統還沒有足夠穩健,這也反映在計算資源問題上。因為機器學習方法嵌入的(小型)實體裝置可能是電池供電。是以,解決大量現實問題的 AI 模型有可能需要重用元件,這要求元件對多個任務和環境具備穩健性。

結束語

也許,自适應或者自優化是相比于智能更準确的說法,這些模型在參數與結構層面仍然需要大量人工調整是不争的事實。盡管,Pearl 已經通過貝葉斯網絡建立起描述因果關系所必需的數學系統,但要想讓機器掌握被他稱為 Do-Calculus 的複雜因果關系,仍有很長的路要走。

與此同時,各類機器學習工具的使用者也必須意識到這些方案的局限性,避免将提取自特定問題與資料集的結果推廣到其他類别。這是 AI 的短闆,也是接下來廣大開發者需要直面的核心挑戰。

參考連結:

https://diginomica.com/ai-curve-fitting-not-intelligence

原文釋出時間:2019-12-09

本文作者:Kurt Marko|譯者 | 核子可樂

本文來自雲栖社群合作夥伴“

AI前線

”,了解相關資訊可以關注“

繼續閱讀