天天看點

紮心了,機器都比我會學

能自動避開障礙物的無人駕駛的汽車,在無聊時供我們“調戲”的智能手機語音助手,能比親朋好友還懂我們所愛的推薦算法…不知道你是否已經注意到,人工智能技術早已滲透進我們的生活的方方面面,我們現在身處的時代,正以前所未有的速度接近下一次技術革命,而開啟下一次技術革命大門的鑰匙就藏身于人工智能的廣闊藍海中。

Part.1

機器學習,也得先打好基礎

面對自動開啟關閉的家用電器、和智能音箱對談的時候,也許你會對于它們的貼心智能大呼不可思議,機器是如何讀懂我們想法的呢?事實上,我們目前的人工智能基本都是基于機器學習技術實作的。

機器學習,顧名思義,就是讓機器具有學習的能力,而學習能力正是普通機器與人工智能的分水嶺。讓我們回到1765年詹姆斯·瓦特改良蒸汽機的時代,無論春夏秋冬,這台開啟了人類第一次工業革命的機器隻會日以繼夜地重複着一個動作,任何人看到這台機器的時候都不會把它與“智能”二字聯系起來。随着科技的進步,人們設計了許多更為複雜的機器,但它們仍然不具備基本的智能。

這種情況一直持續到20世紀50年代,計算機理論發展迅速,機器學習終于登上了曆史的舞台。機器學習的基本思想其實并不複雜,我們通過對算法輸入大量資料進行訓練,讓算法生成模型來實作對其潛在規律的揭示和對未來情況的預測。試想,從明天開始,你試圖對家門口路過的灑水車的行為進行預測,前六天,你發現灑水車每天都會五點準時路過,此時你自然而然形成了一個簡單的認識(模型):灑水車每天五點都會路過。如果第七天是周日,灑水車放假了(但你并不清楚),你發現灑水車沒有再像往常一樣路過,此時意味着之前的模型并非是完全準确的,于是又過了一周,灑水車仍然是前六天每天五點到,周日不再出現,你便可以通過新資料來糾正模型,進而更加接近事實。

這個過程和我們的學習過程是一樣的,一開始,我們的機器就像一張白紙,一無所知,正如同第一天之前我們也不知道灑水車會來,但這不重要,當我們試圖給具有機器學習能力的機器輸入資料的時候,一切都變得與衆不同了,假設上面故事的主角是一個十分懶惰的人,他不願意自己去動腦筋思考灑水車什麼時候來,于是他希望讓機器學習幫助自己預測灑水車的行為,他把每一天灑水車的行為資料輸入到算法中,這個過程我們稱之為“訓練”,通過大量的資料訓練,我們的機器學習算法對于灑水車行為的預測将會越來越準。

紮心了,機器都比我會學

圖1 機器學習過程與人類學習過程異同

Part.2

“三年聯考五年模拟”,機器也躲不過題海戰術

有了資料之後,我們還需要選擇合适的“學習方法”才能讓AI學得更快更好。你可能已經或多或少聽到過一些與機器學習有關的名詞,但卻一頭霧水,比如監督學習,強化學習等等,實際上這些都是描述機器學習過程中不同的訓練方法,往往适用于不同的情況。

例如,我們希望讓一個算法學會辨認貓和狗,如果我們提前給算法看大量貓狗的照片,并且告訴它這張照片是貓還是狗,那麼這就叫監督學習(Supervised Learning);如果我們給算法大量貓狗的照片,但是不告訴它哪些是貓哪些是狗,而讓算法自動尋找貓和狗的差異,這就叫非監督學習(Unsupervised Learning);如果讓算法不斷地做選擇題,每次都讓算法看圖後選擇是貓還是狗,答對獎勵加分,答錯懲罰扣分,算法在試圖盡量得分,規避扣分的情況下經過大量訓練便會自己“進化”出正确辨認貓狗的能力,這就是強化學習(Reinforcement Learning)。

是以看到這裡你大概應該能猜到我們是如何讓機器學習工作了,正是通過大量的資料訓練,機器才能擁有如此強大的能力,即使Alpha Go背後的科學家們并不是圍棋大師,甚至完全不會圍棋,也能讓Alpha Go戰勝世界冠軍,而這在傳統的機器身上是不可能發生的,因為它的所有行為都是設計者提前編寫好的,是以它無法實作超出設計者認知的行為。

Part.3

機器學習:并非無懈可擊

看到這裡,也許你想問:“那麼,機器學習是否意味着我們離人工智能時代已經近在咫尺了呢?”

很可惜,我們距離真正的強人工智能還有很大的差距,這是因為目前的基于資料的人工智能算法在很多時候是具有很大局限性的。比如,一個接受長期辨識貓狗訓練的AI 可能會把吉娃娃錯認為貓,也有可能會把無毛貓誤認為狗,這主要是因為機器學習得到的結果好壞與訓練資料是高度相關的,如果訓練AI用的資料是偏頗的,比如訓練用的貓的照片基本都是有毛長尾貓,狗的照片基本都是大型犬,那麼這樣訓練得到的AI 将很容易在辨識某些其他種類的貓狗時犯錯。

目前的AI更緻命的問題在于,很多時候,由于機器學習的可解釋性缺陷,其是一個黑箱過程,我們無法解釋它到底是根據什麼特征做出判斷,我們人類在學習辨認貓狗的時候,往往會把判斷特征集中在貓狗身上的某些關鍵部位,但一個通過圖像訓練得到的AI,即使結果正确率很高,但卻有可能把某些判斷特征放在環境上,顯然這是不合理的。這樣的特征導緻AI的應用存在潛在的風險,例如一個自動駕駛AI如果我們不能判斷出它是根據什麼做出駕駛決策,那麼即使它在推廣前的測試中無比安全,也可能在現實中出現的複雜路況中犯緻命錯誤,去年3月份發生在美國的一場車禍就是因為輔助自動駕駛系統錯誤地把卡車的白色車廂識别為了天空,導緻汽車徑直撞了上去。

有趣的是,這也從另一個角度為我們闡明了一個道理:題海戰術雖然有用,但并不高效,而且會導緻潛在錯誤,要想從根本上學習新知,就要運用到因果邏輯,從根本上搞清楚事物的來龍去脈,而這也正是科學家們目前希望在人工智能身上實作的。

Part.4

實作因果邏輯,機器還需努力

貝葉斯網絡的創始人,圖靈獎得主朱迪亞·珀爾認為,讓人工智能實作本質飛躍的關鍵就藏在每一個人的大腦中,上天賜予我們人類的最為強大的武器——因果邏輯。

珀爾把因果思維分成三個等級:第一個等級是關聯,與之對應的是觀察的能力,這是我們目前的基于資料的弱人工智能所處于的級别;第二個等級是幹預,對應控制變量實施行動的能力,即能夠借助幹預來獲得認知;第三個等級是反事實,對應想象的能力。幸運的是,我們所有人都處在第三層級,想象給予了我們通過想象建構反事實——即虛構的世界的能力來建構認知,例如著名的電梯思想實驗引導愛因斯坦在一個世紀前将狹義相對論推廣到具有加速度的非慣性系中。

紮心了,機器都比我會學

圖2 珀爾的“因果階梯”

(圖檔來源于朱迪亞·珀爾的著作《為什麼:關于因果關系的新科學》)

關聯和因果的差別在于,關聯是資料間最表層的資訊,也即是相關性。例如,資料表明,一年中的溫度與犯罪率有相關性,溫度低的時候犯罪率更高,如果我們把這些資料輸入隻懂得分析關聯性的AI,它在預測犯罪率的時候便容易犯錯。比如春節期間犯罪率上升的原因主要是因為春節期間小偷的活動變得頻繁,而春節一般是溫度最低的時候,是以如果僅僅從關聯的角度分析資料,我們将會得到氣溫降低導緻犯罪率上升的結果。假如我們用這個AI去預測一個沒有春節文化的國家的惡犯罪率,或者是一個氣溫異常的年份的犯罪率的時候,顯然會得到錯誤的結論。

但是從因果的角度出發,我們不僅要分析資料之間的關聯性,還要判斷其内部的邏輯鍊條,比如,當溫度全年保持不變,犯罪率是否還會變化?如果得到的答案是“是”,那麼我們便認為除了溫度還有其它的影響因素,比如去年由于疫情,春節人員流動降低,雖然冬天溫度仍照常下降,但犯罪率卻沒有随之變化了,那麼我們便認為春節人員流動才是導緻犯罪率變化的主要原因。

珀爾認為,從機器學習上升到因果學習的一個重要管道是引入“幹預”(do)算子,P(A|B)與P(A|do B)完全不同的。其緣由在于,“幹預”與“觀測”本質上有根本的不同,例如:觀測到公雞打鳴和強制讓公雞打鳴是完全不同的兩件事,我們目前的算法可以很容易回答公雞打鳴和太陽升起這兩件事之間的相關性,可是它卻很難正确回答強制讓公雞打鳴時是否也會太陽升起。珀爾認為,隻接受被動觀測資料的人工智能是無法攀登上第二級階梯回答與幹預有關的問題的,也就無從了解“公雞打鳴”與“太陽升起”這兩件事之間的因果關系,因為因果關系的确認需要進行控制變量實驗,而這樣的實驗本身是建立在幹預上的。也許你會問,如果觀測到次元足夠大,獲得足夠充分的資料是否可以代替幹預呢?實際上我們很難保證資料範圍與實際測試環境的一緻,更困難的地方在于很多時候無法先驗地知道資料本身是否是完備的,這就導緻無論我們用多麼巨量的資料去訓練得到的算法都有可能因為資料與測試環境的不完全一緻而出錯,這被稱為OOD(Out of Distribution)問題,就連圖靈獎得主Yoshua Bengio也認為OOD泛化是目前人工智能最急需解決的一個問題。

看到這裡,你大概能知道為什麼我們離想象中的人工智能還差得很遠,因為我們目前建構的人工智能,别說擁有第三層級的想象力了,其甚至連判斷因果的能力都沒有。很幸運的是,科學家們已經認識到,因果學習是讓人工智能實作下一次飛躍的關鍵了,許多科學家相繼投入了因果機的理論研究當中,例如清華大學的崔鵬教授提出了将因果推理與機器學習相結合的穩定學習(Stable Learning)來改進OOD泛化問題,CMU的黃碧薇博士利用因果發現在時間序列的非穩态資料上實作了更精準的預測。我相信,伴随着技術的發展,人工智能技術一定會越來越可靠,并且造福人類!

來源:中科院之聲

本文已獲轉載授權,如需轉載請聯系原作者

文章僅代表作者觀點,不代表中國科普博覽立場

紮心了,機器都比我會學
紮心了,機器都比我會學

轉載注明出處 未經授權不得轉載

中國科普博覽是中科院科普雲平台,由中科院計算機網絡資訊中心主辦,依托中科院高端科學資源,緻力于傳播前沿科學知識,提供趣味科教服務。

點這裡告訴我你在看

繼續閱讀