天天看點

人工智能的盡頭是人工?

上個月出門,發現十字路口的交警和輔警人數明顯增加了。我不禁有些詫異,近十年來,人工智能最成功和最有效的落地成果不就是安防和交通相關應用嗎,而十字路口往往都是視訊監控最密集的地方?既然如此,為什麼還需要那麼多警力呢?

除了定期上街執勤需要外,一個深層次的原因是,人工智能并不能百分之百包打天下。更極端情況下,人工智能的盡頭可能是人工。

何出此言呢?其一原因是人工智能算法的評價準則。這裡談論兩個名額,漏檢率和誤報率。第一個名額,漏檢率是指本應發現卻未被算法發現的問題,俗稱假陰性。

以交通違章為例,假陰性或漏檢率意味着并非所有違章現象都能被有效發現。在監控探頭日益普及的今天,多數違章都已經能通過人工智能算法檢測到。如早期研發的闖紅燈、高速公路超速、占用高速應急車道等,中期研發的基于雲台監控錄影機的三分鐘路邊違停、車牌遮擋等,和近年來的實線變道、市内禁鳴區域鳴笛等。然而,随着駕駛員的交通安全意識的提高,這些易于監控的違章現象正變得越來越少。以至于可以推測,在未來針對這類違章的監控可能會較難被觸發,甚至形同虛設。那麼,交管部門和相關研發的公司就必須深化監控系統的研究,将重心推向識别更為複雜的交通違章行為。比如惡劣天氣或低照度情況下的低分辨車牌識别、非機動車的違章行為。然而,這些複雜的交通違章并不見得能通過人工智能算法獲得很低的漏檢率,甚至可能無法形成應用級的實際監控系統。如非機動車闖紅燈行為、以及在禁行區域行駛。盡管目前這一塊的智能監控已經開始試點,但當非機沒有車牌以及駕駛者戴着口罩時,算法很難自動給出确定的結論。此時,就隻有依賴人工現場截停和處罰了。

而第二個名額,誤報率則是指不應被檢測出來、卻被錯誤辨識成真的“假問題”,俗稱假陽性。

仍以交通違章為例,假陽性高意味着會報到過多的假違章現象。如在高速公路上,一輛車被檢測出超速了,但實際上真車并未出現在該路段,結果車主收到了一張不屬于自己的罰單。再比如将公共汽車車身上的廣告人物錯判成違章的行人。這些都是假陽性。誤報率高或假陽性高,往往會導緻後期人工介入工作量的增加。

除交通違章外,漏檢率和誤報率引發的問題,在很多領域的應用中都可以見到。如在醫療方面,新冠病人的漏檢有可能會造成不必要的病毒傳播,而健康人誤報為癌症會導緻人的心理狀态失。如在短視訊檢查上,疑似漏檢的違規短視訊必須通過人工審查來杜絕其傳播後造成的危害。誤報的也需要通過人工來決定是否可以放行。

近年來,大量人工智能技術的落地,表明相關應用的誤報率和漏檢率問題已經有了顯著的改善。但需要指出的是,一旦容易實作的應用都完成落地或産品化了,剩下的可能都是難啃的硬骨頭。這些硬骨頭的潛在應用裡,依賴現有的人工智能技術,兩個名額可能很難得到明顯的改善。它也就意味着,人工處理仍然會是這些應用需要依賴的主要手段。

事實上,漏檢率和誤報率這兩個簡單的名額,隻是影響人工智能全面替代人工,以及導緻人工智能最終需要依賴甚至讓位于人工的一個小因素。

其原因在于,這兩個名額主要與預測任務的性能相關。而人類智能中除了預測,還有與可解釋性和其它與預測無密切關聯的智能活動。如學生們刷題後形成的對新題的快速判斷,那是可以不經過正常解題思路直接找到答案的快速途徑。從某種意義上來說,這是擺脫了原有學習模型後形成的一種“跳”連接配接,或者直覺。這種直覺,目前還無法通過數學模組化方式來表示,仍然需要靠人自己的持續學習來獲得。情感也是如此,盡管我們在建構人工智能算法中可以機械性地将情感分類并進行預測,然而這樣獲得的情感隻能讓機器人更為機械化,卻無法向共情邁出質變的一步。

即使是預測,我們也受限于對自然界的了解,而不能對人工智能技術抱以過高的期望。如氣象預報中局部地區的降雨預測,會因為對大尺度台風的資料收集不完全而出現失誤。不僅是空間尺度上存在局限性,時間尺度亦如此。如氣候的變化有可能是幾十年為周期的,那麼單靠十來年的資料進行氣候意義上的分析顯然是不準确的。事實上,我們在一些應用中還面臨着資料的稀少問題。如局地冰雹的預測會因為資料極其稀少、且在雷達回波上無法與大降雨雲層區分開,而導緻判斷失效。

我們也不能過份相信機器的預測能力。如在自動控制方面,過份相信機器的判斷,可能會導緻極其危險的後果。如2019年3月埃航737 MAX8的空難,就是過份相信機器的自動駕駛,以至于駕駛員後來無法接管引發的悲劇。

能列舉的人工智能短闆還有很多,我就不一一枚舉了。在這裡,我更想表達的是,目前人工智能技術的落地主要是在預測能力能達到應用級的應用上,算是在享用這些應用的能有的紅利。一旦人工智能在應用層的紅利消失,剩下的可能就得靠人力了。那麼自然的問題是,人工智能的紅利,在各種相關的應用上還能持續多久? 人工智能的盡頭會是人工嗎? 還是必然會走向人機混合呢?

 張軍平        

2020年8月31日