天天看點

人工智能向“上”生長,可信AI漸行漸近

機器之心原創

機器之心編輯部

一位剛剛上路的新手駕駛員,如何成長為「老司機」?顯然,Ta必須經過足夠時間和裡程的駕駛練習,才能夠熟練、從容地應對各種可能出現的路況和緊急事件。是以盡管自動駕駛系統也會在投入使用之前曆經大量的真實道路測試,但就算是科學文明相當普及的今天,仍有很多人依舊做不到将開車這件事「放心地交給AI」,畢竟擺在人們眼前的卻是道不盡的争議和說不明的駕駛事故,而事故的發生可能是技術,算法,道路,資料,傳輸,天氣,駕駛員等多重主客觀因素影響造成的,權責劃分十分困難。

具體從算法層面看,由于駕駛場景天然對安全性有更高要求,這就需要自動駕駛算法具備可解釋性;但目前自動駕駛系統的決策規劃子產品大多基于訓練資料,由于現有資料集普遍缺少中間資料或狀态資料,導緻算法在極端情況下難以及時做出完全正确的決策。“算法還沒有達到完全「可信」的程度,這在一定程度上為事故發生後的責任認定帶來了難題。”中國資訊通信研究院華東分院人工智能與大資料事業部主任陳俊琰分析稱。

中國資訊通信研究院華東分院人工智能與大資料事業部主任陳俊琰

由于無法通過算法對已發生事故中的權責邊界進行解釋,人類隻能嘗試從自動駕駛行為中得到合理化的解釋,但深度學習模型的黑箱特性讓這一過程又變得困難重重。京東探索研究院算法科學家何鳳翔認為,目前階段的很多AI算法依舊處于一種黑盒模型的基礎上,如果不太了解算法背後的機制,就不太清楚風險從哪裡來,也無法識别風險機制和風險尺度,更談不上很好地管理風險。在這樣的情況下,AI算法還不能應用在關鍵領域中,比如人們抱有很高期待的醫療診斷、自動駕駛等以及更多「人命關天」的行業。“下一步,我們需要深刻地了解算法的行為,然後才能夠在這一基礎上設計出可以被信賴的算法。”

人工智能向“上”生長,可信AI漸行漸近

京東探索研究院算法科學家何鳳翔

此外令人憂心的是,無論是位址、路線這些基礎的位置資訊,還是音樂、聊天内容等個性化資訊,一旦其中的重要資料被竊取、篡改或濫用,會産生嚴重的法律責任事件,損害資料主體的财産安全甚至生命安全。怎樣對如此龐大的資料進行隐私保護、防止資料濫用?也是自動駕駛落地過程中必須要解決的問題。

可信AI,數字時代的安全衛士

今天,人工智能技術已經成為如水電一般的資源,融入到人們日常生活的方方面面,小到購物推薦、醫療教育,大到生物資訊識别以及工業智能制造,機遇良多。然而,當我們沉浸在AI技術帶來的生活便捷高效、行業迅猛發展的同時,因其“黑盒模式”引發的技術不可控、資料安全、隐私洩露等問題卻時有發生。

AI值得信任嗎?如何建立起人與系統的互信?衡量标尺又是什麼?如何更好将AI技術為人所用……相關問題逐漸成為學界、産業界、政府界,甚至是普羅大衆近年來十分關心的話題。

可信AI的概念最早出現在2017年11月的香山科學會議上,由中國科學家何積豐院士首次在國内提出,近年來伴随人工智能的飛速發展,人們對可信AI的認知越來越明晰甚至深入。

2019年10月,京東集團首次在烏鎮世界網際網路大會上提出京東踐行「可信賴AI」的六大次元。2021年7月,中國信通院與京東探索研究院聯合撰寫的國内首本《可信人工智能白皮書》正式釋出,首次系統提出了可信人工智能全景架構,全面闡述可信人工智能的特征要素。“我們和白皮書的思路一脈相承,從四個方面進行可信AI方面的研究,即穩定性、可解釋性、隐私保護、公平性。”京東探索研究院算法科學家何鳳翔表示。

縱觀全球,可信AI技術的發展都有相似路徑可循:從基礎理論出發,從理論問題、理論結果深入,設計出可以被信賴的AI算法,最後嘗試将這些AI算法應用到産品中去完成技術落地,目前可信AI作為京東探索研究院鎖定的三大研究方向之一也是如此。“工作之中我們發現這四個方面彼此之間是有一些關聯的,也是希望在長期的探索中能夠提出一些統一的理論去一緻描述可信AI,而不是簡單機械分開去研究它的四個方面。”

相比于國内,國外企業在可信AI技術的具體布局上起步要早一些。以隐私保護為例,2006年,Dwork等人提出了差分隐私模型,一經出現便迅速取代了之前的隐私模型,成為隐私研究的核心。目前已有公司将差分隐私作為标準大規模部署,對于使用者資料采取不收集的處理方式,對于一些不得不收集的内容則采用差分隐私算法将收集過後的資料進行匿名、擾亂,進而讓資料無法定位到具體的使用者。

毋庸置疑,可信AI涉及的方向是繁多的,每個方向都會延伸出很多具體任務,實作可信AI絕非「一日之功」。在京東探索研究院算法科學家何鳳翔看來,能否通過研究AI背後的運作機制建立起理論基礎,把不同方向的理論統一起來,這是一個比較困難的問題,當然這也是很核心的問題。這個問題如果解決了的話,後續的算法研究可能就會得到很大幫助。

「兩條腿走路」,推動可信AI标準化

可信AI的标準化工作要走在落地實踐的前頭,這是業界的另一大共識。實作上述目标的關鍵在于,要學會「兩條腿走路」,除了政策指導,也需要行業自律。

從國際上來看,一方面是用指南及法案的形式對AI的可信度進行規範,比如歐盟委員會人工智能進階專家組(AI HLEG)釋出的《可信人工智能倫理指南草案》和《可信賴人工智能道德準則》。今年,《歐盟人工智能法案》也已正式釋出。

另一方面是在标準研制上面進行發力。例如美國國家标準技術研究所(NIST)在今年6月釋出了《關于識别和管理人工智能歧視的标準提案》,随後在7月又提出《人工智能風險管理架構》。

相比之下,國内的标準化制定遵循了同樣的思路,包括信通院在内的标準化機構,以及像京東這樣的企業界代表,都在努力推進行業倡議、标準研制。

2020年7月,五部委釋出《國家新一代人工智能标準體系建設指南》;在今年的世界人工智能大會可信AI論壇上,《促進可信人工智能發展倡議》正式釋出;同時,中國人工智能産業發展聯盟人工智能治理與可信委員會也宣告成立。

“我們也希望可以從自身的研究成果出發,協助标準的制定;有了标準之後,一些研究成果也能更好地被量化。比如提供一些量化名額去度量算法的可信賴程度,去設定一些門檻值作為技術标準。”在何鳳翔看來,這相當于“先做出一把制定好的尺子,再去做測量。”

可信AI未來之路,将指向何方?

在可信AI技術實踐過程中,企業必然扮演中堅力量的角色,能夠讓可信AI更好落地并走得更遠。尤其在資料篩選、算法優化、模型設計這些環節中,要找到隐私洩露、算法偏見、内容稽核等問題的最優解,都要依靠企業的不斷摸索。

今年8月,華控清交承建的光大銀行企業級多方安全計算平台上線就是一個企業助力可信AI落地的直覺案例。這是金融行業首個正式投産的企業級資料流通基礎設施平台,标志着多方安全計算真正打通了「産學研用」最後一環,向大規模應用邁上關鍵台階。

據悉多方安全計算能夠同時確定輸入的隐私性和計算的正确性,實作資料的「可用不可見,可控可計量」。“在無可信第三方的前提下,多方安全計算通過數學理論不僅可以保證參與計算的各方成員輸入資訊不暴露,還能夠獲得準确的運算結果。在此基礎上,可通過計算合約機制控制資料用途用量,結合區塊鍊存證有效防止資料濫用。在實作資料隐私保護以及用途用量有效控制的前提下,AI在可解釋性、公平性等層面的研究及落地将會有更多機會。”華控清交标準負責人、戰略總監王雲河表示。

人工智能向“上”生長,可信AI漸行漸近

華控清交标準負責人、戰略總監王雲河

“可信AI涉及面非常廣,涉及到的任務更是非常繁雜。在技術在落地方面,我們認為可以建立一個開放的體系,由不同廠商合作制定出統一的标準,最終成為一個完整的生态體系。”何鳳翔建議。據了解,目前京東探索研究院的隐私計算、多方計算、聯邦學習等技術已經用在對外技術輸出中,針對可解釋性、穩定性的相關技術也進行了最前沿的探索,相關産品也會盡快落地。

自學術界首次提出到各界積極研究,再到産業界開始落地實踐,可信AI内涵也在逐漸地豐富和完善,然而可信AI的落地不單單需要先進技術的支撐,更需要達成理念上的共識。未來發展可信人工智能,還需各界攜手才能共建安全、公平、可控的未來智能世界。

繼續閱讀