你是不是也經曆過這樣的“怪”事?剛剛浏覽了幾頁某資格考試的網站,教育訓練機構就打來了電話;上周剛把想要售賣的房屋挂到某中介網站上,第二周從未聯系過的數家中介公司就紛紛找上門;自己偶然上傳到社交網站上的照片,不但莫名其妙被盜用,甚至還被人用來非法獲益……當我們沉浸在AI技術帶來的便捷生活的同時,因“黑盒模式”引發的技術不可控、資料安全、隐私洩露等問題卻時有發生,讓人憂心忡忡。

就在12月14日,“談雲說AI”技術産業沙龍首季第一期上線,針對可信AI這一時下被廣泛熱議的話題,京東探索研究院算法科學家何鳳翔,中國資訊通信研究院華東分院人工智能與大資料事業部主任陳俊琰以及華控清交資訊科技(北京)有限公司标準負責人、戰略總監王雲河三位業界大咖彙聚一堂,深度探讨“如何平衡好AI技術的可信與可用”,現場為可信AI出謀劃策。
信任危機頻出 AI技術引發更多思考
今年年初,家住上海的小馬遭遇了這樣一件煩心事兒:僅僅是下載下傳了一款遊戲并根據遊戲要求進行了人臉識别,怎料想一個月後小馬卻收到了自己信用卡在海南的刷卡記錄,簡直大跌眼鏡……
上述事件的發生絕非偶然,伴随以個人隐私洩露以及資料濫用為代表的AI可信問題的層出不窮,的确為社會穩定和個人發展帶來了諸多不良影響。“如今資訊多源且無法在短時間内追本溯源,如果資料使用存在監管漏洞就會直接導緻個人隐私洩露甚至産生直接财務損失。”陳俊琰進一步分析了目前AI技術當中的信任危機。
中國資訊通信研究院華東分院人工智能與大資料事業部主任陳俊琰
AI信任危機還可能引發比較嚴重的人身安全問題。“由于AI技術處在一種黑盒模型基礎上,在一些關鍵領域,例如醫療診斷、自動駕駛等這種性命攸關的行業中,如果出現信任危機就會産生十分可怕的後果。”何鳳翔分析說,這些危機會對行業發展、應用落地,都會産生巨大影響。
更為嚴重的是,如果一旦發生信任危機事件,權責很難界定和追究,甚至會造成社會混亂。有關資訊顯示,今年以來共有8家各類持牌企業累計發生89起自動駕駛交通事故。“如今的自動駕駛的事故,到底屬于算法職責,還是人為職責,抑或是識别的不準确性或者道路環境的不确定性,還很難界定。”王雲河分析說,“舉個例子來說在AI應用中,有人提供資料模組化,有人提供模型,如果模型訓練好後一旦出現差錯,因為多方參與,就很難界定問題到底出在哪裡。”
多方聚力探索 合力共建可信AI生态
面對上述信任危機,各界始終在探尋解決之道。陳俊琰表示,針對可信AI的落地實踐,國際上主要是以指南、法案的形式對人工智能的可信度進行規範,以倫理、以人為本作為可信AI的核心;也有在标準制定上不斷探索的案例,通過建構人工智能管理架構,對可信AI進行監管以提升信賴度。“但這些都有不太完善的地方,例如法案或指南會讓可信AI有明确的界限,但極易産生‘一刀切’的情況。”相比之下與國外不同,我國不斷進行政策層的完善,從政策、生态、法律、标準制定等方面綜合發力,比如《國家新一代人工智能标準體系建設指南》《促進可信人工智能發展倡議》等檔案的出台。
對此京東探索研究院正從四大方面加大對可信AI的研究,即穩定性、可解釋性、隐私保護和公平性。何鳳翔表示:“我們從基礎理論出發來研究最前沿的問題,從這些理論問題、理論結果出發,設計新的可被信賴的全新AI算法,再嘗試把這些AI算法應用到産品中去,完成技術的最終落地。”交流現場,他還集中分享了京東探索研究院在可信AI方面的探索,表示未來非常希望能參與标準制定來進一步保障AI的可信。
京東探索研究院算法科學家何鳳翔
此外王雲河也提出:“在推進可信AI建設的過程中,AI産業需要各方共同努力。從資料流通和資料隐私保護角度看,可加入以多方安全計算等代表的密碼技術,夯實資料流通基礎設施底層支撐能力,加速标準、産業落地。”
華控清交資訊科技(北京)有限公司标準負責人、戰略總監王雲河
對于如何解決AI信任問題,發展AI未來良性循環,三位業界大咖都不約而同給出了終極答案:發展AI可信生态。“可信AI涉及範圍廣泛、實操任務複雜,很難由一家企業或者機構憑借一己之力帶來質的創造與飛躍,是以産學研用全鍊條協作是關鍵;未來業界需建構成熟且開放的生态系統,聚衆家之力才能帶來更多技術、标準以及實踐層面的突破。”何鳳翔代表京東探索研究院表達了對于可信AI未來的暢想。
“從産業層面來說,首先要打造法制體系和完善行業标準,兩者相輔相成、缺一不可;其次還要團結各方力量踐行可信人工智能。在此過程中企業其實是踐行可信AI的中堅力量,可以在資料篩選、算法優化、模型設計中解決隐私洩露、算法偏見、内容稽核等問題來推進AI技術更加可信。“陳俊琰重點談道。
沙龍接近尾聲,三位專家還針對現場觀衆的提問進一步闡釋了可信AI的其他關鍵問題。值得肯定的是,本次沙龍通過對AI可用可信的探讨,為未來AI技術發展提供了諸多有益參考;為深入探索可信AI落地、構築可信生态帶來助力。
—END—