天天看點

螞蟻安全實驗室斬獲NeurIPS & Facebook AI聯合競賽冠軍

導讀

12月10日,由國際人工智能頂會NeurIPS 與 Facebook AI聯合舉辦的圖像相似比對競賽ISC2021落下帷幕,本次比賽共有1635支參賽隊伍參加,是今年NeurIPS會議上最具影響力的比賽之一。來自螞蟻集團的TitanShield Team(titanshield2)以超越第二名10個百分點的成績斬獲圖像表征賽道冠軍。據悉,此次奪冠團隊采用的技術方案是由螞蟻集團獨立自研的、“基于特征相容自監督學習架構”的預訓練模型,能夠針對性地解決内容安全風控領域常見的敏感資訊更疊速度快、風控模型訓練不及時等問題。作為可信AI技術研究及應用中的一環,該技術上線後可降低80%的圖像對抗風險,将有助于極大地提升在内容安全等相關應用領域中的AI魯棒性(Robustness)。

魯棒性:人工智能的第一場大考

 作為人工智能下一階段快速發展的瓶頸所在,安全和可信性決定了人工智能未來三十年的發展速度和應用深度;而AI的魯棒性,即抗打擊能力及穩定性,則成為了人工智能的第一場大考。以圖檔識别領域為例,無人駕駛車輛上加載的圖像識别模型可能因為圖像識别錯誤,而釀成車禍;版權保護場景下,盜版商通過圖檔的變形,試圖繞開反盜版模型的審查;内容安全場景中,将涉毒涉黃資訊隐匿在看似合法的圖檔中,更是黑産團夥獲利的慣用伎倆。“如果抵擋不住攻擊,識别結果不可信,那麼AI模型不僅失去了它存在的意義,還會成為另一個風險敞口”,螞蟻集團資深技術專家博山在采訪中強調。

可信AI:做内容安全戰場的定海神針

      一直以來,敏感資訊複雜多變,模型訓練樣本不足,是各家企業内容安全風控的核心痛點。例如,新增的劣迹藝人、潮流商品的版權圖檔,AI不僅無法預判其出現的趨勢,還需要在其出現後快速做出風控響應;而在兒童軟色情等問題場景下,由于模型訓練樣本不足,如何讓AI實作有效風控成為難題。不僅如此,在全行業分工協作程度不斷加深的今天,各類企業、商戶組成了龐大的生态服務鍊。任一薄弱環節,都可能成為黑産的突破口,對企業自身及關聯企業帶來巨大的負面影響。但由于訓練樣本的敏感性等,如何實作聯合風控,成為行業共同面臨的困境。

    而此次比賽中,奪冠團隊所采用的“基于特征相容的自監督學習架構”的預訓練模型,在圖像識别領域,極大地緩解和應對了上述問題。首先,該技術能夠基于公開資料集進行預訓練,幫助AI提前完成同類風險預演。其次,在傳統的AI識别中,模型識别依賴人工投喂标注了“特征”的樣本;而借助“自監督學習”技術,該模型可以通過自主學習抓取“特征”,幫助下遊訓練收斂加速,将标注需求量降低70%,訓練時間也從原本的一周縮短至3天。同時,創新的“特征相容”方案,能夠實作在兩個業務場景或兩家企業間,借助“特征”資訊的相容共享,實作風險聯防。

    據悉,該模型及相關技術作為螞蟻集團内容安全風控決策引擎的重要組成部分,目前已在支付寶内容安全場景中全面上線,可整體降低80%的圖像對抗風險。

繼續閱讀