天天看點

人工智能安全标準規範制定情況國外 國内參考

      人工智能安全、倫理、隐私保護等的安全相關 标準,大多仍處于研究階段。

國外

       IEEE正在開發人工智能倫理道德标準,規範人工智能安全設計 。2017 年 3 月, IEEE 在《IEEE 機器人與自動化》雜志發表了名為“旨在推進人工智能和自治系統的倫理設計的 IEEE 全球倡議書”,倡議通過基于倫理的設計原則和标準幫助人們避免對人工智能技術的恐懼和盲目崇拜,進而推動人工智能技術的創新。 目前,IEEE工作組正在開發IEEE P7000系列中涉及道德規範的7項倫理标準,分别對系統設計中倫理問題、自治系統透明度、系統/軟體收集個人資訊的倫理問題、消除算法負偏差、兒童和學生資料安全、人工智能代理等方面進行規範,包括:IEEE P7000《在系統設計中處理倫理問題的模型過程》、IEEE P7001《自治系統的透明度》、IEEE P7002《資料隐私處理》、IEEE P7003《算法偏差注意事項》、IEEE P7004《兒童和學生資料治理标準》、IEEE P7005《透明雇主資料治理标準》、IEEE P7006《個人資料人工智能代理标準》、IEEE P7007《道德驅動的機器人和自動化系統的本體标準》、IEEE P7008《機器人、智能和自治系統的倫理驅動推進标準》、IEEE P7009《自治和半自治系統的故障安全設計标準》和IEEE P7010《道德人工智能與自主系統的健康度量标準》。

       ISO/IEC成立人工智能可信研究組,開展人工智能安全标準研究。

       2017 年,人類未來研究所釋出的《阿西洛馬人工智能原則》,旨在確定AI為人類利益服務。有 1273 名人工智能 /機器人研究人員和其他 2541 人簽署并支援了這些原則。呼籲全世界的人工智能領域在發展AI的同時嚴格遵守這些原則,共同保障人類未來的利益和安全[7]。

       2019年3月,歐盟網絡資訊安全局(ENISA)釋出了題為《建立網絡安全政策發展架構——自主代理的安全和隐私考慮》的報告,旨在為歐盟成員國提供一個安全和隐私政策發展提供架構,以應對日益普及的AI應用。2019年4月,歐盟委員會釋出正式版的《可信賴AI的倫理準則(Ethics Guidelines for Trustworthy AI)》,提出了實作可信賴人工智能全生命周期的架構。根據官方解釋,“可信賴的人工智能”有兩個必要的組成部分:一是應尊重基本人權、規章制度、核心原則及價值觀;二是應在技術上安全可靠,避免因技術不足而造成無意的傷害。

        國際和國外标準化組織在生物特征識别、自動駕駛等領域也開展了許多安全标準工作。以自動駕駛領域為例,2012年歐洲電信标準化協會(ETSI)釋出ETSI TS 102941《智能交通系統可信和隐私管理》;2014年美國國家标準技術研究院(NIST)釋出《車聯網網絡攻擊防護安全架構》;2016年美國汽車工程師學會(SAE)釋出SAE J3061《資訊實體汽車系統網絡安全指南》;ISO/TC22(道路車輛技術委員會)正在研制ISO/TR 15497《道路車輛——車用軟體開發指南》等标準。

國内

        我國成立國家人工智能标準化總體組與專家咨詢組,加強人工智 能安全标準研制工作。目前,全國資訊安全标準化技術委員會(TC260)已在生物特征識别、汽車電子、智能制造等部分人工智能技術、産品或應用安全方面開展了一些标準化工作。在生物特征識别安全方面,TC260已釋出GB/T 20979-2007《資訊安全技術 虹膜識别系統技術要求》标準,正在研制《基于可信環境的生物特征識别身份鑒别協定》《指紋識别系統技術要求》《網絡人臉識别認證系統安全技術要求》等标準;在自動駕駛安全方面,2017年TC260立項《資訊安全技術 汽車電子系統網絡安全指南》标準項目,這是我國在汽車電子領域第一個網絡安全國家标準;在智能制造安全方面,TC260正在研制《工業控制網絡監測安全技術要求及測試評價方法》《工業控制網絡安全隔離與資訊交換系統安全技術要求》《工業控制系統産品資訊安全通用評估準則》《工業控制系統風險評估實施指南》等工控安全标準。

參考

信通院人工智能安全白皮書

繼續閱讀