天天看點

NIST釋出人工智能風險管理新架構檔案

作者:AI時代前沿

美國商務部下屬國家标準與技術研究院(NIST)釋出了《人工智能風險管理架構》(RMF),該檔案旨在幫助指導機構組織在開發和部署人工智能系統時,不會産生偏見和其他負面後果。人工智能律師事務所BNH.AI的創始人Andrew Burt表示,該檔案很好地定義了組織未來降低人工智能風險的标準法律方法。

NIST釋出人工智能風險管理新架構檔案

随着人工智能發展步伐的加快,使用人工智能的潛在危害也在加快。NIST應美國國會的要求,設計了RMF,在一種指導規範下來建立負責任的人工智能系統。

RMF執行摘要指出:“如果沒有适當的控制,人工智能系統會放大、延續或加劇個人和社群的不公平或不良後果。”“通過适當的控制,人工智能系統可以減輕和管理不公平的結果。”

這份48頁的檔案,以四種方式幫助組織進行人工智能風險管理,稱為RMF核心功能——包括“成長”地圖(Map)、測量(Measure)、管理(Manage)和治理(Govern)。

NIST釋出人工智能風險管理新架構檔案

首先,它鼓勵使用者全面規劃人工智能系統,包括預期的商業目的和使用人工智能可能造成的潛在危害。預設人工智能系統産生積極和消極結果的不同方式對整個過程至關重要。業務環境在這裡至關重要,組織對風險的容忍度也是如此。

第二,RMF要求有道德的人工智能從業者使用第一步中建立的地圖來确定如何以定量和定性的方式衡量人工智能系統所産生的影響。RMF表示,應定期進行測量,包括人工智能系統的功能、可檢查性和可信度(避免偏差),并将結果與基準進行比較。

第三,組織将使用第二步中的測量結果來幫助其持續管理人工智能系統。RMF架構為使用者提供了管理已部署人工智能系統風險的工具,并根據評估的風險和風險優先級配置設定風險管理資源。

地圖、測量和管理功能在一個總體治理架構下結合在一起,該架構為使用者提供了實施風險緩解戰略所有必要組成部分的政策和程式。

RMF沒有法律效力,而且可能未來也不會。但Burt表示,它确實為人工智能風險管理提供了一種可行的方法。

NIST架構的部分優勢在于它是自願的,而不是監管,這可能會成為一個治理标準。

BNH.ai為許多客戶進行AI審計,Burt預計RMF方法将成為未來進行AI審計的标準方式。公司很快意識到需要審計自己的人工智能系統,以確定他們不會以有害的方式傷害使用者或使偏見永久化。

如今,大部分風險源于快速采用ChatGPT等工具以及其他大型語言模型和生成型人工智能模型。由于這些系統是基于來自整個網際網路的資料集進行訓練的,是以訓練資料中包含的偏見和仇恨言論的數量可能令人震驚。

NIST釋出人工智能風險管理新架構檔案

在某些方面,RMF将成為美國對标歐盟人工智能法案的檔案。2021首次提出的《歐盟人工智能法案》很可能在今年成為法律,其可接受風險等級将對公司部署人工智能系統的能力産生巨大影響。

然而,這兩種方法之間存在很大差異。首先,《人工智能法案》将具有法律效力,并将對違法行為處以罰款。另一方面,RMF是完全自願的,并将通過成為律師可以在民事法庭上引用的行業标準來實施改變。RMF具有通用性和靈活性,足以适應快速變化的人工智能環境,這也與《人工智能法案》不同。

歐盟的做法傾向于系統化,固化不靈活,試圖一次解決所有問題。有可能會抑制人工智能高速創新和發展的腳步,當然與此同時風險也會大大降低。NIST RMF要靈活得多,使得人工智能的開發和應用門檻降低,有利于創新和普及的速度提高。

繼續閱讀