21世紀經濟報道記者 鄭雪 馮戀閣 實習生陳國培 北京、廣州報道
人工智能風險治理有了新突破。
近日,美國拜登政府于白宮召集美國七家AI頭部公司并獲得了七家人工智能頭部企業的自願性承諾,確定人工智能技術的安全性、有保障性和可信任性。
自以ChatGPT為代表的生成式人工智能快速發展以來,關于生成式人工智能的風險管控成為各方關注焦點。即便是此前被認為重視産業發展的美國,也對目前階段的人工智能發展中的安全問題給予足夠關切,AI七巨頭自願承諾,代表着美國向發展負責任的人工智能邁出了關鍵一步。
承諾影響的或許不止美國,新聞稿顯示,在國内推進這一承諾的同時,美國政府還将與盟友和合作夥伴合作,建立一個強有力的國際架構來管理人工智能的開發和使用。
保護模型權重 開發AI辨別系統
“正在開發此新興技術的公司有責任確定他們的産品是安全的。為了充分發揮人工智能技術的潛力,拜登-哈裡斯政府鼓勵人工智能行業制定并遵守最高行業标準,以確定創新不會以犧牲美國人民的權利和安全為代價。”刊登于美國白宮網站的新聞稿顯示。
齊聚白宮的七家AI公司分别為亞馬遜、Anthropic、谷歌、Inflection AI、Meta、微軟和OpenAI。
其中,Anthropic被認為是OpenAI強有力的競争對手,由OpenAI前研究副總裁Dario Amodei等人在2021年建立,今年7月推出了新版人工智能聊天機器人Claude 2,公司目前估值為41億美元。Inflection AI是一家成立于2022年的年輕公司,今年5月推出名為Pi的個人AI助理,6月底完成一筆價值13億美元的融資,是目前人工智能熱潮中規模最大的一筆融資之一。
承諾書主要強調了未來人工智能發展的三個原則:安全,保障和可信任。具體來看,七家人工智能公司作出的承諾涵蓋多個領域。
安全方面,在向公衆推出産品之前,公司確定産品是安全的。
公司承諾在人工智能系統釋出前進行内部和外部的安全測試。這些測試部分由獨立專家進行,防範重要的人工智能風險源(如生物安全和網絡安全)及其對社會造成的進一步不利影響。
公司還将強化同業界、政府機構、民間和學術界的資訊交流和技術合作,分享關于應對人工智能風險的資訊。
保障方面,承諾建構安全第一的系統。
公司将投資建立網絡安全和内部威脅保護措施,以保護專有的和未釋出的人工智能模型權重;公司還會委托第三方尋找并報告他們人工智能系統中的漏洞。因為即使在人工智能系統釋出後,相關問題仍然可能存在,而強大的報告機制則讓這些問題能夠被快速找到并修複。
可信方面,公司将采取多種方式赢得公衆信任。
公司會公開報告模型或系統的能力、局限性以及适宜和不适宜使用的場景,并讨論其社會風險和安全風險,如對公平性和偏見的影響;此外,還将優先研究人工智能系統可能帶來的社會風險,包括如何避免有害的偏見和歧視、如何保護隐私等。
7家公司還承諾将開發強大技術機制,如水印系統,確定使用者知道内容為人工智能生成。這一行動使人工智能的創造力得以蓬勃發展,減少欺詐和欺騙風險。
“現階段,AI辨別具有一定的可操作性。圖檔、視訊類資訊内容采用水印等技術進行處理較為簡單,但是對于文字類資訊内容而言,生成階段對純文字内容進行辨別較為困難,需要技術公司與平台方進行合作。”北京航空航天大學法學院副教授趙精武向21世紀經濟報道記者介紹道。
美國人工智能七巨頭的自願承諾隻是人工智能發展的第一步。白宮官網顯示,未來還有更多的工作正在進行中。政府将繼續采取行政措施,推動兩黨立法,幫助美國在負責任地創新和保護方面走在前列。
作為美國人工智能産業的“領頭羊”,七家人工智能公司所作承諾影響深遠。有觀點認為,承諾書多為原則性内容,未設定時間表;且因為自願承諾,不具有強制執行力。
“七家公司所作出的自律承諾雖然僅僅是道德倫理層面的承諾,但在未來立法或者監管實踐中可以借由企業社會責任制度確定七家的實際履行。”此外,趙精武指出,從承諾内容來看,“安全、可靠和可信”将會成為未來全球人工智能領域的行業标準。技術企業也不再能以純粹的技術風險為由規避承擔人工智能産品、服務的侵權責任。
美國國内監管動态頻頻 企業違法或面臨算法罰沒
承諾書的達成隻是美國AI治理的一步。近段時間以來,美國政府對于人工智能保持密切關注,調查動作頻頻。如7月中旬,據媒體報道,美國聯邦貿易委員會(FTC)或将對OpenAI公司展開全面調查。
FTC向OpenAI發出了一份長達20頁的檔案,其中詳細列舉了OpenAI需要解釋的問題以及送出的書面證據。具體來看,調查檔案中對OpenAI提出了多項質詢,包括個人資訊的監控、收集、使用和保留的舉措;如何保護使用者的隐私、防止針對系統的提示語注入攻擊;如何評估和解決風險等。
針對模型訓練,FTC要求公司提供訓練模型的疊代和修改過程;訓練中使用的問答樣例以及如何評估問答的品質;較長的描述公司在向公衆釋出新的大型語言模型産品(或産品新版本) 前評估風險和安全性所遵循的政策和程式。
生成式人工智能産品生成虛假内容、知識産權侵權等問題一直是新一波人工智能浪潮下關注的焦點之一,而問題的産生可能同用以訓練的資料有所關聯。
訓練資料方面,FTC要求OpenAI解釋資料的來源、擷取方式以及公司如何識别、評估、審查和選擇模型資料源等。此外,調查檔案中要求公司較長的描述如何識别、評估和測試大型語言模型生成内容包含真實個人資訊;如何判斷包含對真實個人的虛假、誤導或诋毀性陳述;采取了何種措施降低以上風險等。
除了對關鍵性問題作出說明解釋,OpenAI還被要求提供從2017年至今與大型語言模型及其産品相關的合同協定、風險聲明、測試檔案等。
“FTC的問詢以洩露資訊為開端,無助于建立信任,這令人失望。”對于此次調查,OpenAI首席執行官Sam Altman發推文表示。不過他也聲明,公司将配合FTC的工作。
早前,在今年2月,為應對人工智能技術在内的高新技術廣泛應用将帶來市場變革,FTC成立了技術辦公室(Office of Technology,OT),旨在加強機構的内部能力,以調查和減輕對新興技術可能對消費者和市場的帶來的傷害。
官網顯示,為了使該機構能夠更好地應對目前和未來的技術威脅,OT将通過建立一支在資料安全、人工智能、機器學習和人機互動設計等一系列專業領域擁有深厚專業知識的技術專家團隊。這支團隊将由該機構的首席技術官(Chief Technology Officer)上司,并與聯邦貿易委員會其他部門合作以滿足跨學科的需求。
具體而言,OT的職責包括加強和支援執法調查和行動、與 FTC 從業人員和委員會合作提供專業知識、報告等、與公衆和外部利益相關者交流以确定關鍵趨勢和最佳實踐。
監管動态不斷,在美人工智能企業可能面臨怎樣的風險?
對外經濟貿易大學數字經濟與法律創新研究中心執行主任張欣指出,FTC調查結果若屬實,OpenAI可能面臨罰款甚至是“算法罰沒”(algorithm destruction)的風險。
“算法罰沒是FTC近期的有力執法武器之一。”張欣向南方财經全媒體記者解釋道,若FTC判斷相關産品存在風險,可能會要求涉事公司删除資料,并删去基于資料訓練而成的AI模型和算法。
“美國近來的監管調查舉措漸多,事實上反映了當下美國和國際對生成式人工智能以及具有通用潛能人工智能的監管趨勢。”張欣介紹道,美國政府層面,白宮成立了生成式人工智能工作組開始征求意見和布局立法準備。目光轉向國際社會,聯合國秘書長古特雷斯在今年以來已經不止一次建議成立國際AI監管機構。
提出“負責任創新”,搶占國際技術話語高地
人工智能成為全球新一輪競争的焦點。此番競争中,人工智能風險監管已經成為目前政策治理中不可或缺的考量因素。相關實踐看來,各國在治理措施中表現出了一定共識:AI需要監管,但同時鼓勵創新。
“共識主要表現為人工智能技術的研發者和使用者應當以合理合法的方式應用該技術,并且歐盟、中國也共同采取了科技倫理審查等類似制度作為衡量人工智能技術應用合理性的柔性标準。”趙精武說道。
具體監管方面,表現出了差異。美國、歐盟等暫時尚未對人工智能技術研發企業作出直接的禁止性規定,其中歐盟傾向于從人工智能整體行業提出鼓勵性或倡議性的監管要求。而中國的AI監管模式則是以具體的技術應用場景為導向,在人工智能監管領域先後出台了《網際網路資訊服務算法推薦管理規定》《網際網路資訊服務深度合成管理規定》《生成式人工智能服務管理暫行辦法》等。
此次,美國人工智能發展風險管控的着眼點不隻在國内。根據白宮新聞稿内容,“随着我們在國内推進這一議程,政府将與盟友和合作夥伴合作,建立一個強有力的國際架構來管理人工智能的開發和使用。”
據介紹,美國政府已經就自願承諾與澳洲、巴西、加拿大、智利、法國、德國、印度、以色列、意大利、日本、肯亞、墨西哥、荷蘭、紐西蘭、奈及利亞、菲律賓、新加坡、南韓、阿聯酋和英國進行了磋商。同時,希望美國在日後能夠填補日本在七國集團廣島程序中的上司地位(該程序是制定人工智能治理共同原則的重要論壇)、英國在主辦人工智能安全峰會方面的上司地位和印度作為人工智能全球夥伴關系主席的上司地位。
趙精武提示,從“盟友和合夥”等表述就可以看出,美國更希望以上司者的身份主導人工智能技術國際規則制定,加之美國境内的七家技術公司本身就具備國際領先的人工智能技術,美國所謂的AI全球規則實際上也從技術發展角度對其他國家的人工智能應用提出限制性要求。
此外,此次新聞稿重申美國關于人工智能發展的态度:人工智能要“負責任創新(lead the way in responsible innovation)。”記者不完全梳理發現,美國之前的相關人工智能發展政策和監管檔案大多圍繞“負責任創新”而進行。
2022年6月,美國國防部釋出《美國國防部負責任的人工智能戰略和實施路徑》;2022年10月,美國白宮釋出的《人工智能權利法案藍圖》,提出負責任地使用人工智能(AI) 路線圖;2023年《人工智能風險管理架構(第一版)》釋出,表示AI RMF 的目标是為設計、開發、部署或使用 AI 系統的組織提供資源,以幫助管理 AI 的諸多風險促進人工智能系統值得信賴和負責任地開發和使用。
趙精武提示,一方面,無論是對美國,還是對于其他國家而言,任由人工智能技術應用野蠻生長,并不會對産業有任何積極作用,反而會因為濫用技術風險導緻社會經濟不穩定。另一方面,“負責任創新”另一重目的是為了提前搶占人工智能技術國際标準的制定權和話語權,通過美國自行設定的“負責任創新”标準,對他國及其技術企業實施看似合理正當的内政幹涉和業務活動打壓。
更多内容請下載下傳21财經APP