天天看點

如何管好AI,人類還沒達成一緻意見

作者:NewEconomist

來源:知識分子

如何管好AI,人類還沒達成一緻意見

撰文 | 孔奧 吳唯玥 劉少山

在一個越來越受算法驅動的世界裡,人工智能(AI)已超越了科技界的熱門話題,成為推動全球經濟、社會治理,乃至改變我們日常生活方式的關鍵力量。面對技術的快速進步,一個重要的全球問題浮現出來:如何監控AI的發展不危害人類,與人類的價值觀和全球利益相契合?

本文通過分析在AI領域處于領先地位的三個大區域——美國、歐盟和中國的監管理念和做法,探讨它們如何影響技術的未來發展。

同時,文章也試圖解決一個關鍵問題:我們如何建構一個既能适應AI不斷變化的特性,又能滿足全球治理需求的監管機制?

美國:自我監管容易導緻壟斷

美國在隐私、網絡安全和消費者保護這三個領域均采用了特定行業的監管原則。美國的監管法律是自下而上形成的,各行業團體首先提出法律草案,随後通過立法機構進行反複修訂和完善。美國的立法體系賦予每個行業自主制定與其行業相關的監管法律的權限。

美國政府要求AI領軍公司自願承諾管理AI風險,這反映了其對特定行業方法的支援。例如,Meta公司(原Facebook)就成立了AI責任團隊,并啟動了”生成式AI社群論壇",以透明方式征求公衆對AI産品的回報。

這種依賴于行業自我監管的方法得到了一些專家的支援,他們認為由行業從業者組成的專家小組對特定領域有深刻了解。通過将AI專家納入這些小組,可以為各行業的AI應用建構出複雜而詳盡的監管架構。

然而,這種方法也存在自我監管的任意性和由幾家主導企業控制規則的風險。鑒于AI的變革性影響和迅速普及,需要警惕過分依賴“善意”的做法,以及少數行業和企業在規則制定上可能占據的主導甚至壟斷的地位。

在監管執行方面,美國同樣采用了針對特定行業的方法。例如,随着企業越來越多地轉向數字化營運,網絡安全成為各行業的關鍵關注點。網絡安全主要由國土安全部的網絡安全和基礎設施安全局負責,而聯邦貿易委員會和證券交易委員會等其他機構則分别在特定行業中承擔特定職責。消費者保護方面也是如此,多個機構跨行業工作,其中聯邦貿易委員會是主要負責機構,而消費者金融保護局和食品藥品管理局等在特定行業内扮演重要角色。

歐盟:監管過嚴可能抑制創新

歐盟的《人工智能法》繼承并發展了《通用資料保護條例》(GDPR)的立法架構,提出了一個全面的AI監管體系。這一體系涵蓋了從定義高風險AI系統的要求到成立歐洲人工智能委員會的各個方面。該法案特别強調了使用者安全和基本權利的重要性,并規定了AI系統的透明度标準以及對AI供應商的嚴格市場後監測規則。此舉顯著展現了歐盟在人工智能領域中培養以人為本、道德導向的生态系統,以及保護公衆利益的堅定決心。

《人工智能法》基于風險的核心理念,将AI産品分類并對每個類别施加不同程度的監管。這種分類考量了AI産品可能帶來的潛在風險,并相應地提出了必要的保障措施。例如,低風險AI系統(如垃圾郵件過濾器或視訊遊戲算法)可能隻受到最低限度的監管,以保持其創新性和可用性。而對于高風險應用(例如生物識别和關鍵基礎設施的應用),則施加了更為嚴格的要求,包括嚴密的風險管理和增強使用者透明度。

為了執行該法案,歐盟采取了建立中央監管機構的做法,即成立了人工智能委員會,負責詳細制定AI的法律架構,解釋和執行《人工智能法》的規定,并確定整個歐盟範圍内的高風險AI系統受到統一監管。然而,《人工智能法》在實施過程中可能面臨類似于GDPR的挑戰,如意外後果和複雜規則給企業帶來負擔,未能顯著提高使用者信任或體驗。

基于風險的監管方法可能過于簡化了AI産品的複雜現實,忽視了AI系統固有的不确定性和多樣化風險場景。最近的研究表明,大量AI系統可能被歸類為高風險,暗示這種方法可能導緻過重的監管負擔,進而阻礙有益技術的發展。

考慮到AI的快速發展和全球部署,單一的集中監管實體,盡管采用了全面的方法,但在應對AI問題的多樣性和快速變化方面可能面臨挑戰。決策瓶頸和官僚程式的延遲可能會妨礙對動态AI環境中至關重要的及時響應,影響監管的效率和适應性。雖然成立人工智能委員會的目的值得肯定,但其在應對現實世界的複雜性方面的有效性仍有待驗證。

中國:尋找強力監管和行業創新的平衡點

中國在人工智能領域的監管政策和方法展現了國家的引導和控制。中國不僅将人工智能視為技術發展的一個方面,更是國家經濟和社會基礎設施的重要組成部分。這與中國對能源、電力等傳統公共資源的管理方式相一緻。中國的主要目标是在確定安全和有序的前提下,促進人工智能及其應用的發展,同時避免私營部門可能産生的過度影響或壟斷現象。

近期出台的人工智能相關法規反映了中國在這方面的決心。這些法規與《網絡安全法》的原則相契合,将原本針對網際網路服務提供商和社交媒體平台的監管責任擴充到了涉及人工智能的服務提供商。這意味着人工智能服務提供商需要在監管機構的指導下營運,并向相關機構報告其操作和維護的詳細記錄。這些法規在ChatGPT推出後不久迅速制定并實施,顯示了中國監管機構與人工智能快速發展步伐保持一緻的決心。

這種國家主導的人工智能監管模式不僅有利于確定人工智能的發展符合國家的整體發展戰略和規劃,而且對于那些需要謹慎對待人工智能技術快速普及及其潛在影響的開發中國家來說尤其重要。

與此同時,相較于中國傳統上所監管的諸如土地、礦産和電力等公共資源,人工智能的動态和快速發展性質要求監管架構必須靈活、知識更新頻繁,并且需要大量的計算資源支援。面對這一挑戰,中國正在努力尋求一個平衡點:一方面要通過強有力的監管機制保障公共利益,另一方面也要保持足夠的靈活性,以激發創新并允許行業進行必要的實驗和探索。

有必要建立一個全球AI治理機構嗎?

鑒于人工智能(AI)技術及其影響不受國界限制,聯合國面臨着建立一個統一全球AI監管機制的重要任務,旨在跨越文化和政策的分歧。

建構一個真正“目标适應”的全球AI監管體系是一項巨大的挑戰。正如美國、歐盟和中國的不同監管政策所示,關鍵在于如何處理複雜的社會經濟和政治差異,以及各國在法律和行政體系中根深蒂固的監管傳統。

各國在評估AI監管的時候,需考慮技術在不同國家背景下的應用和相應的利弊。發達國家可能更注重風險控制和隐私保護,而開發中國家或許更傾向于利用AI促進經濟增長和解決迫切的社會問題。為平衡這些不同目标,聯合國需要利用其獨特地位來推動跨文化對話,協調不同的觀點。

AI的開放源代碼和自我生成特性要求一種靈活、迅速反應的治理機制,超越傳統的、如核能這樣高風險技術的治理體系。有提議建立一個國際AI機構,類似于國際原子能機構(IAEA)在核治理中的角色,以指導各國的AI政策,并随着AI技術的發展填補政策空白。

然而,我們認為,國際原子能機構之是以高效,是因為其監管的核實體數量較少,且核軍備限制在少數國家。與核風險不同,AI的開源性和非國家行為者的重要影響可能需要一個更加開放和動态的監管平台,類似于GitHub這樣的雲服務平台,而不是傳統的、定期召開協商會議的集中治理模式。

鑒于AI技術在不同領域的廣泛應用和其帶來的多樣化風險,如大規模失業、深度僞造和武器自動化,必須確定來自不同社會經濟部門、地理環境和種族群體的廣泛參與,以實作包容性決策。

人工智能的發展尚處于初級階段,但如果不采取緊急且适當的幹預措施,其無管理的快速增長将可能導緻類似大流行的情況。基于這些分析,我們建議建立一個全球開源公共産品治理機制,該機制将堅守安全、人類尊嚴和公平的标準,確定地緣政治、技術和社會經濟方面的多元代表性,尊重國家優先事項和文化背景,并适應人工智能的自我生成和開源特性,為全球AI監管奠定堅實基礎。

總結之,全球AI治理不僅是一個技術上的挑戰,更是一個政策和倫理的議題。随着AI技術在全球範圍内迅速發展和滲透,需要一個綜合性、多元化且适應性強的治理架構來確定其發展與全球利益及人類價值觀保持一緻。美國、歐盟和中國的案例展示了不同的治理政策和方法,各有其優勢和局限。這些不同的方法揭示了AI治理的複雜性,同時也為全球治理架構的建構提供了寶貴的參考。

最終,我們提出的基于開放源代碼、面向公共利益的全球AI治理架構,旨在結合這些不同的方法和見解,建構一個能夠适應快速變化的技術環境,同時滿足全球治理需求的系統。聯合國在這一程序中将扮演至關重要的角色,不僅是架構的塑造者,也是其推動可持續發展目标實作的關鍵力量。

作者簡介:

孔奧,聯合國(United Nations)對外合作關系主管,聯合國科技銀行進階項目專家。

吳唯玥 牛津大學(Oxford)工商管理碩士,賓州大學(UPenn)法律碩士。

劉少山,深圳人工智能與機器人研究院(AIRS)具身智能中心主任,國際計算機學會(ACM)技術政策委員會成員。

參考文獻略。

繼續閱讀