天天看點

歐盟《人工智能法案》邁出新一步:明确AI價值鍊責任 建立高風險AI系統資料庫

作者:王琦 785

21世紀經濟報道 記者 鄭雪 北京報道

在人工智能展示了其非凡的創造力以及潛在的危害力之後,越來越多力量加入了呼籲監管的隊伍之中。

近日,為確定歐洲人工智能以人為本的道德發展,歐洲議會内部市場委員會和公民自由委員會以 84 票贊成、7票反對、12票棄權通過了《人工智能法案》的談判授權草案。修改後的《人工智能法案》針對人工智能基礎模型、價值鍊責任和最近大熱的生成式人工智能做出回應,同時研究了針對企業尤其是中小企業和初創企業的豁免條款。

大型網絡平台推薦系統被列入高風險

歐盟關于人工智能立法的程序,最早可以追溯到2018年的《人工智能時代:确立以人為本的歐洲戰略》報告,報告解讀了歐盟在人工智能領域的最新發展現狀;2021年4月21日,歐盟委員會正式提出《人工智能法案》提案,世界範圍内第一部針對人工智能進行規制的法律邁開制定的腳步。

北京師範大學法學院博士生導師、中國網際網路協會研究中心副主任吳沈括在接受21世紀經濟報道記者采訪時表示,歐盟的立法強調結合歐盟自身的經濟技術、現狀,同時服務于歐盟打造世界級經濟體和確定數字主權、技術主權的政策目标,在強調保障創新發展的同時突出展現了以風險管理為導向的監管思路,它的制定出台會對世界人工智能産業發展生态和人工智能監管走向帶來非常大的影響。

監管架構定義了人工智能的4個風險級别:不可接受的風險、高風險、風險有限、最小或無風險。這些規則基于風險制定,并根據人工智能可能産生的風險級别為提供者和使用者規定義務。

風險級别上,所有被認為對人們的安全、生計和權利構成明顯威脅的人工智能系統都被認為是不可接受的風險而将被禁止,包括部署潛意識或有目的地操縱技術、利用人們的弱點或用于社會評分。

這次法案大幅修改了不可接受的風險相關名單,禁止侵入性和歧視性地使用人工智能系統,例如公共場所的“實時”遠端生物特征識别系統,使用敏感特征的生物識别分類系統,預測性警務系統等都被禁止。

而在高風險級别方面,歐洲議會議員擴大了高風險領域的分類,對人們健康、安全、基本權利或環境造成危害的人工智能屬于此類。高風險人工智能系統在投放市場之前将受到嚴格的義務限制。同時他們認為,被認定為大型網絡平台的社交媒體平台(根據《數字服務法》擁有超過 4500 萬使用者)所使用的推薦系統,會對網絡安全、公衆輿論、選舉等産生強烈影響,也被列入高風險的人工智能。

值得注意的是,《人工智能法案》認為,人工智能系統的概念應明确定義,并與從事人工智能工作的國際組織的工作密切一緻,以確定法律的确定性、統一性和廣泛接受性,同時提供靈活性以适應該領域的快速技術發展。此外,它應該基于人工智能的關鍵特征,如學習、推理或模組化能力,以便将其與更簡單的軟體系統或程式設計方法區分開來。

厘清産業鍊各主體責任配置設定

《人工智能法案》針對人工智能價值鍊責任的義務劃分、基礎模型提供者和生成式AI等最新問題做了相應回應。

在人工智能價值鍊責任配置設定上,法案中提到,任何分發者、進口者、部署者或其他第三方應被視為高風險人工智能系統的提供者,需要履行相應的義務。如在高風險人工智能系統上标明名稱、聯系方式,提供資料規格或資料集相關資訊,儲存日志等。

“在AIGC産業鍊中,具有多種形态。例如,在模型即服務(MaaS)的産業模式下,可能上遊基礎模型的服務提供者是供應者,中間會有中間層負責對點工具的開發;到了下遊也就是具體的應用場景中,可能會有進一步的直接面向個人使用者的服務提供者。此外,開源模式下,有人利用開源軟體結合資料進行微調和部署,在這個領域當中,這個供應者、分發者、進口者和部署者可能就又是不一樣的。”對外經濟貿易大學數字經濟與法律創新研究中心執行主任張欣介紹,歐盟的《人工智能法案》較為清晰地厘清了AIGC産業鍊上的主體責任,同時根據主體之間的具體角色、具體特質進行了劃分,很大程度上展現了公平的責任。

在吳沈括看來,在立法思路上,歐盟慣常于剖析分解生态當中上下遊不同角色之間的作用地位,并根據這些因素劃定義務和責任範圍。對于責任的劃分基于調研得出,上下遊不同企業發揮什麼樣的作用就承擔什麼樣的角色。同時,根據他們對于這個生态的影響和價值,依據比例原則配置相應的義務内容,設定相應的處罰強度。

而在通用人工智能方面,《人工智能法案》也對基礎模型提供者的義務進行了規定,如需要評估和降低風險,遵守設計、資訊和環境要求,在歐盟資料庫中注冊。通用型人工智能是指非為特殊目的進行特别設計的具有廣泛适用性的人工智能系統,其一般功能包括但不限于圖像和語音識别、音頻和視訊生成、模式檢測、問答、翻譯和其他功能。

對于GPT這樣的生成式基礎模型來說,基礎模型的設計和開發必須有足夠的保障措施,確定其符合歐盟法律。同時,根據透明度規則的要求,隻要文本是 AI 生成的,它就必須披露;需要設計模型以防止其生成非法内容;對于訓練資料,需要提供版權法所涵蓋的詳細摘要。

張欣提示,關于人工智能所使用的資料,此次法案存在算法透明度和知識産權兩條路徑。未來生成式人工智能的産業鍊發展當中,從知識産權角度來說,對于資料集的訓練、所著圖檔文字如何進行合理的利益配置設定提供了借鑒的思路。

關切中小企業和初創企業

21世紀經濟報道記者梳理發現,在監管方式上,《人工智能法案》除提出監管沙盒外,還提到了高風險人工智能系統資料庫。這是由歐盟與各成員國合作建立的一個公共資料庫,相關供應商應按照相應要求将規定的資料輸入該庫中。同時規定,資料庫中的資訊應向公衆免費提供。

在張欣看來,該資料庫是對算法透明度、公衆知情權、商業秘密三者之間一個較為平衡的做法。目前來看,結合商業秘密的考量,算法可解釋性非常低。在這種情況下,對于公衆來說要想去了解它的運作邏輯、預見可能産生的風險,其實是非常難的。“這種做法類似于我們國家的算法備案,通過建立資料庫向公衆進行公開,建立了一個比較好的合理的透明度。在人工智能領域,深度神經網絡雖然可解釋性有限,但用于訓練的資料集通常可以通過資料解釋的方式提升整體的透明度。”

“這是一個比較前沿的實踐方式,目的是建立有關高風險系統的一個資訊資料池,彙聚各種資訊和資料,幫助各層級監管執法乃至社會監督的過程當中,對于高風險系統有一個更為直覺、更為動态和前沿的認知,而且這個資料庫處于持續更新的狀态。”吳沈括對21世紀經濟報道記者表示。

同時,《人工智能法案》對于中小企業、初創企業也給予了相應的豁免。如“第28(a)條 單方面強加給中小企業或初創企業的不公平合同條款”規定,一個企業單方面強加給中小企業或初創企業的相關合同條款或措施,如果是不公平的,則對後一企業沒有限制力。同時監管沙盒的其中一個很重要目标,便是要確定中小企業和初創企業能夠輕松通路沙盒,積極參與開發和測試。

就像聯合報告員Dragos Tudorache所表示的,“我們一直緻力于支援歐洲的人工智能創新,為初創企業、中小企業和行業提供發展和創新的空間”。

支援中小企業創新,在張欣看來非常重要。一方面,大模型的研發可能出現新一輪的技術壁壘,對于監管來說,相關政策在制定過程中需要對相關利益配置設定進行适當平衡,否則就可能對于中小企業和初創企業産生擠壓作用。另一方面,人工智能技術的創新群組織規模、架構之間有着非常重要的相關性。以OpenAI為例,作為一個隻有300人團隊的中小企業研發了ChatGPT。

吳沈括認為這是歐盟關于平衡安全監管和發展創新之間的一個機制創新。反映了歐盟一貫以來對于中小企業發展的扶持優待政策,同時也跟歐盟境内超過95%以上屬于中小企業的經濟基礎是相比對的,它的核心是在監管的同時為中小企業的創新,留下必要的發展空間。

針對最近的談判授權草案,歐洲議會預計将在 6 月 12 日至 15 日的會議期間進行表決。得到準許之後,相關法案便可進入下一立法環節,一旦獲得準許,歐盟《人工智能法案》将有望成為全球首部有關人工智能的法規。

張欣表示,歐盟的人工智能法案為相關國家立法提供制度參考,規則與規則之間的嵌套和搭配非常精細,踐行了基于風險的人工智能分類分級治理思路。除此之外,該治理規則得到一整套人工智能的監管和治理工具,如認證、評估等進行支撐,

但是她也提出了一個更加值得思考的問題。“歐盟雖然立法精細,但是歐盟的整個人工智能企業、數字化企業的發展卻沒有那麼的先進。是以從更廣泛、更宏觀的角度來講,人工智能或者說高新科技領域的立法,和高新科技領域的創新之間,相關性到底是怎麼樣的,也可能值得我們去觀察、思考。”

更多内容請下載下傳21财經APP

繼續閱讀