天天看點

人工智能疾風勁吹,企業呼籲明晰權責邊界、分類分級監管

作者:王琦 785

21世紀經濟報道記者 鐘雨欣 馮戀閣 實習生劉爽 北京報道

2022年底,ChatGPT橫空出世,掀起了新一輪人工智能革命。此後,各國科技公司紛紛加碼大模型研發,“千模大戰”愈發激烈。人工智能疾風勁吹,深刻地改變着社會生産力與生産關系,同時,資料洩露、版權糾紛、歧視偏見等伴生風險成為隐憂,全球都在進行人工智能治理話語競賽,尋求監管主導權。在此背景下,中國将會如何通過立法來貢獻出具有中國特色的AI治理路徑?

8月15日,由中國社會科學院法學研究所主辦,中國社會科學院法學研究所網絡與資訊法研究室、南财合規科技研究院等共同承辦的“全球治理話語競賽下人工智能立法的中國方案”研讨會在北京舉行,研讨會邀請監管部門、專家學者與行業代表,共同就大陸人工智能發展相關問題建言獻策。

人工智能産業鍊特性使責任原則難落實

人工智能浪潮湧起,技術發展帶來的挑戰與機遇影響着産業鍊的每一環節。星紀魅族集團有限公司資料合規執行總監朱玲鳳從産業鍊的角度探讨了目前人工智能治理的難點。“移動應用的生态系統,從APP到SDK、應用分發、作業系統,我們一般稱之為‘生态圈’。但人工智能有所不同,是有上下遊關系的,晶片、算力、存儲、算法模型等缺一不可,才能最終形成服務,可以了解為‘産業鍊’。”

朱玲鳳表示,人工智能産業鍊是分散式的,互相依存且處于動态變化中。“服務的最終形态會因過程中的資料輸入、場景和選擇鍊路變化而發生改變。例如,當上遊的訓練資料過程存在人口統計偏差卻沒有及時處理,下遊投入應用,如面部識别時,則可能因代表人群缺失等缺陷而産生極端事件。”

“新興行業通常會推崇責任原則,強調企業能夠證明自己已經有效履行合規義務。但在人工智能産業鍊上,責任原則很難落實,風險管理制度處于失效狀态,對于研發者來說很難基于使用場景來識别和管理風險,提供者來說了解使用場景,但是可能并不掌握訓練資料、模型選擇、模型測試等情況,無法實際判斷風險。”朱玲鳳說。

小米集團進階法務總監陳一夫認為,目前AI技術水準仍屬于弱人工智能,是完成特定任務的資訊化工具,不具備自主意識,現有法律架構仍可以規制。但長遠來看,AI技術的革命性創新給社會關系帶來根本性的挑戰。一是社會倫理的挑戰,如教育、隐私、網絡安全、欺詐、歧視等等。二是經濟的挑戰,人工智能可能對勞動者進行替代,引發就業問題。三是生存的挑戰,未來具有自主意識的強人工智能對人類文明的影響不可控。是以,需要全社會在倫理次元有更多思考。同時,企業要建立正确的科技理念,技術發展要對人類文明有長期價值,長期持續投入,給人工智能賦予人類的價值觀。

企業呼籲明晰權責邊界、分類分級監管

人工智能技術與各個産業融合漸深,覆寫多種應用場景,不同類型、程度的風險也逐漸被人注意。然而,技術對産業轉型更新的效用也不可忽視。參與研讨會的從業者認為,未來應聚焦應用風險,建構基于風險的監管治理體系。

新浪集團法務部總經理谷海燕指出,整體監管上,企業期待更有區分度和顆粒度的監管措施。比如歐盟《人工智能法案》中,根據設定不同的風險等級、區分規制路徑并設定法律的義務。這類措施能夠更好平衡企業社會責任和能量釋放,促進産業健康發展。

朱玲鳳表示,行業期待法律的确定性,進一步明确義務邊界和責任分工有利于營造更優的營商環境。“以人工智能透明度和可解釋性舉例,上遊資料提供方可以通過提供‘資料卡’的方式,告知資料來源、資料品質、清洗過程等,模型開發者也可以通過‘模型卡’的方式解釋模型的選擇,以此類推,通過技術流程予以明确義務,不同的主體之間有清晰的責任邊界且互相銜接的方式,強化通過技術監管的方式來應對風險。”

淘天集團法務部資料合規負責人顧偉則結合自身實務經驗指出,技術進展日新月異,要精準地預測每一個伴生風險并不容易。是以,應當增加法律、規則中的容錯機制,為産業發展留出空間。“人工智能立法應當強調基于原則性的規定,而非具體規則。”

随着人工智能發展踏上新台階,2022年至今,政府接連出台新政策,以期助力行業發展。今年7月,國家網信辦等七部門釋出的《生成式人工智能服務管理暫行辦法》(以下簡稱“《暫行辦法》”),對服務各環節提出一系列要求。作為大陸在AI治理領域的最新規則,《暫行辦法》展現了大陸怎樣的治理思路?

“相比于此前的征求意見稿,《暫行辦法》更鼓勵産業發展,将企業保證義務變成了倡導和承諾。”陳一夫認為,《暫行辦法》一定程度上保證了從業者的權責平衡,為行業發展留出了空間。針對未來治理實踐,陳一夫建議,應當審慎執法,同時保證有典型性的執法,保障行業健康發展的同時,也有底線可以參照;此外,還要加強倫理和責任制的研究,讓身處技術中的各方明晰權責。

人工智能立法應堅持以監管促發展

未來,中國人工智能監管如何平衡發展與治理?

中國信通院雲大所内容科技部研究員呼娜英認為要以“資料、模型、内容、服務”為核心關切,首先應聚焦資料治理,確定源頭可信,把控訓練資料來源合法性,關注合乎版權的資料處理規範,保護敏感資訊;其次要加強模型治理,提高模型科技倫理治理要求,促進模型應用上下遊資訊共享,強調模型全生命周期安全可控;最後深化内容治理,探索溯源技術,防範虛假資訊的生産傳播,建構健康文明網絡生态。

全國人大常委會法制工作委員會經濟法室副處長林一英強調,“不發展就是最大的不安全”已經成為共識。目前,全球都将人工智能作為提高國際競争力、維護國家安全的重要戰略,在此背景下,大陸應堅持“以監管促發展”的思路來推進立法,堅持安全與發展并重。

北京交通大學國家安全法治發展研究院聯席院長趙剛比較了中美人工智能監管的差異,他認為,中美在大模型的訓練架構、訓練效率、安全性、可解釋性、可信度等方面差距較明顯,建議發揮體制優勢,建立國家在人工智能方面的科技戰略力量,整合研發資源,加快核心技術攻關,鼓勵地方政府及各行業優先應用大陸的人工智能産品、技術和服務。

“全球範圍内的人工智能立法已經鋪開,中國探讨自己的AI立法是複雜且艱巨的。”北京視界律師事務所合夥人吳凡表示,生成式AI是劃時代的革命性工具,建議按照AI适用的場景和相應的風險進行分級管理。對于國家安全、主流價值觀、倫理道德等劃定紅線,對高風險、中風險、低風險的AI應用采取不同的監管方式,例如規定差異化的資料容錯率、審批制與備案制相結合等等。

“探索中國AI立法之路,首先要尊重行業差異,不同行業對人工智能的使用方式和效果都有着非常大的差別;其次要強調政治安全,同時促進社會公平,保護個人隐私;此外,發展的彈性和确定性要相結合,确定性較高的事情可以公開透明地讓公衆了解,因技術而帶來的不确定性,應當保持一定的彈性;最後,在國内國際雙循環的背景下,人工智能的發展要與國際合作相結合,更好地融入到世界的技術疊代當中。”吳凡說。

更多内容請下載下傳21财經APP

繼續閱讀