天天看點

專家解讀|推動生成式人工智能精細化治理

作者:光明網

目前,生成式人工智能正在加速發展,不斷催生新場景、新業态、新模式和新市場,賦能千行百業。與此同時,其暴露出的安全風險也引發了各國監管部門的廣泛關注,意大利、德國、法國、西班牙等多個國家的資料保護監管機構對ChatGPT表達擔憂或發起調查。近日,國家網信辦聯合國家有關部門公布了《生成式人工智能服務管理暫行辦法》(以下簡稱《辦法》)。《辦法》是大陸促進生成式人工智能健康發展和規範應用的專門立法,界定了生成式人工智能技術的基本概念,規定了生成式人工智能服務提供者的制度要求,為生成式人工智能的健康發展指明了方向。

一、促進發展,鼓勵生成式人工智能研發創新

新一代人工智能是推動科技跨越發展、産業優化更新、生産力整體躍升的驅動力量。習近平總書記高度重視人工智能技術發展,指出要加快新能源、人工智能、生物制造、綠色低碳、量子計算等前沿技術研發和應用推廣。中共中央政治局4月28日召開會議強調,“要重視通用人工智能發展,營造創新生态,重視防範風險”。

《辦法》立足于促進生成式人工智能健康發展和規範應用,在總則中明确了國家堅持發展和安全并重、促進創新和依法治理相結合的原則,并在技術發展與治理一章中提出了一系列鼓勵措施。一是鼓勵創新應用。生成式人工智能應用場景豐富,可以與各行業深度結合,助力實作各行業智能化變革。《辦法》明确提出鼓勵生成式人工智能技術在各行業、各領域的創新應用,有助于生成式人工智能賦能千行百業。二是鼓勵多方協作。生成式人工智能在技術創新、資料資源建設、轉化應用、風險防範等方面涉及多方主體,為此,《辦法》鼓勵行業組織、企業以及各個相關機構之間開展協作。三是鼓勵自主創新與國際合作。生成式人工智能尚處于發展階段,而大陸在生成式人工智能相關算法、晶片等技術研發方面起步相對較晚。《辦法》一方面鼓勵生成式人工智能相關基礎技術的自主創新,另一方面鼓勵平等互利開展國際交流與合作,進而促進大陸人工智能技術發展。四是鼓勵資源共享。算力是支撐數字經濟蓬勃發展的重要“底座”,資料是生成式人工智能的重要資源。為此,《辦法》提出推動生成式人工智能基礎設施和公共訓練資料資源平台建設的措施,促進算力資源協同共享,提升算力資源利用效能。

二、劃定底線,推動生成式人工智能向上向善

以ChatGPT為代表的生成式人工智能在社會變革中的具有重要作用,但其可能存在的資料違法收集、知識産權侵權、生成虛假資訊等問題同樣不容忽視。

《辦法》積極回應生成式人工智能帶來的社會問題,明确提供和使用生成式人工智能服務的法律底線。一是不得生成違法内容。《辦法》落實《網絡安全法》等法律的規定,強調提供和使用生成式人工智能服務應當堅持社會主義核心價值觀,不得生成法律、行政法規禁止的内容。二是防止歧視。訓練資料本身存在歧視内容、算法更傾向于某些特征值、标注人員的主觀判斷等因素可能導緻歧視問題,給社會帶來不良後果,如邊緣化弱勢人群或者煽動仇恨與暴力。為減少歧視現象發生,《辦法》要求在算法設計、訓練資料選擇、模型生成和優化、提供服務等過程中,采取有效措施防止歧視。三是尊重知識産權和他人合法權益。生成式人工智能在個人資訊的處理過程中,可能存在違法收集、使用個人資訊等風險;生成式人工智能的訓練資料中如包括他人已發表并享有著作權的作品,也可能給知識産權造成侵害。為減少侵權事件的發生,《辦法》強調尊重知識産權、商業道德;尊重他人合法權益,不得危害他人身心健康,不得侵害他人肖像權、名譽權、榮譽權、隐私權和個人資訊權益。四是提高生成内容準确性和可靠性。自生成式人工智能面世之初,其存在的“一本正經地胡說八道”現象便引起了人們的警惕。這種虛假資訊的産生很可能會誤導使用者,加劇社會對共享資訊的不信任。如何保障生成内容的真實性,既是産業界為進一步擴大生成式人工智能商用範圍需要克服的技術難題,也是監管部門需要重點考量的問題。《辦法》要求生成式人工智能服務提供者(以下簡稱“提供者”)基于服務類型特點,采取有效措施,提升生成式人工智能服務的透明度,提高生成内容的準确性和可靠性。這一要求充分展現了發展與安全并重的原則,符合生成式人工智能的技術原理與産業需要。

三、細化責任,建構生成式人工智能治理體系

生成式人工智能從研發到落地需要經曆多個環節,包括訓練資料處理、資料标注、提供服務等。清晰界定不同環節的要求更有利于降低生成式人工智能的安全風險,增強制度的可落地性。

《辦法》明确提供者的義務與責任,提供者是利用生成式人工智能技術提供生成式人工智能服務的組織、個人,包括通過提供可程式設計接口等方式提供生成式人工智能服務的組織、個人。在訓練資料處理環節,提供者應當使用具有合法來源的資料和基礎模型,并采取有效措施提高訓練資料品質,增強訓練資料的真實性、準确性、客觀性、多樣性。在資料标注環節,提供者應當制定标注規則,開展資料标注品質評估,并對标注人員進行教育訓練。在提供服務環節,提供者應依法承擔網絡資訊内容生産者責任,按照《網際網路資訊服務深度合成管理規定》對圖檔、視訊等生成内容進行辨別;發現違法内容的,應當及時采取處置措施、進行整改并向有關主管部門報告;應依法承擔個人資訊處理者責任,對生成式人工智能服務使用者的輸入資訊和使用記錄依法履行保護義務,及時受理和處理個人關于查閱、複制、更正、補充、删除其個人資訊等的請求;應履行使用者管理義務,明确并公開服務适用情況,指導使用者科學理性認識和依法使用技術,采取未成年人防沉迷措施,依法處置從事違法活動的使用者,建立健全投訴、舉報機制;應提供安全、穩定、持續的服務。

四、強化披露,明确生成式人工智能監管手段

人工智能算法具有“黑箱”特性,表現為行為不可控、決策機制難以解釋,給人工智能監管帶來了一定困難。為此,《網際網路資訊服務算法推薦管理規定》《網際網路資訊服務深度合成管理規定》等規範已經明确了算法備案、安全評估等監管手段,提高算法的透明度與可問責性。

《辦法》與現有規範一脈相承,延續了此前監管手段,同時明确了分類分級監管的原則,健全了大陸人工智能治理體系。一是明确了安全評估與算法備案要求。為有效應對算法“黑箱”問題,《辦法》對提供具有輿論屬性或者社會動員能力的生成式人工智能服務的,提出了安全評估與算法備案要求。二是明确了資訊披露要求。《辦法》明确了提供者應配合主管部門的監督檢查,按要求對訓練資料來源、規模、類型、标注規則、算法機制機理等予以說明。

《辦法》是在區塊鍊、汽車資料、算法推薦、深度合成等立法之後,大陸對新興領域立法的又一次探索。《辦法》充分協調了發展與安全之間的關系,一方面提出了生成式人工智能發展的鼓勵措施,另一方面明确了生成式人工智能的法律底線,建構了生成式人工智能精細化治理體系,有利于推動生成式人工智能健康有序發展,為世界貢獻人工智能治理的中國智慧和中國方案。

作者:辛勇飛 中國資訊通信研究院政策與經濟研究所所長

來源:“網信中國”微信公衆号

稽核:李佳民

編輯:王林晨

校對:陳金丹

來源: 網信中國

繼續閱讀