天天看點

從《生成式人工智能服務管理辦法(征求意見稿)》看生成式AI産品合規要點

作者:天元律師
從《生成式人工智能服務管理辦法(征求意見稿)》看生成式AI産品合規要點

文丨天元律師事務所 李昀锴

審定丨主管合夥人 孫彥

近年來,人工智能技術發展迅速,其中生成式人工智能(AIGC)技術更是在過去一年間更是日新月異,新的模型層出不窮。AIGC技術的發展為人們提供了更多的便利和可能性,但同時也帶來了諸多新的法律問題和挑戰。為了規範AIGC技術的發展和應用,保護公民的合法權益,國家出台了《生成式人工智能服務管理辦法(征求意見稿)》。雖然該辦法仍在征求意見中,但相關規定展現了主管部門的監管态度及關注重點,本文将對該辦法進行法律分析,探讨其對AIGC行業的影響和意義。

一、管理辦法的監管範圍

《管理辦法》第二條規定“研發、利用生成式人工智能産品,面向中華人民共和國境内公衆提供服務的,适用本辦法。本辦法所稱生成式人工智能,是指基于算法、模型、規則生成文本、圖檔、聲音、視訊、代碼等内容的技術。”第五條規定“利用生成式人工智能産品提供聊天和文本、圖像、聲音生成等服務的組織和個人,包括通過提供可程式設計接口等方式支援他人自行生成文本、圖像、聲音等,承擔該産品生成内容生産者的責任;涉及個人資訊的,承擔個人資訊處理者的法定責任,履行個人資訊保護義務。”

根據前述規定,本辦法的适用範圍為向中華人民共和國境内公衆提供生成式人工智能産品所有主體,無論該主體是否在國内。其面向的産品包括基于訓練資料和生成算法模型,自主生成創造新的文本、圖像、音樂、視訊、3D内容(如虛拟化身、虛拟物品、虛拟環境)等各種形式的内容和資料。可看出目前流行的百度公司的文心一言,阿裡巴巴的通義千問,華為公司的盤古、商湯公司的商湯均将被納入監管範圍。ChatGPT、New Bing、Midjourney等産品雖然未面向中國境内公衆提供服務,但如果第三方通過API等方式提供前述産品功能的,将一并納入監管範圍内,需要遵守相關義務要求。

二、提供生成式AI産品需履行備案手續

《管理辦法》第六條規定“利用生成式人工智能産品向公衆提供服務前,應當按照《具有輿論屬性或社會動員能力的網際網路資訊服務安全評估規定》向國家網信部門申報安全評估,并按照《網際網路資訊服務算法推薦管理規定》履行算法備案和變更、登出備案手續。本條明确将生成式AI産品作為具有輿論屬性或社會動員能力的産品,并且明确其算法需要按照《網際網路資訊服務算法推薦管理規定》履行算法備案手續。”

該規定承繼了《網際網路資訊服務深度合成管理規定》第十九條、第二十條的管理原則,并明确生成式AI産品均具有輿論屬性或社會動員能力,均需要進行安全評估。這就意味着國内公司自主開發的AI産品均不應直接面向社會公衆提供,隻有在進行安全評估及算法備案後,才能面向相關社會公衆提供服務。如果未能履行前述評估及備案義務則主管部門有權給予警告、通報批評,責令限期改正,如拒不改正或者情節嚴重的,責令暫停或者終止提供服務,并處一萬元以上十萬元以下罰款。

該等規定實際上并未超出此前《網際網路資訊服務深度合成管理規定》《網際網路資訊服務算法推薦管理規定》要求的義務範圍,但是确實給目前AIGC行業的創業者設定了很高的門檻。特别是目前對于如何進行評估、送出何種材料、評估周期及進度等問題并不明确及透明,該等要求可能會導緻産品上市周期嚴重脫離公司規劃,影響公司的商業營運,對此創業者們還應做好充足的心理準備。

三、生成式AI産品應滿足的基本合規要求

《管理辦法》第四條規定“ 提供生成式人工智能産品或服務應當遵守法律法規的要求,尊重社會公德、公序良俗,符合以下要求:(一)利用生成式人工智能生成的内容應當展現社會主義核心價值觀,不得含有颠覆國家政權、推翻社會主義制度,煽動分裂國家、破壞國家統一,宣揚恐怖主義、極端主義,宣揚民族仇恨、民族歧視,暴力、淫穢色情資訊,虛假資訊,以及可能擾亂經濟秩序和社會秩序的内容。(二)在算法設計、訓練資料選擇、模型生成和優化、提供服務等過程中,采取措施防止出現種族、民族、信仰、國别、地域、性别、年齡、職業等歧視。(三)尊重知識産權、商業道德,不得利用算法、資料、平台等優勢實施不公平競争。(四)利用生成式人工智能生成的内容應當真實準确,采取措施防止生成虛假資訊。(五)尊重他人合法利益,防止傷害他人身心健康,損害肖像權、名譽權和個人隐私,侵犯知識産權。禁止非法擷取、披露、利用個人資訊和隐私、商業秘密。”該條規定為生成式AI産品應滿足的基本合規要求,相關要求基本上符合《網際網路資訊服務管理辦法》《《反不正當競争法》《個人資訊保護法》等在先法律法規要求,從該條要求可以看出,主管部門對于生成式AI産品的内容監管原則基本保持不變,但是希望相關提供者能夠全流程保證其資訊生成的合法性、合規性。

但就該條要求的生成内容真實準确的要求,似乎超出了目前的技術能力。以ChatGPT為例,其工作原理為在大量的文本資料上進行預訓練,學習自然語言的規律和結構,其學習的是衆多樣本在統計學意義上的規律性。隻要生成的結果符合這種統計規律,就會被它輸出出來,這種預訓練模型保證了它說出來的大多都是“人話”。但是這句“人話”的内容、含義是基于統計機率産生,從技術原理上無法完全保證内容的真實性、準确性。雖然GPT的模型一直在更新,但直到現在該等問題依然層出不窮,例如ChatGPT依然會根據使用者的輸入虛構一個林黛玉倒拔垂楊柳的故事。

從《生成式人工智能服務管理辦法(征求意見稿)》看生成式AI産品合規要點

當然,我們了解主管部門的立法目的及出發點,該條規定的核心更應認為是要求提供者應采取相應的措施防止虛假結果的生成,而并非要求其保證生成内容100%的準确性。故從立法目的出發,建議相關提供者可參照OpenAI等領先機構的做法從以下角度保證生成内容的準确性:(1)資料集的篩選和清洗:使用大量的資料集進行訓練,但在使用這些資料集之前,對其進行篩選和清洗,去除其中的噪聲和錯誤,保證訓練出來的模型的準确性和可靠性。(2)模型的調優和優化:在訓練模型的過程中,進行多次的調優和優化,使得模型的準确性和性能得到不斷提升。(3)人工稽核和審查:對生成的内容進行人工稽核和審查,確定其符合社會公德、公序良俗和法律法規的要求,避免出現虛假資訊、暴力、淫穢色情資訊等不良内容。(4)透明度和公開性:公開生成的内容和算法,使得第三方機構和專家可以對其進行評估和驗證,保證其準确性和可靠性。

四、對生成式AI産品的資料訓練提出更高的要求

《管理辦法》第七條規定“ 提供者應當對生成式人工智能産品的預訓練資料、優化訓練資料來源的合法性負責。用于生成式人工智能産品的預訓練、優化訓練資料,應滿足以下要求:(一)符合《中華人民共和國網絡安全法》等法律法規的要求;(二)不含有侵犯知識産權的内容;(三)資料包含個人資訊的,應當征得個人資訊主體同意或者符合法律、行政法規規定的其他情形;(四)能夠保證資料的真實性、準确性、客觀性、多樣性;(五)國家網信部門關于生成式人工智能服務的其他監管要求。”根據該條要求,提供者應對訓練資料的合法性負責,不得含有侵犯知識産權、侵犯個人資訊的内容,也應保證資料的真實性、準确性、客觀性。而依據大陸《反不正當競争法》的相關要求及司法實踐,目前如果提供者僅依靠爬取的網絡資料進行訓練将産生較大的不正當競争風險,對此實踐中也要求提供者應與掌握資料的第三方平台進行采購或合作,以保證其訓練資料的清潔性,這将大大增加提供者的訓練成本。

同時,《管理辦法》第十七條明确“提供者應當根據國家網信部門和有關主管部門的要求,提供可以影響使用者信任、選擇的必要資訊,包括預訓練和優化訓練資料的來源、規模、類型、品質等描述,人工标注規則,人工标注資料的規模和類型,基礎算法和技術體系等。”對于訓練資料的具體情況,主管部門将随時進行檢查,要求提供者說明預訓練和優化訓練資料的來源、規模、類型、品質等描述,人工标注規則,人工标注資料的規模和類型,基礎算法和技術體系等内容。如果在檢查過程中發現訓練内容不合法,依然有權要求提供者暫停或者終止提供服務,可能将很大程度上影響提供者的正常經營。但是對于如何判斷這裡所謂的“必要資訊”規定依然語焉不明,實踐中可能會存在一定的争議。

五、建立完善的内容使用規則及内容監管體系

《管理辦法》内主管部門核心的關注要點就是生成内容的合規管理問題,故對于内容使用規則及内容監管體系進行了大篇幅的規定。其中:

1、《管理辦法》第十三條規定“提供者應當建立使用者投訴接收處理機制,及時處置個人關于更正、删除、屏蔽其個人資訊的請求;發現、知悉生成的文本、圖檔、聲音、視訊等侵害他人肖像權、名譽權、個人隐私、商業秘密,或者不符合本辦法要求時,應當采取措施,停止生成,防止危害持續。”該條實際上為提供者設定了一定程度上的避風港責任,即提供者應設定相應的投訴處理機制,及時處理删除相應的侵權資訊,如果未能盡到管理責任将承擔對損失結果擴大的連帶責任。但是這裡對個人資訊的删除、屏蔽在技術操作上可能并不那麼容易實作,這是因為相關語言大模型的預訓練過程持續時間比較長,對于已經訓練完成的資料模型很難針對某具體個人資訊進行了解并且删除更正。我們了解相較于事先的訓練模型内容的調整,提供者更應着眼于資訊輸入的控制及事後生成環節的稽核,以保證内容管理措施的有效性。例如,可以學習OpenAI設定生成時的風險提示“你的提問内容不符合國家相關法律法規的要求,不能向您提供相關内容”。

2、《管理辦法》第十五條規定“對于運作中發現、使用者舉報的不符合本辦法要求的生成内容,除采取内容過濾等措施外,應在3個月内通過模型優化訓練等方式防止再次生成。”這條相當于要求提供者要在提供服務的同時,并行訓練優化其模型,且至少3個月更新一次版本,以解決此前出現的違規内容問題。這條規定的時限并不特别符合目前的技術實踐,也為提供者無端的提高了服務成本,建議主管部門要求采取合理措施即可,而非要求3個月内即完成優化。

3、《管理辦法》第十六條規定“提供者應當按照《網際網路資訊服務深度合成管理規定》對生成的圖檔、視訊等内容進行辨別。”此前釋出的《網際網路資訊服務深度合成管理規定》第十七條要求對可能導緻公衆混淆或者誤認的文本、圖像、視訊進行标注,但本次的《管理辦法》僅要求對圖像、視訊進行标注,放寬了相應的範圍。雖然本條應進行标注的是“可能導緻公衆混淆或者誤認”的内容,但出于穩妥起見,我們建議提供者一律對圖像、視訊進行标注。實踐中文心一言等模型也已經在履行相關标注義務。

從《生成式人工智能服務管理辦法(征求意見稿)》看生成式AI産品合規要點

4、《管理辦法》第十八條規定“提供者應當指導使用者科學認識和理性使用生成式人工智能生成的内容,不利用生成内容損害他人形象、名譽以及其他合法權益,不進行商業炒作、不正當營銷。”第十九條規定“提供者發現使用者利用生成式人工智能産品過程中違反法律法規,違背商業道德、社會公德行為時,包括從事網絡炒作、惡意發帖跟評、制造垃圾郵件、編寫惡意軟體,實施不正當的商業營銷等,應當暫停或者終止服務。”這要求提供者應設定完善的使用指引及說明,引導使用者合法使用相關内容,同時也賦予提供者管理權限,對于違反法律法規及違背商業道德、社會公德的使用者可以直接予以封禁。

六、控制處罰責任,鼓勵生成式AI産品發展

《管理辦法》第二十條規定“法律、行政法規沒有規定的,由網信部門和有關主管部門依據職責給予警告、通報批評,責令限期改正;拒不改正或者情節嚴重的,責令暫停或者終止其利用生成式人工智能提供服務,并處一萬元以上十萬元以下罰款。”這裡可以看到,雖然《管理辦法》對提供者設定了相對較高的法律義務,但對其法律責任規定得相對較為克制,主管部門對于其中輕微情節的,隻是警告、批評,并不涉及要求暫停或終止提供提供,也不涉及罰款;對于情節嚴重的,其處罰金額上限也不高,整體上還是以鼓勵發展為主基調的,更加鼓勵相關提供者多與主管部門進行溝通,逐漸落實相應的合規措施,為生成式AI産品保留了一定的執法空間及發展空間。

從《生成式人工智能服務管理辦法(征求意見稿)》看生成式AI産品合規要點

*特别聲明:

本文僅為交流目的,不代表天元律師事務所的法律意見或對法律的解讀,如您需要具體的法律意見,請向相關專業人士尋求法律幫助。

從《生成式人工智能服務管理辦法(征求意見稿)》看生成式AI産品合規要點

繼續閱讀