天天看點

價值觀、隐私保護全覆寫 網信辦拟為生成式AI“立規矩”

作者:元宇宙日爆
價值觀、隐私保護全覆寫 網信辦拟為生成式AI“立規矩”

4月11日,國家網際網路資訊辦公室(以下簡稱“網信辦”)起草釋出了《生成式人工智能服務管理辦法(征求意見稿)》,并向社會公衆展開為期一個月的意見征求。

這份管理辦法(征求意見稿)共計21條,從适用範圍看,既包括了提供生成式人工智能服務的主體,也包括使用這些服務的組織和個人;管理辦法覆寫了生成式人工智能輸出内容的價值導向、服務提供方的訓練原則、隐私權/知識産權等各項權利的保護等等。

GPT類生成式自然語言大模型及産品出現後,既讓公衆體驗到了人工智能的飛躍式進步,也暴露出安全風險,包括産生帶偏見和歧視性的内容、資料洩露、侵犯隐私、AI造假等問題。全球範圍,各國對人工智能的監管漸成趨勢。

在中國,《生成式人工智能服務管理辦法》一旦出台,國内生成式AI的大模型及産品提供方不能再無序亂“卷”了,采用者使用生成式AI時也有了規範圈。

為生成内容設“禁區”

“研發、利用生成式人工智能産品,面向中華人民共和國境内公衆提供服務的,适用本辦法。

本辦法所稱生成式人工智能,是指基于算法、模型、規則生成文本、圖檔、聲音、視訊、代碼等内容的技術。”

4月11日,網信辦公布的《生成式人工智能服務管理辦法(征求意見稿)》(以下簡稱《辦法》)在第二條中明确了《辦法》的适用主體和“生成式人工智能”的定義。

從該條内容看,諸如百度、阿裡、騰訊、華為等目前已經公開表示有生成式大模型及産品的公司,如果對中國境内使用者提供服務,将在《辦法》的管理範圍内,而使用者使用相關産品和服務,也需要遵守《辦法》的規定。

《辦法》也強調了,國家支援人工智能算法、架構等基礎技術的自主創新、推廣應用、國際合作,鼓勵優先采用安全可信的軟體、工具、計算和資料資源。

在這一前提下,《辦法》為生成式人工智能産品或服務的提供方劃定了“禁區”,包括生成的内容和研發的基本原則。

在内容上,《辦法》要求:利用生成式人工智能生成的内容應當展現社會主義核心價值觀,不得含有颠覆國家政權、推翻社會主義制度,煽動分裂國家、破壞國家統一,宣揚恐怖主義、極端主義,宣揚民族仇恨、民族歧視,暴力、淫穢色情資訊,虛假資訊,以及可能擾亂經濟秩序和社會秩序的内容;利用生成式人工智能生成的内容應當真實準确,采取措施防止生成虛假資訊。

在研發上,《辦法》要求提供方在算法設計、訓練資料選擇、模型生成和優化、提供服務等過程中,采取措施防止出現種族、民族、信仰、國别、地域、性别、年齡、職業等歧視。

從這些要求看,《辦法》基本涵蓋了市面上的自然語言大模型産品在使用者實操中暴露出來的安全及倫理問題,包括産生歧視性偏見、虛假資訊等内容

人類借由生成式AI産出的問題内容已經層出不窮地出現在網絡上。

比如,ChatGPT曾為使用者咨詢“如何入店行竊”時提供過步驟,盡管附上了“入店行竊違法的提示”;它的“角色扮演”功能曾被使用者誘導以DAN(Do Anyting Now)身份回答問題,給出的答案裡出現了“爆粗口”的情況;還有人用ChatGPT測試的假消息在國内傳播,成了“辟謠”的内容。

微軟集合進搜素引擎Bing的聊天機器人,被海外媒體人曝光“辱罵使用者”;AI生圖應用Midjourney更是被人利用造出過“教皇穿巴黎世家羽絨服”、“馬斯克與通用汽車CEO約會”的假圖,甚至還有人用它制造了各種不存在的地震曆史和太陽風暴災害等等。

價值觀、隐私保護全覆寫 網信辦拟為生成式AI“立規矩”

有關教皇(左)與馬斯克的假圖

針對虛假資訊、辨識AI生成内容層面,《辦法》要求提供者從源頭上“能夠保資料的真實性、準确性、客觀性、多樣性”;應當按照《網際網路資訊服務深度合成管理規定》對生成式的圖檔、視訊等内容進行辨別;而生成式人工智能産品研制中采用人工标注時,提供者應當制定符合本辦法要求,清晰、具體、可操作的标注規則,對标注人員進行必要教育訓練,抽樣核驗标注内容的正确性。

中國監管為生成式人工智能的内容設定禁區,某種程度上也是在要求提供大模型及産品的企業把好預訓練和資料的關。

強調資料來源和個人資訊保護

除了對生成内容強調價值觀導向、社會公德、遵守法律及反歧視外,《辦法》也對生成式人工智能相關的預訓練及資料來源、個人資訊保護等權益做出要求。

例如,《辦法》要求,提供者應當對生成式人工智能産品的預訓練資料、優化訓練資料來源的合法性負責,不含有侵犯知識産權的内容;資料包含個人資訊的,應當征得個人資訊主體同意;對使用者輸入資訊和使用記錄承擔保護義務,不得非法留存能夠判斷出使用者身份的輸入資訊,不得根據使用者輸入資訊和使用情況進行畫像,不得向他人提供使用者輸入資訊。

生成式AI産生的資料侵權問題也确實存在,比如,使用者在使用對話式機器人滿足一些工作需求時,難免會上傳公司的資料,如不注意,很可能造成商業秘密的洩露。此前,南韓電子巨頭三星在對ChatGPT提出“限問令”後就表示,内部資料因員工與該應用的互動而出現洩露。

《辦法》不僅指向生成式人工智能産品和服務的提供者,也對産品和服務使用者劃定了原則。

比如,不利用生成内容損害他人形象、名譽及其他合法權益,不進行商業炒作、不正當營銷。

由于《辦法》時根據上位法《中華人民共和國網絡安全法》《中華人民共和國資料安全法》《中華人民共和國個人資訊保護法》等法律、行政法規制定,這些法律法規将适用于違反《辦法》的行為,包括侵犯知識産權、侵犯個人資訊等違法行為。

《辦法》共計21條,其中有13條明确針對 “提供者”,即利用生成式人工智能産品提供聊天和文本、圖像、聲音生成等服務的組織和個人。

價值觀、隐私保護全覆寫 網信辦拟為生成式AI“立規矩”

公衆可通過三條途徑回報意見

由此可見,《辦法》一旦正式出台,國内做生成式大模型及産品的企業及采用方将須在規則範圍内行事。據網信辦官網顯示,公衆可以通過三個管道提出回報意見,回報的截至日期為2023年5月10日。