天天看點

生成式人工智能服務管理暫行辦法釋出 大模型将分類分級監管?

作者:Beiqing.com

征求意見93天後,全球第一部AIGC(AI生成内容)管理辦法出台了。

7月13日,網信辦等七部門正式釋出了《生成式人工智能服務管理暫行辦法》(下文簡稱“《辦法》”),該辦法自2023年8月15日起施行。

中國網際網路協會研究中心副主任、北京師範大學法學院博士生導師吳沈括在接受新京報貝殼财經記者采訪時表示,相比較于征求意見稿階段,《辦法》在釋出主體、檔案名稱、内容寬度上有很大的變化,本身也反映了我們國家在治理決策層面對AGC治理的思路的進一步深化和延伸,“它作為全球第一部AIGC法,反映的是中國在數字治理和人工智能治理層面新的思路,強調的是一種生态式的治理方案。”

國家網信辦有關負責人表示,《辦法》提出國家堅持發展和安全并重、促進創新和依法治理相結合的原則,采取有效措施鼓勵生成式人工智能創新發展,對生成式人工智能服務實行包容審慎和分類分級監管。

鼓勵生成式人工智能技術發展 鼓勵算法晶片等基礎技術自主創新

“我認為《辦法》是積極的,總體來講是鼓勵深層次人工智能發展,鼓勵我們自己發展晶片,同時裡面也有對尊重知識産權、個人資訊保護的相關要求。” 談到對此次出台《辦法》的感受,網絡安全研究專家、北京漢華飛天信安科技有限公司總經理彭根告訴新京報貝殼财經記者。

貝殼财經記者注意到,在《辦法》第二章技術發展與治理中,“鼓勵”一詞高頻出現。

如第五條提到“鼓勵生成式人工智能技術在各行業、各領域的創新應用,生成積極健康、向上向善的優質内容,探索優化應用場景,建構應用生态體系。”第六條提到“鼓勵生成式人工智能算法、架構、晶片及配套軟體平台等基礎技術的自主創新,平等互利開展國際交流與合作,參與生成式人工智能相關國際規則制定。”

對于《辦法》的釋出,北京理工大學法學院教授、外交部國際法咨詢委員會委員洪延青在公衆号《網安尋路人》中簡評稱,整個《辦法》往促進生成式AI發展這個方向,靠了很大一步,“第二條強調了‘面向公衆提供’服務,進一步明确了監管意圖;第四條基本圍繞着内容管理、歧視性待遇、商業和市場秩序保護、個人合法權益保護,以及生成内容的準确性和可靠性;第七條依舊強調了訓練資料的重要性,這是生成式AI監管的重要切入點。”

在回答《辦法》對促進生成式人工智能健康發展有哪些考慮這一問題時,國家網信辦有關負責人提到,支援行業組織、企業、教育和科研機構、公共文化機構、有關專業機構等在生成式人工智能技術創新、資料資源建設、轉化應用、風險防範等方面開展協作。推動生成式人工智能基礎設施和公共訓練資料資源平台建設。促進算力資源協同共享,提升算力資源利用效能。推動公共資料分類分級有序開放,擴充高品質的公共訓練資料資源。鼓勵采用安全可信的晶片、軟體、工具、算力和資料資源。

吳沈括表示,《辦法》強化了對AIGC生态基礎要素的支援,其中關于算力資源的共享、公共資料資源的開放共享等反映了對AIGC發展的重視。

對生成式人工智能服務實行包容審慎和分類分級監管

吳沈括對貝殼财經記者表示,在《辦法》的文本設計當中,對于産業生态的培育和促進,對于各方主體合規治理的指引,以及對于安全底線的堅守是三個非常重要的制度基礎和切入的重點,其中值得注意的地方是《辦法》突出了關于AIGC的分類分級監管思路,以及後續細化監管規則的持續出台。

根據《辦法》第十七條,提供具有輿論屬性或者社會動員能力的生成式人工智能服務的,應當按照國家有關規定開展安全評估,并按照《網際網路資訊服務算法推薦管理規定》履行算法備案和變更、登出備案手續。

洪延青表示,第十七條事實上提出了生成式AI的分類分級管理思路,對具有輿論屬性和社會動員能力的生成式AI,沿用網信辦過去的監管工具。

貝殼财經記者注意,到《辦法》也提到了針對未成年人的服務規範,第十條規定,提供者應當明确并公開其服務的适用人群、場合、用途,指導使用者科學理性認識和依法使用生成式人工智能技術,采取有效措施防範未成年人使用者過度依賴或者沉迷生成式人工智能服務。

國家網信辦有關負責人表示,《辦法》在治理對象上,針對生成式人工智能服務。在監管方式上,提出對生成式人工智能服務實行包容審慎和分類分級監管,要求國家有關主管部門針對生成式人工智能技術特點及其在有關行業和領域的服務應用,完善與創新發展相适應的科學監管方式,制定相應的分類分級監管規則或者指引。此外,《辦法》要求采取有效措施防範未成年人使用者過度依賴或者沉迷生成式人工智能服務。規定提供者應當按照《網際網路資訊服務深度合成管理規定》對圖檔、視訊等生成内容進行辨別。

“我最大的感受是《辦法》進一步強調了深度合成管理規定的内容,要對圖檔和視訊進行标注,讓我們能夠判斷出到底圖檔視訊是由AI生成的,還是人去錄制和拍攝的,這是一個很關鍵的一個地方。”彭根對貝殼财經記者表示。

提供使用生成式人工智能服務應當堅持社會主義核心價值觀

貝殼财經記者注意到,從4月11日《辦法》征求意見稿出台,到本次《辦法》正式釋出,在對大模型的内容監管方面,均明确提供和使用生成式人工智能服務應當堅持社會主義核心價值觀,不得生成煽動颠覆國家政權、民族歧視,暴力色情、虛假有害資訊等法律和行政法規禁止的内容。

但另一方面,由于生成式AI底層算法的本質就是“猜出”最符合上文内容的“下文”,具備一定随機性,是以如何應對生成式AI難以避免出現的“幻覺”問題也成為了難題。

有大模型研發機構從業人員對貝殼财經記者表示,要解決生成内容的安全問題,就需要額外配備和訓練AI人員人數相同的安全稽核人員,“其實國内各個廠商都有生産大模型的技術,算力、硬體、軟體都不是問題,唯獨市場是否要放開,如何規避不安全的内容存在問題。目前來看解決辦法之一是在提問層就做一次稽核,不過這要付出額外的成本。”

對于難以避免的“幻覺”行為可能導緻的内容風險,《辦法》第十四條第二款規定,提供者發現違法内容的,應當及時采取停止生成、停止傳輸、消除等處置措施,采取模型優化訓練等措施進行整改,并向有關主管部門報告。

多位專家均向貝殼财經表達了同一觀點,即AIGC内容風險也并非完全無法把控,因為大模型生成的内容的素材來源于其預訓練資料,是以對這些資料進行把控,就能大機率降低生産内容的風險,“以符合社會主義價值觀的内容訓練出的大模型,其生成的内容也大機率會符合社會主義價值觀。”

《辦法》第七條或展現了這一觀點,第七條規定,生成式人工智能服務提供者(以下稱提供者)應當依法開展預訓練、優化訓練等訓練資料處理活動,應使用具有合法來源的資料和基礎模型,涉及知識産權的,不得侵害他人依法享有的知識産權等。

洪延青認為,《辦法》第七條依舊強調了訓練資料的重要性,這是生成式AI監管的重要切入點,但對訓練資料的品質作出了盡職性的要求,而非結果式的要求。

國家計算機網絡與資訊安全管理中心進階工程師張震表示,生成式人工智能模型經過訓練後,對一些概念具備了較為穩定的“認知”,圍繞相關概念的生成内容往往表現出驚人的一緻性。一旦模型在訓練過程中引入偏見歧視等有害資訊,在模型實際應用中很可能呈現放大化輸出。三是生成式人工智能具備可引導性。生成式人工智能模型在原有的人工智能“預訓練—微調”範式上,增加了“對齊”的訓練環節。

值得注意的是,《辦法》除了對提供者提出義務外,對生成式人工智能的使用者也提出了義務。

《辦法》第九條第二款規定,提供者應當與注冊其服務的生成式人工智能服務使用者(以下稱使用者)簽訂服務協定,明确雙方權利義務。而第十四條第二款則規定,提供者發現使用者利用生成式人工智能服務從事違法活動的,應當依法依約采取警示、限制功能、暫停或者終止向其提供服務等處置措施,儲存有關記錄,并向有關主管部門報告。

“《辦法》在安全層面堅持了技術要素層面的安全、組織管理層面的安全以及數字内容層面的安全,結合了安全性設計、合法性設計和倫理性設計的綜合治理思路。對于各方主體的合規義務、法律責任做出了明确的規定。同時,對包括使用者數字素養在内的基礎性生态要素也做出了專門的要求。從這個意義上來講,目前的辦法在制度的寬度、廣度和深度上都有顯著的延伸。”吳沈括對貝殼财經記者表示。

記者聯系郵箱:[email protected]

新京報貝殼财經記者 羅亦丹

編輯 宋钰婷

校對 陳荻雁

繼續閱讀