天天看點

算法治理系列觀察(一)丨從ChatGPT談生成合成類算法

作者:中倫律師事務所

#算法治理#

算法治理系列觀察(一)丨從ChatGPT談生成合成類算法

本文以ChatGPT為切入點,聚焦其背後的生成合成類算法技術,并對中國法項下的相關合規關注要點進行簡要梳理。

作者丨李瑞 賈申 徐晨

引言

ChatGPT釋出短短兩個月已吸引了達1億的活躍使用者,成為全球現象級的應用。ChatGPT及其代表的大型語言模型(Large Language Model, “LLM”)、生成式AI技術(Generative AI) 和算法應用對于各個行業的快速滲透造成了強烈的沖擊,帶來了複雜的反應,這讓ChatGPT看起來既可能是人工智能應用裡程碑式的傑作,又可能是充滿未知甚至帶來恐懼的“迷霧”。

在ChatGPT爆火的影響之下,很多科技公司加快了開展相關産品研發和投放的步伐,從法律合規的角度,如何合規落地類似的産品是一個值得關注的問題。帶着這樣的思考,本文以ChatGPT為切入點,聚焦其背後的生成合成類算法技術,并對中國法項下的相關合規關注要點進行簡要梳理。

一、ChatGPT背後是什麼算法?

算法是人工智能(AI)應用的一大核心與基礎,是以對人工智能(AI)的監管離不開對于算法的規制。縱觀全球,一些主要的法域早已紛紛開始加強這一領域的立法,例如,美國先後出台了《算法問責法案(草案)》(Algorithmic Accountability Act of 2022)《過濾氣泡透明度法案(草案)》(Filter Bubble Transparency Act)等。

中國采取算法專門立法,算法技術分類管理的方式進行規制。2021年,國家網際網路資訊辦公室(下稱“國家網信辦”)、工業和資訊化部、公安部及國家市場監督管理總局聯合釋出《網際網路資訊服務算法推薦管理規定》(下稱“《算法推薦管理規定》”),将算法推薦技術主要分為生成合成類、個性化推送類、排序精選類、檢索過濾類、排程決策類等。其中生成合成類算法可以了解為利用以深度學習、虛拟現實為代表的生成合成類算法制作文本、圖像、音頻、視訊、虛拟場景等資訊的技術。

對于ChatGPT而言,深度學習正是其進行訓練的關鍵所在。GPT技術的全稱為Generative Pre-trained Transformer,即用生成式方法預訓練的Transformer,而Transformer本身則是目前最為先進的深度學習模型之一。是以,筆者了解,如果依據大陸目前算法監管的架構來劃分,ChatGPT屬于使用了深度合成技術的生成合成類算法。

除了ChatGPT,生成合成類算法還有多種其他的應用場景。從我們身邊已經較為廣泛應用的語音合成工具、聲音模仿、美顔換臉、畫質修複等,到仍在開發落地中的數字孿生、3D模組化、遊戲引擎等都有生成合成類算法的身影。

算法治理系列觀察(一)丨從ChatGPT談生成合成類算法

圖一:生成合成類算法應用之美顔App

二、生成合成類算法規制架構

由于深度合成技術本身較為敏感,且可能造成的後果影響較大,國家網信辦聯合各部門在《算法推薦管理規定》的基礎上,于2022年11月25日又進一步公布了《網際網路資訊服務深度合成管理規定》(下稱“《深度合成管理規定》”)。 《深度合成管理規定》采取了角色劃分的方式來明确産業鍊中相關企業的合規義務,即(1)深度合成服務技術支援者、(2)深度合成服務提供者和(3)深度合成服務使用者應遵守使用深度合成技術的一般性合規義務,也應遵循符合自身角色的特殊要求。

算法治理系列觀察(一)丨從ChatGPT談生成合成類算法

圖二:深度合成技術服務應用鍊條下的角色分類

除了《算法推薦管理規定》《深度合成管理規定》這兩個針對性法規外,開發使用生成合成類算法的企業還應注意其他所涉的專門法。基于算法技術本身的特點及目前的監管态勢,企業應着重關注資料合規、内容治理及反壟斷合規領域的要求。整體而言,算法合規管理的義務貫穿算法開發、測試和使用的全生命周期:

  • 資料合規:生成合成類算法的訓練與應用不可避免需要使用到大量資料,因而需遵循《資料安全法》《個人資訊保護法》等資料安全治理相關的法律法規。
  • 内容治理:在應用生成合成類時,企業應注意落實《網絡音視訊資訊服務管理規定》《網絡資訊内容生态治理規定》等法規中所明确的内容審查與管理義務。
  • 反壟斷合規:算法開發及應用時,還需注意避免涉及《反壟斷法》《國務院反壟斷委員會關于平台經濟領域的反壟斷指南》等中所明确禁止的歧視待遇、濫用市場支配地位等行為。

三、生成合成類算法合規要點提示

基于上述的監管架構與近期的執法态勢,我們總結了開發使用生成合成類算法的一些主要合規義務要點,以供企業在搭建算法合規管理體系時作為架構性的參考:

1、資料采集使用的合法性與安全性

如前文提到的,資料是算法成功運作的關鍵性要素,在測試及使用環節都需要大量的資料輸入,是以企業應特别注意資料采集與使用的合法性,尤其是:

  • 注意落實《個人資訊保護法》中所明确的告知-同意原則與最小必要原則,避免違法采集和/或超采濫采;
  • 提供人臉、人聲等生物識别資訊編輯功能的,應當提示深度合成服務使用者依法告知被編輯的個人,并取得其單獨同意;
  • 在使用環節,生成合成類算法應特别注意進行自動化決策等特殊資料處理場景下的合規義務履行,如進行個人資訊保護影響評估等。

2、配合履行行政監管手續

  • 如觸發算法備案要求,企業需履行算法備案和變更和登出備案等手續,并在完成後在其對外提供服務的網站、應用程式等的顯著位置标明其備案編号并提供公示資訊連結。
  • 企業還應依法對監管問詢、調查等予以配合,并提供必要的技術、資料等支援和協助,在有較大資訊安全風險的場景下按照要求采取措施,進行整改,消除隐患。

3、搭建實名認證流程

企業應當基于行動電話号碼、身份證件号碼、統一社會信用代碼或者國家網絡身份認證公共服務等方式,對深度合成服務使用者進行真實身份資訊認證,不得向未進行真實身份資訊認證的使用者提供資訊釋出服務。

4、使用者保護與提示

  • 對于智能對話、智能寫作、合成人聲、仿聲、人臉生成、人臉替換、人臉操控、姿态操控等服務,應在産品在生成或者編輯的資訊内容的合理位置、區域進行顯著辨別,向公衆提示深度合成情況。
  • 此外,企業應當設定便捷的使用者申訴和公衆投訴、舉報入口,公布處理流程和回報時限,及時受理、處理和回報處理結果。

5、算法安全性的定期稽核與評估

企業應當定期稽核、評估、驗證算法機制機理、模型、資料和應用結果等以對算法的安全性、透明性進行動态的管理,避免出現算法歧視等情況。尤其是算法涉及生成或者編輯人臉、人聲等生物識别資訊的,和/或生成或者編輯可能涉及國家安全、國家形象、國家利益和社會公共利益的特殊物體、場景等非生物識别資訊的,建議企業嚴格落實安全評估的要求,并及時進行整改。

6、内容審查與管理

企業應加強深度合成内容管理,采取技術或者人工方式對深度合成服務使用者的輸入資料和合成結果進行稽核。發現違法和不良資訊的,應當依法采取處置措施,儲存有關記錄,及時向網信部門和有關主管部門報告。在需要時,還應對相關深度合成服務使用者依法依約采取警示、限制功能、暫停服務、關閉賬号等處置措施。

7、合規管理要求

深度合成服務提供者應加強内部建章立制的工作,落實資訊安全主體責任,建立健全使用者注冊、算法機制機理稽核、科技倫理審查、資訊釋出稽核、資料安全、個人資訊保護、反電信網絡詐騙、應急處置等管理制度,并確定具有安全可控的技術保障措施。

總結

算法技術的發展和應用對于社會進步的重要性毋庸置疑。與此同時,我們也相信算法無法憑空創造不存在的知識與洞見。正如電影《流浪地球2》中的那句台詞所說,“沒有人的文明毫無意義”。技術發展與合規監管雙軌并行,共同推動算法科技向善,相信這也是大多數人的願景。

縱觀全球,中國是較早對于算法技術開展系統化規制的法域,從算法分類、算法備案、資料安全義務到内容治理等規制,都對所有投身中國市場且廣泛使用算法的企業提出了較高的要求。除了企業本身的合規治理外,算法在應用的過程中更存在着平台責任、救濟手段、科技倫理等更為複雜的命題。我們将在算法治理觀察系列文章中,聚焦最新的立法與司法實踐,帶來兼具深度和廣度的分析與解讀。

特别聲明

以上所刊登的文章僅代表作者本人觀點,不代表北京市中倫律師事務所或其律師出具的任何形式之法律意見或建議。

如需轉載或引用該等文章的任何内容,請私信溝通授權事宜,并于轉載時在文章開頭處注明來源于公衆号“中倫視界”及作者姓名。未經本所書面授權,不得轉載或使用該等文章中的任何内容,含圖檔、影像等視聽資料。如您有意就相關議題進一步交流或探讨,歡迎與本所聯系。

繼續閱讀