天天看點

龍柯宇|生成式人工智能應用失範的法律規制研究

作者:上海市法學會
龍柯宇|生成式人工智能應用失範的法律規制研究

龍柯宇 西南政法大學民商法學院副教授、法學博士

龍柯宇|生成式人工智能應用失範的法律規制研究

以ChatGPT和社交機器人為代表的生成式人工智能是資料、算法和算力共同作用的結果,其能通過高效地改變網絡空間動态結構,進而引導、塑造和固化目标閱聽人的認知。技術中立的托詞無法為此類人工智能的應用失範進行開釋,作為一種内容生成技術,它的行為射程和效用狀态展現的仍然是背後設計者和使用者的主觀意志與價值選擇。對于生成式人工智能的法律規制,應秉持彰顯國家監管權力在場以及強化人之主體地位的理念導向,嵌入與推廣算法倫理,并正确處理技術治理與法律規制之間的關系,發揮兩者雙管齊下的集合效應。還應建構各利益攸關方的協同治理格局,傳統的行為規制模式也需轉向針對資料和算法的過程性規制模式,而網絡平台則需通過合規機制,采取删除、通知、标注、算法審計等措施,履行平台應盡之監管職責。

龍柯宇|生成式人工智能應用失範的法律規制研究

一、問題的提出

技術在塑造新的大模型的同時,也極大地改變了資訊傳播範式,因資料與算法雙輪驅動而引發的網絡失範行為層出不窮,“破壞性創新”是以得名。近期爆紅的現象級産品ChatGPT,表征着生成式人工智能正在發生的快速疊代和進化,其不僅重構了人們的認知邏輯,還革新了傳統産業的運作方式。面對ChatGPT上線兩月使用者破億的“狂飙”事實,前有360創始人周鴻祎稱其為“通用人工智能發展的奇點和強人工智能即将到來的拐點”,後有馬斯克等千名科技人士集體呼籲暫停訓練比GPT-4更強大的人工智能系統至少6個月,而意大利則成為首個禁用ChatGPT的國家。其實,無論是盛贊抑或诟病,都是數字化轉型程序中對生成式人工智能的一種應用考察與注解,旨在于社會接受度範圍内引導其向善發展,以此增進人類福祉。

不同于側重分析與判斷的決策式人工智能,生成式人工智能憑借深度學習與生成算法,通過檢查訓練示例以最大限度地利用現有數字内容的分布模式,進而生成不同于學習樣本的、多樣化的、具有原創性的新内容。總的來說,生成式人工智能的崛起是資料、算法和算力共同作用的結果,其中,神經網絡算法的大規模使用系最為關鍵的因素。當下,生成式人工智能主要應用于消費端(通過内容生成,提升消費者效用)和産業端(加速自動化,促進技術進步和新要素創造),其典型代表便是ChatGPT、社交機器人(Social Bots)等聊天機器人模型。具體來說,ChatGPT是一款基于Transformer架構訓練出的GPT系列的自然語言處理工具,其本質是一種“大資料+機器學習+模拟演練+微調變換+加工輸出”的人機智能互動應用程式。而社交機器人則是一種經由程式設計并按照一定算法運作的計算機程式,其僞裝成社交媒體平台的真實使用者,通過關注、發帖、點贊、評論、分享等互動方式,實作商業引流、輿論引導的目的。

網絡空間本應是現實社會關系在虛拟時空得以存續和延伸的一個場域,但惡意的生成式人工智能卻企圖在各個次元最大限度地模仿和貼近人類,并利用資料空洞和社交網絡“弱連接配接”的特性,滲透進真人使用者群體,再“一本正經地兜圈子”,或者僞造出大量網友對某一話題或人物的同意或反對意見,進而制造熱門話題,最終達緻某種精心設計的社會影響,其對網際網路生态造成的負面效應委實不可小觑。

現實中,生成式人工智能在減輕網際網路群組負責人工作量和實作技術賦能的同時,也引發了一系列網絡亂象。譬如某明星微網誌取得一億轉發量的幕後推手便是利用了社交機器人來制造流量和控制娛樂風向。同樣,在社交機器人的幫助下,Cynk科技公司的股票從每股0.10美元一躍漲到了每股20美元,公司市值增長了近200倍,升至60億美元。即便是在公共衛生領域,社交機器人也頻頻介入電子煙禁售等話題讨論中。此外,不法之徒也盯上了ChatGPT,用其建立無代碼的虛假内容,以此實施詐騙、恐吓、诽謗等網絡犯罪。

客觀來講,聚集了上億使用者的網際網路确實為生成式人工智能的規模化、産業化、平台化發展提供了優渥的資源環境,但作為科技進步表征的人工智能卻難免被濫用,甚至服務于違法犯罪活動。黨的二十大報告提出,要健全網絡綜合治理體系,推動形成良好網絡生态;要健全國家安全體系,強化網絡、資料等安全保障體系建設。國家網際網路資訊辦公室于2023年4月11日釋出的《生成式人工智能服務管理辦法(征求意見稿)》則明确了國家對生成式人工智能産業的支援和鼓勵态度,并首次就相關監管治理(包括準入資格、安全評估、責任義務、處罰措施等)給予了較為詳盡的規定。基于此,有必要穿透生成式人工智能的技術表層,将零散式的法律責任探究代之以體系化的邏輯考量,鑄就對此類人工智能由表至實的科學規制路向。

二、生成式人工智能的技術樣态考

伴随生成式人工智能以獨立信源和信宿的身份出現于網絡世界,資訊失真的缺陷被進一步放大,并從根本上解構了“人——人”交流場景。在缺乏明确的責任主體和義務限制的情形下,将生成式人工智能大規模地應用于群眾的虛拟社交場景,無疑會對人際交往和權益保障造成一系列危機。鑒之,應當關注生成式人工智能背後的技術問題,分析其運作邏輯和行為特征,進而厘清科技與法治的内在關聯,為相關法律規制提供可靠的現實歸依。

(一)生成式人工智能的技術邏輯與行為特征

在技術路徑上,生成式人工智能可以通過經驗學習和技術性模仿,實作從生成到創造層面對人類的“超模拟”,其所使用的生成模型主要包括生成對抗模型、自回歸模型、變分自編碼模型、流模型以及擴散模型。此處以社交機器人為例闡釋生成式人工智能的技術架構與傳播特質。

人們對于“網際網路自動通信”這一概念并不陌生,例如電子郵件使用者較常使用的外出通知郵件。而社交機器人的特殊之處乃在于,通過模仿人類使用者行為,使得通信相對方将其視作真正的網際網路參與者,而非由算法所觸發的自動通信。就演進曆程來說,早期的社交機器人一般隻會自動推送特定資訊,其程式設計設計較為簡單,無需采取複雜的檢查政策便可輕易識别。近年來,傳統機器學習逐漸向深度學習方向發展,社交機器人也由最初的“單打獨鬥”更新至“集體行動”再到“人機互動”,其網絡特征、賬戶特征、好友關系特征、時間特征以及文本特征已與人類使用者相差無幾。

新型的社交機器人主要具有如下行為特征:(1)可以利用網際網路為自己的社交媒體檔案收集資料和圖檔,創造出真實性的外觀樣态;(2)能夠模拟人類使用者的行為,例如定期更新社交媒體賬戶狀态,通過撰寫讨論帖、回答問題等方式與人類使用者進行互動,學習人類使用者在一天中發帖和轉貼的時間模式;(3)通過針對性的訓練,可以就社交網絡中的某些語句作出程式化的回應;(4)具備較強的反檢測能力,在缺少技術輔助的情況下,普通的人類使用者很難識别社交機器人的真實身份;(5)社交機器人與輔助機器人(如智能數字助理)在目标設定方面存在差異性,但它們的技術基礎都是相通的。自主性、反應性和機動性這三個根本特征使得社交機器人颠覆了過去以“真人”為主參與的社交媒體規則,代以“機器”邏輯來改變傳播生态,進而形成一個嶄新的人機耦合網絡空間。

(二)法律規制與技術中立的廓清

作為開始,首先應将技術視作一種以對自然物作直接的幹預、控制、改造為根本目的的正式的實踐。技術遠不是車輪與發動機的總和,而是一個完備的系統,與我們的生活息息相關。它不僅可以改變我們之間的社會關系,還迫使我們重新審視和定義對可能性和正當性的認知。技術自身的邏輯架構和發展軌迹使其具有了極強的客觀性面向,其本質就是一種無主體意識的、對現象有目的的程式設計。通過技術折射出的是事物本體,是以技術隻存在“真”“假”之分,無關乎價值判斷中的“善”“惡”;技術僅僅是一個合目的的手段而已,一切都取決于以得當的方式使用作為手段的技術;人們常說的“技術進步”也僅僅是指該項科研成果通過了實踐的檢驗并且最大程度貼合于廣泛的人類經驗,這便是所謂的“技術中立”。

然而,在一個由技術建構起來的世界中,技術真的可以摒棄“真、善、美”的倫理評判和合法性的法律評判,而獨善其身、秉持中立嗎?持否定觀點的學者從不缺少,且都言之鑿鑿,譬如哈貝馬斯一直都将技術和科學歸屬于主觀範疇;芬伯格則宣稱,技術規則是把從科學中擷取的思想與其他來自社會、法律和傳統的因素結合起來;而在馬爾庫斯眼中,至少在理論上有可能在技術設計時導入價值因素,進而使技術服從善意的駕馭。

法律領域對于技術中立的論辯,在2016年的“快播案”中得以全方位地呈現,盡管法庭最終并未采納被告方以“技術中立”提出的無罪辯護意見。之後的“基因編輯嬰兒”事件更是将技術中立以“元問題”而非“附加讨論”的面目推至風口浪尖。事實上,法律語境下的技術已不再是某種單純的“物”,而是一項複雜的具體“過程”或是“程式”。技術中立論者長期據守的“菜刀論證”(某人使用菜刀傷人,不應将過錯歸結于菜刀生産商乃至菜刀)實質是混淆了作為“技術物”的菜刀和作為“技術過程”的人工生殖技術、人工智能等現代技術,前者的生産與使用是截然分開的兩個不同階段,而後者除了指涉現象層面的專業定性外,還必然負荷了特定時期的法律價值圖景。換言之,有關法律與技術的教義學問題總是内嵌着一個價值網絡,技術的工具價值和社會價值必須被納入法律價值的論辯空間中,通過兩者的互相碰撞實作價值世界的重構,進而解決技術所引發的歸責原理和法律規範調整問題。

回到生成式人工智能的技術涵攝,其不過是由自動化算法程式驅動的、能與真人使用者進行互動的話語生成機器,背後仍然離不開人的操控和設定。技術不可能永遠停留在現象層面,其行為射程和效用狀态必然是服務于技術提供者和使用者的特定利益需求的。所謂技術的中立永遠無法保證對應行為的合法性,更不用說實作科技的倫理“善”。在生成式人工智能的自動運作過程中,技術既能夠以“參與者”的身份實作與真人使用者的虛拟社交——此種社交并非傳統的“刺激→反應”模式,而是建立在平等基礎上的一種主體間的連接配接關系——還可以作為“技術媒介”按需驅動和改變社交網絡動态結構,進而有目的地配置相關網絡資源,高效把控目标閱聽人接觸資訊源的管道;其間,技術将不可避免地遭遇墨菲定律,技術風險由可能性變為現實的破壞性事件。事實上,類ChatGPT人工智能在同作為法律主體的閱聽人個體及該個體的行為發生關聯時,由于算法偏見的存在以及程式子產品背後可能的資本裹挾,極易導緻網絡炒作(虛假高人氣)、侵犯網絡隐私、惡意發帖跟評、制造垃圾郵件、編寫惡意軟體,實施不正當的商業營銷等一系列社會副作用的發生。它們經由“技術研發——算法設定——資料處理——作出行為”這一線性流程,最終實作了對人的主體性的僭越,對社交網絡空間的資訊流處理能力造成極大幹擾,并置“價值理性”于不顧,這早已超脫了現象層面的技術問題,成為一個典型的對真人使用者行為幹預的技術算法,需要進行法律層面的規範評價。

三、生成式人工智能的資訊表達檢視

(一)生成式人工智能作為基于算法的資訊釋出者

通說認為,資訊傳播概指表意人和閱聽人之間的意義傳達,其在一定程度上表征着社會交流的暢通與安全。質言之,此種資訊處理行為必然預設了表意人和閱聽人雙方主體以及他們之間的溝通連結。生成式人工智能的自動化資訊輸出并非一個完全随機的純粹技術過程,相反,作為“傳聲筒”,它是基于早前給定的算法而發生,即便存在機器的自我學習算法,但學習過程在一定程度上仍是由人決定的。就ChatGPT的資訊生成本質而論,它就是一個基于人類回報的強化學習的大型神經網絡,一個通過相關技術人員的“海量資料投喂”而被訓練得具有黑格爾式辯證法邏輯的對話模型,一個可能會編造事實、誤導公衆的知識生産方式。尤其是當ChatGPT嵌入數字政府治理環節時,那些貌似由技術代碼作出的行政決策,實則展現的仍是該應用背後設計者與開發者的主觀意志與價值選擇,進而不可避免地會導入偏見與歧視,沖擊數字政府的行政倫理。

相較于ChatGPT,應将社交機器人的資訊傳遞視為一種間接的個人網絡意見表達,經由“數字公共廣場”(Digital Public Square)起到影響閱聽人情感、形成閱聽人意見與激發閱聽人行為的效用。畢竟,資訊的具體呈現形式包括了那些由人透過資訊科技系統而制成并傳送的訊息,借此可以推知個人強烈的表意性。根據自動化意思表示原則,社交機器人自動建立的内容應歸屬于其使用人,視為他在這一特定時刻直接發表了該網絡言論。唯有不同的是,關于此種言論是否、何時以及如何發出的決策過程通過程式設計在時間上被提前了,并轉化為抽象的标準。像上文提到的外出通知郵件,其建立者在事前也并不知道它們将被發送給誰以及何時發送。

此外,有必要對社交機器人程式設計員及其使用者的匿名性問題進行一個說明。衆所周知,社交機器人在社交媒體上的身份是程式設計員人為建立的,旨在誤導閱聽人相信該資訊釋出出自一個真正的人類使用者,這明顯是一種身份欺騙行為;而基于算法的不可追蹤性,該程式設計員很難被追責。即便如此,在資訊學視阈下,表意人仍是有權自由決定表達方式和表意環境的,以使相關資訊表達得以最廣泛地傳播或産生最大化的影響。申言之,法律是允許表意人使用輔助技術——諸如通過有傾向性的算法程式設計而達緻假名或匿名的目的——而為資訊表達行為的。此外,匿名表達還可以從一般人格權中推導出來,它也符合資訊自決權所内涵之資料避免原則的要求。加之匿名表達是網際網路所固有屬性,若是強制使用真實身份傳播訊息,将不利于促進公共讨論和意見交流。還需指出的是,如果社交機器人冒用他人真實身份發表言論,應被視為一種故意的錯誤引用行為,是對他人一般人格權的侵犯,應追究社交機器人使用者的相應法律責任。

(二)生成式人工智能資訊表達的法律邊界

有的生成式人工智能從一開始就是被故意設計出來以欺騙誤導閱聽人或者扭曲正常網絡秩序的,“先天惡意”使其發表的資訊多與事實相悖或損害第三方合法權益,甚至僅僅是為了制造資訊噪音,這就涉及此類人工智能資訊表達的法律邊界問題(也稱為“受保護範圍”)。在該問題上,社交機器人的資訊表達限度極具代表性。一旦代碼被寫入社交機器人并儲存起來,程式便會遵從既定條件而自動生成資訊内容。倘若社交機器人所發資訊屬于故意撒謊、陳述已被證明為虛假的事實、故意扭曲意見形成過程、侵害他人名譽權等情形,是無法得到法律保護的。舉例來說,加拿大一家名為Ash-leyMadison的線上社交平台,啟用了大量被提前植入指令的“女性”社交機器人,專注與已婚男士互動交往,以此吸引其購買昂貴的套餐積分。社交機器人此種運用“情感算法”來進行沉浸式交流的資訊表達行為,具有明顯的欺騙性,法律應給予其否定性評價。又比如,社交機器人常為企業等商事主體所用,僞裝成消費者對産品或服務發表使用體驗,造就“虛假熱度和共識”,進而影響其他消費者對該品牌的認知與購買意願,最終提升企業關鍵業績名額和商譽價值,抑或彌散市場恐慌訊息,扭曲上市公司股票價格。

就普遍排除在法律保護範圍之外的生成式人工智能自動生成的資訊類型而言,大陸憲法第33條和第51條提供了概括的方向性規定,而《網絡安全法》《全國人民代表大會常務委員會關于維護網際網路安全的決定》《網際網路資訊服務深度合成管理規定》《網際網路上網服務營業場所管理條例》《計算機資訊網絡國際聯網安全保護管理辦法》《移動網際網路應用程式資訊服務管理規定》《網絡資訊内容生态治理規定》等法律法規和部門規章則采取列舉的方式給予了具體的行為指引。值得一提的是,《生成式人工智能服務管理辦法(征求意見稿)》第4條明确規定,提供生成式人工智能産品或服務應當遵守法律法規的要求,尊重社會公德、公序良俗,展現社會主義核心價值觀,防止出現歧視、生成虛假資訊和實施不公平競争,禁止非法擷取、披露、利用個人資訊和隐私、商業秘密。

四、規制生成式人工智能的理念厘定

(一)彰顯與強化人的主體地位

生成式人工智能作為網際網路智能傳播的産物,從問世之日起便内含了易被操縱的特性,它通過重構線上使用者群體之間的社互動動模式,“使人逐漸為算法所規訓,主體的人成為可計算、可預測、可控制的客體”。在傳播實踐層面,由于社交機器人很難被通信相對方識别為計算機程式,是以其背後的操控者能夠以一種不為人知的方式幹擾網絡讨論的正常态勢。例如,社交機器人可以建立出成千上萬個使用者賬号及其逼真的類人化賬戶資料,并釋出預先程式設計的文章,通過标簽來推廣或引導該文章所涉話題,或根據某個關鍵詞重複其他文章的内容,進而制造出一種假象,即某個觀點的背後有大量不同的使用者表示支援抑或反對。而對于标榜“理性、中立、公允、客觀、全面”的ChatGPT來說,其早已被研發公司預設了政治立場和價值取态,隻是它隐藏得較深;甚至有時候,此種語言模型會被用作自動生成不計其數的虛假或者低可信度的資訊,進而制造話題暗中操控社會輿論。研究表明,生成式聊天機器人所發資訊隻要在特定話題讨論中占參與者的5%-10%,便很大程度會成為主流論調,引導公共輿論走向。

現下,生成式聊天機器人在具備了拟人化的溝通能力後,一躍從傳播工具和資訊管道變為操縱多重身份的參與性社交主體,在“身體缺席”和時空場景虛置的背景下,其俨然成為由算法驅動的社交網絡的新的“掌門人”,這從根本上動搖了傳統社會交往所預設的遵從内心誠摯、言而有信的行為守則,人與人的社會關系愈發趨向于結構性不平等和不對稱。伴随算法對人類生活的介入越來越深,其在一定程度上便享有了裁決權,智能化俨然成為價值評判的終極名額,技術理性淩駕于人類理性之上,主宰着所有人的生活,人類個體無力依據既有生活經驗對可能的算法風險作出應有的、自主的、負責任的回應,人之為人的尊嚴性在社交機器人面前不斷遭受侵犯。綜上所述,在對生成式人工智能進行科學的法律規制時,必須高舉人的主體性大旗,打破技術的暗箱操作,使此類人工智能應用更符合以人為本的基本要求,“了解人們想要什麼或需要什麼并更改設計以確定獲得最佳結果和使用者體驗,這是以使用者為中心的‘良好設計’的核心所在”。

(二)基于風險防範的監管權力在場

當下,生成式人工智能常會按需高效地以叢集化和智能化的方式來驅動網絡動态結構,并以此操控資訊的社會擴散規模和速率。與之相差別,網絡領域的人類使用者被高度區隔,在選擇性注意機制的作用下,網絡巴爾幹化現象頓生。處于相對封閉的言論社群中的人類使用者極易受同理心影響,傾向于接受與自己價值觀相近的、符合自身偏好的傳播訊息,由此引發回音室效應和資訊繭房問題。在這樣的背景下,上述人工智能利用人類使用者“弱連接配接”形成的溢出效應,依托算法對資訊的聚類、歸整和關聯,得以擇機滲透進各個使用者社群,以資訊過載的方式主動向目标閱聽人傳送資訊,占領相關資訊檢索過濾視窗,形成管道壟斷。當目标閱聽人收到多個由人工智能生成的具有明顯公共傳播性的訊息時,常會誤認為其可信度較高或屬于主流認知範疇,即使這并非經由官方在正式場合予以釋出,但在社會流瀑效應的驅使下,意識人格逐漸消失,無意識開始支配人格。根據沉默的螺旋理論,人們多會以“優勢意見”為導向并順應之,這就為生成式人工智能有目的、有計劃卻又不被發現地幹擾與操縱話題走勢提供了可乘之機,資訊也不可避免地呈現出削平、銳化和同化這三種失真樣态。

在叙事法學視域下,生成式人工智能的上述作為或引發一系列新的社會風險,并深刻影響社會治理的規範性和效用性。首先,其對資訊源的稀釋與污染——譬如通過生成或轉發大量内嵌關鍵詞或标簽的文章來反向滿足網絡爬蟲的需求,再通過搜尋引擎優化政策便可輕松操縱社交網絡平台的内容推薦與排名——使得人們擷取真實、高品質資訊的成本愈發增高。有研究證明,社交機器人憑借對資訊擴散結構的數字模組化,在80%的情況下可以與人類使用者成功建立聯系,其推送的相關資訊的影響力是人類的2.5倍。長此以往,人類使用者在網絡空間中賴以信任的多元資訊糾偏機制将遭到破壞,出現網絡資訊與事實不符的較大偏差,公共價值的形塑愈發困難,最終波及公共政策的作出、執行與回報。其次,該類人工智能可以根據窺視的目标使用者的背景資料,通過負面的、教唆式的語言表達或評論,觸發相對封閉的網絡社群的神經敏感點,形成群體模仿與群體感染。舉例來說,在社交網絡平台上,社交機器人隻需向相鄰節點作出長時間的、溫和的、非高頻資訊傳遞,并確定直接鄰居和周邊間接鄰居間的網絡暢通性,便可引發觀點的病毒式傳播與再傳播。而ChatGPT則因自身獨特的對話式資訊生成能力而成為了功能強大的“意識形态傳送機”,比如,它在回答問題時表示“隻有白人男性才能成為科學家”,而當使用者要求提供一份毀滅人類計劃書時,它也會随即給出行動方案。最後,伴随生成式人工智能在網絡領域的不斷蔓延,會對個人資訊與資料安全帶來極大隐患。在大資料時代,個人資訊是以資料作為載體,被傳輸并存儲于網上或雲中,其具有可量化的特質,可被讀取,也可被交易。由于ChatGPT的訓練需要大量的資料支撐(必然也包含了私人資訊),當存在技術問題或者使用不當、管控不力時,就必然會出現資料的過度采集、竊取、洩露、濫用、偷渡等一系列問題,資料安全岌岌可危。舉例來說,ChatGPT在被投喂資料時,能夠及時将社會所有個體的姓名、性别、電話、居住位址、出行軌迹、消費記錄、診療檔案等資訊予以儲存記錄,再經由簡單的機器算法,便可輕而易舉地推測出個人偏好、财務狀況、信用評級等隐私資訊,由此加劇此類資訊洩露及被濫用的潛在風險。相較而言,社交機器人則會仰仗一組組可被指派和計算的數位元組點以及網絡拓撲結構的特殊性,換取人類使用者的無意識信任,這在一定程度上會對人類使用者的知情權和隐私權造成忽略、降級乃至剝奪,特别是對青少年的隐私侵犯現象較為突出。

概言之,由生成式人工智能引緻的上述諸多社會風險具有極強的不确定性、無邊界性和規模化效應,其絕非人類個體使用者或社交網絡平台所能防範和處置的,強有力的法律監管更為必要。相關監管部門,作為網絡空間這一公共産品秩序維護的義務主體,理所當然地應積極應對、幹預與督導,承擔起“網絡看門人”的應盡職責,而非退居幕後,全然相信自組織邏輯下的網絡秩序。即便提出“代碼即法律”的萊斯格教授也坦陳,網絡空間的自由從來不與國家的缺位互成因果關系,反倒是歸功于某種模式的監管權力在場。

(三)算法倫理的嵌入與推廣

生成式人工智能的本質就是算法,而任何算法又必然建立在對周遭客觀事物的認知基礎之上,若無正确的倫理規範指引,算法便會毫無規則意識與誠信觀念可言。美國媒體情報公司的一家客戶公司曾因機器人對于一則虛假新聞報道——一衆原商業合作方被競争對手挖了牆腳——的故意放大和擴散,而市值下降幾十億美元。也有學者通過研究900萬條與美國五大金融市場股票相關的推文後發現,峰值期間的推文有60%均系轉發,其中71%系社交機器人所為,相關内容均是在推廣高價值股票的同時“搭售宣傳”低價值股票,以此擾亂股票市場的運作秩序。

由此,有必要對生成式人工智能背後的算法進行一種以一定的倫理規範為标準、着眼于實作算法正義的“元規制”。此種規制的具體要求應包括:(1)監管部門或行業協會需出台相關算法倫理規範指引,使算法嵌入價值敏感性設計。同時,應鼓勵算法設計者與倫理學家展開深入合作,以公平、安全、透明、非歧視的倫理價值觀駕馭算法應用,踐行“技術向善”的理念導向。(2)通過設定審慎義務、釋出算法品質與檢查報告、算法問責機制等舉措來引導算法發展,降低算法濫用的發生機率。然後,應建構規範化的算法倫理審查制度,将與算法相關的主體緊密聯系起來,以社會主義核心價值觀為指南,以算法程式正義為重心,協同打造有利于人類福祉的、可持續發展的生成式人工智能運作生态。(3) 應關注算法的商業道德導向,構築以倫理為先導的利益平衡機制,防止生成式人工智能通過制造資訊繭房,觸發不良商業資訊的非公正傳播,導緻不正當的商業營銷。(4)相關算法設計需在網絡空間得以适度的公示并接受技術監管部門的審查。同時,要培養社交網絡真人使用者與算法社會相比對的算法素養,使其對于算法風險有基本的認知與防範能力,凸顯個體對算法的自主性。

五、規制人機社交場域的進路肅理

(一)技術治理與法律規制的雙管齊下

任何新技術的引入必然意味着實踐的量變抑或質變,問題是這種變化是否會對現有法律制度形成沖擊。就生成式人工智能所涉新技術而言,與其通過效用計算,權衡其可能對既有法律規範産生的潛在風險與潛在收益,不如厘清基于網絡空間獨有的時空觀和人際觀,尊重自組織邏輯下的網絡秩序和内嵌于代碼的技術治理手段,最終形成技術治理與法律規制雙管齊下的規範模式。

近年來,大陸不斷加大網絡法治建設力度,制定了一系列針對網絡基礎設施建設、網絡技術應用、網絡公共服務、網絡安全管理的規範性法律檔案,網絡法制趨于體系化發展。與此同時,能夠對人們行為産生明顯限制力的網絡架構和網絡社會技術治理機制的相關實踐卻明顯欠缺。其實,社交網絡與傳統實體空間存在極大差別,不能用傳統實體空間的法律治理邏輯去解決社交機器人的規範使用問題。當然,技術治理也非某一完全新生事物,隻是由于新技術的應用而被寄予了另一番治理邏輯和時代内涵罷了。就生成式人工智能的技術治理而言,主要應把握如下四個方面的特質:(1)治理的風口從結果處置轉移至事前控制和行為預防,依據有二:一是此類人工智能在網絡空間的存在已屬常态,其造成的損害往往較為嚴重;二是網絡空間固有的無邊界性和傳播蔓延性使得此類人工智能所生損害很難挽回,而這種損害又無法用既有損害計算法予以估算,更無法移轉至加害人。(2)國務院印發的《新一代人工智能發展規劃》提出,要建立健全人工智能監管體系,實行設計問責和應用監督并重的雙層監管結構,實作對人工智能算法設計、産品開發和成果應用等的全流程監管。《生成式人工智能服務管理辦法(征求意見稿)》延續了上述檔案從技術研發到使用的全過程、全要素的監管邏輯,并額外确立了安全評估、算法備案、預訓練和優化訓練資料合規、人工标注合規等具體制度安排。這意味着,對生成式人工智能的技術治理倒逼了行政管理模式和治理理念的革新,以技術治理驅動治理效能的提升成了監管者進行精準治理和有效治理的重要依賴路徑。(3)不能将生成式人工智能所生内容純粹轉化為數字、程式設計、算法等問題,否則容易滋生人對技術的過度依賴,技術異化也随之發生。技術的開發與應用應遵循普遍的倫理道德架構,以增進社會福祉和推進人的自由全面發展為導向,這也是社會治理價值合理性與技術工具理性相融合的不二選擇。(4)技術治理倡導效率優先的理念,追求相關治理的便捷性、高效性和投入成本最低化。例如,可以利用研發成本較低但具有正向社會功能的社交機器人充當社交網絡平台的社群管理者,賦予其治理能動性,并定期對其進行技術維護和更新。值得一提的是,機器人管理者還可以依靠算法,定期向使用者傳達社交網絡管理規約等平台管理資訊,或者利用其社交屬性,深入不同社群版塊,積累不同群體的語料素材,進而對違法資訊予以科學辨明,切實做好網絡常态化管控工作并提升應對突發輿情事件的綜合能力。

需要注意的是,對生成式人工智能的技術治理必須恪守應有的效用邊界,在邊界範圍之内發揮治理的價值和功能,邊界之外則需凸顯法律規制的普适性,包括法律對技術的歸化。質言之,生成式人工智能的治理應當采取技術治理與法律規制同步進行的方式,此種二進制共治模式重新檢視和诠釋了技術與法律的辯證關系,将關注點置于兩者的價值協同和功能互補。須知,技術治理正深刻影響着法律規制的路徑、邊界群組織結構,為其提供強有力的智力支援和科技支撐,而法治實踐中的人文主義關懷又會“反哺”于技術治理,使其能夠得到有效歸化。

(二)邁向過程性規制的監管模式

對于生成式人工智能的監管,必須基于其明顯差別于傳統實體世界的環境設定,如若仍将網絡行為的現實社會危害性作為衡量名額,通過業務許可、專項審查(整治)等方式來實作内容管理,這是不可取的。在數字化時代,此種監管模式主要存在兩大弊端:第一,過于強調規制社交網絡使用者的顯性失範行為,卻忽略了ChatGPT和社交機器人這樣的人工智能通過算法技術進行資料歸類和資料關聯,對民事主體的合法權益、輿論安全秩序等所産生的隐性威脅或不當損害。舉例來說,大陸刑法對于網絡侮辱诽謗,是通過情節是否嚴重來差別罪與非罪的,而根據相關司法解釋,判斷情節是否嚴重的事實依據主要包括該資訊的實際被點選、浏覽次數,被轉發次數,造成被害人自殺、自殘、精神失常等惡劣後果等。顯而易見,這樣的司法實踐仍囿于傳統實體世界的行為規制邏輯,而沒有充分考量算法技術在資訊傳播過程中存在的巨大公共風險問題。第二,忽視了網絡技術的迅猛發展以及網絡架構設計的即時性和無序性所導緻的社交網絡的去中心化和扁平化現象。在算法社會,合作治理所産生的正向效用愈加凸顯,一種新型的網際網路運作模式蔚然成型,即融合監管部門、網際網路企業、民間機構、社會團體、公民個體等多元主體力量的針對社交網絡的共識、共振、統籌和關聯。此種多利益攸關方協同共治的新格局治理與黨的二十大報告提出的“健全共建共治共享的社會治理制度”可謂不謀而合。

綜上所述,為了防範和化解生成式人工智能所生之風險隐患,有必要轉向一種過程性規制,即通過規制資料和算法,達成對生成式人工智能應用失範的科學治理。不同于以往側重于對資訊類型和内容進行審查的做法,過程性規制更為關注的是資訊的産生、在網絡中的傳播、在社交同溫層的影響力、資訊的排名名額等事項,進而避免陷入對資訊實體價值予以判斷的沼澤。風險社會下,規制生成式人工智能的出發點和落腳點應定位于打破算法壟斷下的封閉網絡社群,保障資訊傳播路徑的暢通,維護正常的交流秩序,防止此類人工智能通過資訊轟炸,有目的地放大特定使用者言論抑或話題影響力,同時也剝奪了其他網絡使用者的平等發聲機會以及個人觀點的自主形成。

根據中共中央、國務院印發的《法治政府建設實施綱要(2021-2025年)》的相關規定,在對生成式人工智能進行過程性規制時,有如下幾個方面要特别注意:(1)不能單純以流量和熱度作為是否采取相應規制舉措的判斷标準,應利用技術手段對相關智能機器人所發資訊予以辨明和澄清,破除網際網路使用者對其的被動型認知依賴,并線上下面對面地收叢集衆意見建議,以此真正踐行“從群衆中來,到群衆中去”的群衆路線。(2)需加強對算法推薦的監管,因為生成式人工智能常常利用算法推薦來擴大聲量,炒作虛假資訊,最終對目标群體施以不正當影響。根據2022年3月1日起施行的《網際網路資訊服務算法推薦管理規定》,監管部門一方面要對算法推薦服務提供者進行嚴格管控,另一方面也要對使用者權益進行全面保護。(3)算法技術的迅猛發展與其相對滞後的歸責機制以及差異化的裁判标準之間的鴻溝愈發凸顯。為了促進生成式人工智能在技術層與合規層的協調并進,追求算法正義,應落實相關開發者和使用者的算法安全主體責任,賦予其資訊披露義務,并建立行之有效的問題回報機制。人工智能的算法設計必須遵循一定的倫理标準和規則,應在監管部門處就算法服務提供者的名稱、服務形式、應用領域、數字模型、算法範式、模組化方法、算法自評估報告等資訊進行備案,并接受包括設計目的和政策議程等方面的安全評估。在國家人工智能治理專業委員會于2021年9月25日釋出的《新一代人工智能倫理規範》中,明确提出了增進人類福祉、促進公平公正、保護隐私安全、確定可控可信、強化責任擔當、提升倫理素養6項基本倫理要求,這些均為生成式人工智能的算法治理提供了堅實的政策依據。(4)這裡所謂的過程性規制隐含了對各類網絡平台的監管職責。監管部門可以通過制定資訊釋出政策、設定資訊技術服務标準、開展資訊安全服務資質認證、限制或禁止通過生成式人工智能傳播非法資訊等舉措,實作對資料化資訊場的強有力管控。(5)根據《網際網路資訊服務算法推薦管理規定》第23條的規定,應由網信部門會同電信、公安、市場監管等有關部門建立算法分級分類安全管理制度。此種監管能夠有效地将一般監管事項與特殊監管事項區分并緊密結合起來,促使行政部門出台更具針對性的行政規章制度,強化執法效能,提升行政執法精準性,對生成式人工智能這樣具有輿論屬性和社會動員能力的重點對象進行嚴格的風險管控,同時也要避免因過度監管而對算法創新造成的不利影響。

(三)平台的公共職責與監管可能性

大資料時代背景下,網絡平台為了增加自身競争力,實作既定的商業營收目标,擷取資本市場青睐,往往對流量、點選量極為看重,使其一度成為平台重要甚至唯一的考核名額。而生成式人工智能的應用——尤其是社交機器人的大面積投放——在客觀上确實可以帶來流量泡沫,以“引戰”之名行“引流”之實,這對于網絡平台而言實屬喜聞樂見,是以也就喪失了監管激勵。盡管如此,網絡平台卻非一般商事主體,它雖常常以公司形态存在,其背後的股權架構也較為複雜(尤其是跨境平台),但它卻為群眾提供了參與公共社交活動的重要虛拟場所,其中夾雜的公共利益不言而喻。通過制定和實施一系列管理規定,網絡平台實際上承擔起了部分公共職責,建構了一套獨立的、日趨完善的互動秩序。如今的網絡平台并非隻是單純的信道(即傳播媒介),其在很大程度上已喪失了作為工具的中立性和非參與性,它扮演着網絡市場規制者的角色,行使着準立法權、準行政權和準司法權。

由于網絡平台行使管理職權具有明顯的單方性、指令性、強制性和跨國家主權性,是以其可以憑借話語權力和技術手段,科學建構起防止生成式人工智能應用失範的制度規則。平台相應的監管措施主要表現為三個方面:(1)建立健全誠信化舉報機制。一方面,鼓勵和調動平台使用者以匿名方式主動報告可疑事件,譬如上報那些不分晝夜地不間斷飽和式發言,意在搶占話語導向先機的賬号,或者在短期内從同一個IP位址發了很多文章或者在很多平台發了相同的文章;另一方面,平台需對該舉報機制的績效進行定期評估并據此予以相應改進,同時要明确對網絡舉報志願者的獎勵規則。(2)增強風險意識,主動防禦生成式人工智能可能帶來的網絡危害。平台應積極使用新科技檢測手段,輔之以人工核查,科學識别和攔截惡意生成式人工智能賬号,并視具體情形不同采取删除資訊、貼标簽或通知等處置措施。其中,最為嚴厲的措施無異于删除那些智能生成的相似的有害資訊,甚至對該賬戶實施禁言或封号,以削弱人工智能通過平台的推薦程式和搜尋引擎這兩大資訊過濾檢索通道對人類使用者産生不當影響。但此舉也可能會導緻“過度阻斷”或者誤删被允許的資訊,是以,平台必須為“附帶傷害”的使用者保留投訴通道,有義務聽取他們的申辯和解釋,進而最終作出正确合理的裁判結論。與删除資訊不同,貼标簽這項舉措比較“溫和”,不具有侵害權利的可能性,但卻可以降低類似社交機器人這樣的人工智能基于資訊訂閱推送服務而誘導閱聽人對其進行關注的成功機率,同時使那些被視作機器人使用者的賬戶所發資訊在意見交鋒時失去可信度,人類使用者也可以自行決定是否要相信一個智能聊天機器人,以及它的言論到底有多重要。這将大大減少公衆輿論形成過程中的扭曲現象,降低沉默的螺旋以及盲目遵從所謂多數人意見的發生機率。至于平台的通知義務,既包括大陸民法典“侵權責任編”第1195、1196條所規定的内容,又包括平台在面對可能危害國家安全和公共秩序的事宜時,有義務向國家安全部門報告有問題的賬戶、說明可疑的事實,并等待行政指令而行事。(3)定期釋出《透明度報告》(TransparencyReport,很多社交網絡平台都會釋出該聲明,意在披露各種與使用者資料、記錄或内容相關的統計資訊),并對算法資料予以審計,確定其公正性、完整性和準确性。此外,平台應引入通過算法識别智能聊天機器人的應用程式,并利用驗證碼Cookie以查驗使用者是否為人類,以此避免其對真人使用者進行有目的的搭讪。

結語

無論在學界抑或實務界,針對生成式人工智能應用失範的擔憂總不絕于耳,采取預防性的措施和因應性的制度實屬必要。畢竟,法律體系存在的終極意義就在于追蹤并規範那些可以通過技術治理的哪怕是發生可能性極小或者影響力極弱的各類風險的每一個環節流程。本文對于生成式人工智能法律規制的探讨主要是架構性、方向性、原則性的,大量深入的理論和實證研究尚待進行,諸如多方共治格局下,對于包括新聞媒體、社會公益組織、行業協會、公民個人等在内的社會深度監督的研究,唯有如此方能最終形成系統性的治了解決方案。雖然身處第四次工業革命時代,現實逐漸為資料和符号所替代,而在這些資料和符号背後,依然是無窮無盡的資料和符号,“現代的真實已由技術性活動重構”,這也使得生成式人工智能在虛拟網絡空間中的角色與功能都愈發多樣,對其進行解讀梳理,有助于我們去窺探、拷問和了解技術創新與法律規制在法理層面的關系,以及應以何種範式來規制,亦即既有法律規範如何在人機互動的網絡生态中展開解釋與适用。

龍柯宇|生成式人工智能應用失範的法律規制研究

繼續閱讀