天天看點

AI向善之惑:要不要給大模型裝上“紅綠燈”?

3月18日消息,随着ChatGPT迅速破圈,AIGC(AI Generated Content)被看作繼PGC、UGC之後新型利用AI技術自動生産内容的生産方式。而AIGC的快速疊代演變,讓大模型應用落地有了新領域,國内企業紛紛跟進大模型研究應用。大模型在帶來變革性體驗的同時,也帶來内容安全、隐私保護、侵權、結果合法性等諸多隐憂,在鼓勵創新的同時,如何規範科技向善?

大突破帶來新問題

AIGC推動人工智能從感覺了解世界到生産創造世界。内容創作模式由早期專業制作(PGC)、使用者制作(UGC)發展到AI輔助使用者制作(AIUGC),再到目前AIGC(人工智能創作内容)。備受關注的OpenAI近日釋出的GPT-4,即是一個多模态大模型(接受圖像和文本輸入,生成文本)。

AI向善之惑:要不要給大模型裝上“紅綠燈”?

在國内,大型網際網路公司早已進入大模型研究領域,随着AIGC的火熱,國内企業在大模型的布局也紛紛浮出水面。大陸超大模型不僅不落後于國外同類産品,在某些領域還能實作反超。

專家預測,到2030年,合成資料(Synthetic data)将取代真實資料成為AI模型所使用資料的主要來源。“架構統一、模态統一、任務統一的通用多模态大模型逐漸成為人工智能研究的一大趨勢。”京東集團副總裁、IEEE Fellow何曉冬在接受《通信産業報》全媒體記者采訪時表示,多模态大模型是人工智能技術從限定領域的弱人工智能邁向通用人工智能路徑的重要途徑。通用多模态大模型将逐漸在人工智能領域扮演着基礎模型的角色。

目前人工智能技術三要素包括資料、算法、算力,然而資料往往是靜态的、算法是單一任務驅動。何曉冬認為,未來會更新為場景、系統、算力新三要素,包括複雜互動智能場景及其産生的動态資料、多任務協同和多算法融合的系統和能支撐複雜場景與系統的新型算力,進而讓計算機能深度地了解真實世界及解決重大的真實問題,提升智能系統的通用性、适應性和任務完成率。新一代融合性智能需要能基于“活的”互動場景去疊代和發展,包括人與智能體的互動、以及多智能體之間的互動,将成為人工智能的一個新發展趨勢。

盡管大模型本身還存在一些技術挑戰和不完善,但人們已經看到了其威力,甚至已對現行治理帶來了不利影響。

隐私、偏見、侵權……

全球前2%頂尖科學家榜單入選者、聯通數科首席AI科學家廉士國向《通信産業報》全媒體記者表示,一方面,它并不是按照人類創作内容的方式學習的,并未學習到創作的本質,貌似有對已有内容的風格模仿和元素重組,其産生的内容可能存在版權侵權風險。例如,仿照畢加索風格繪畫,仿照某作家風格寫小說,合成一段明星人物的語音,将圖檔或視訊中人物面部替換,生成某人的高仿數字化身等。

另一方面,它是以資料驅動為主建構的,依然存在深度學習的不可解釋性、不公平性等問題,其産生的内容可能存在不真實、不合規等的風險。例如,同樣的問題不同的問法,ChatGPT會給出不同的回答、繪畫AI會産生不同的畫作,甚至會生成違背事實的、歧視性的文字/圖畫内容等。

AI向善之惑:要不要給大模型裝上“紅綠燈”?

與PGC、UGC相比,AIGC提升了内容生産效率,但當AIGC内容不可控時,相應的應用風險也會增大。例如,AIGC技術讓内容創作更容易了,這也會降低侵權、造假等的成本,而增加監管的成本;AIGC技術使得批量快速生成内容成為現實,這可能帶來蓄意控制輿情走向的潛在風險。

何曉冬表示,随着人工智能應用的深入,其自身的技術缺陷以及帶來的隐私倫理、決策偏見、使用安全等問題引發了信任危機。技術上,算法脆弱易受攻擊帶來的危險性;黑箱模型導緻算法不透明,使得人們無法直覺了解決策背後的原因。應用上,訓練資料中存在的偏見導緻公平性缺失;以人臉識别技術為代表的生物識别資訊的頻繁使用增加了隐私洩露的可能。倫理上,人工智能系統決策複雜,難以界定責任主體,帶來倫理安全問題。

用AI治理AI

通信行業法律觀察家伍霞表示,雖然監管層面已緊密跟蹤了新技術新業态,針對網際網路資訊服務算法推薦、深度合成等出台了相關管理規定,但随着實踐創新加速,立法與執法都需要結合具體場景加強預判性。

“人工智能領域的專家們已經開始考慮用技術手段來鑒别AI生成的内容。”廉士國表示,通過人工規則來判斷内容合法性、通過文本内容統計分析及添加文本水印等方法來鑒權等。我們相信,除了技術手段之外,相關的數字治理制度也将啟動建立。

AI向善之惑:要不要給大模型裝上“紅綠燈”?

“我們需要建構安全可信的人工智能治理體系”何曉冬表示。

所謂“道高一尺,魔高一丈”,技術演進需要有相應的治理配套技術的跟進。廉士國認為,AIGC的健康發展依賴于通過提升技術成熟度、更新監管手段、健全政策法規等來完善可控性,包括AIGC可解釋性技術創新、AIGC内容合規檢測、AIGC内容盜版監測、AIGC内容溯源、AIGC适用法律法規配套、AIGC使用者風險意識教育訓練等。

何曉冬認為,加強魯棒性、可解釋性、隐私保護等方面的技術研究,解決目前應用人工智能時所遇到的問題,增強大衆對人工智能的信任,確定應用和服務在最大程度上減少偏見,促進人工智能健康高品質發展。

此外,國家知識産權局專家王雷表示,大模型健康有序發展,從專利方面需要從兩個角度開展工作。一是利用專利文獻,梳理AIGC的技術發展脈絡、技術硬核、技術未來發展的趨勢。通過專利文獻的梳理具有很大的價值,可以幫助中國産業界從全景(Big Picture)看整個技術體系,尋找有利的切入點和生發點。二是專利是一種獨占性的保護權利,其實施要獲得專利權人的許可。發展技術需要早期就關注到專利權的分布,避開雷區和禁區,或者在有利條件下購買專利許可,避免未來産品和服務面臨的專利風險。

在AI等新興技術應用發展中,統籌好發展與安全尤為重要。伍霞認為,網絡安全方面,當人類無法輕易分辨對話背後究竟是機器還是真人時,電信網絡詐騙等違法犯罪行為打擊的難度和壓力也将陡增。是以,更深層次而言,在AIGC的飛速發展中,還應關注文化安全。

“有理由相信,AIGC的快速發展終将會促進人類的進步”廉士國表示。

科技向善是技術發展的基本倫理,我們有理由相信,AI大模型能“善”解人意,我們也應該擁抱大模型,在發展中完善,在進步中規範。技術沒問題,問題隻會出現在用它的人身上。

采寫:崔亮亮

編輯、校對:亮亮

指導:新文

繼續閱讀