天天看點

财經三人談:新規出台,如何推動生成式人工智能發展向上向善

作者:環球網

來源:環球時報

編者的話:近日,國家網信辦聯合國家發展改革委、教育部、科技部、工業和資訊化部、公安部、廣電總局公布《生成式人工智能服務管理暫行辦法》(以下簡稱“《辦法》”),自2023年8月15日起施行。《辦法》提出,對生成式人工智能服務實行包容審慎和分類分級監管。《辦法》展現出目前大陸怎樣的監管思路?生成式AI企業間的競賽進入“下半場”,未來行業發展将呈現哪些特征?

用規範促進行業健康發展

李愛君

《辦法》對大陸的生成式人工智能行業發展不僅起到了規範作用,更從制度層面着手,對該行業進一步健康發展起到良好促進作用。具體可從以下三個方面進行解讀:

其一,《辦法》明确了促進人工智能健康發展為其實施的核心目标。在《辦法》第一條中,開宗明義提出上述目标,其背後有三層含義:一是以科技與行業的健康發展為宗旨;二是要明确具體規範的相關應用;三是必須維護國家安全和社會公共利益,保護公民、法人和其他組織的合法權益。

在《辦法》第三條、第四條中,“堅持發展和安全并重”“實行包容審慎和分類分級監管”以及“采取有效措施提高算法透明度”等表述都進一步展現了在具體執行中以支援促發展的基調,并對服務提供者在提供算法透明度的義務上有所減輕。

此外,《辦法》第十四條提出,“提供者發現違法内容的,應當及時采取停止生成、停止傳輸、消除等處置措施,采取模型優化訓練等措施進行整改,并向有關主管部門報告”。這些可以說是為服務提供者賦予了類似“安全港”的免責規定,即隻要不越門檻,就屬于合法。也反映出法規制定者對科學技術的認知,以及借助規範推動行業向上向善的努力。

其二,《辦法》明确了生成式人工智能服務提供者的義務與責任。規範應用是促進行業發展的基礎,執行層面則展現于對生成式人工智能服務提供者的義務與責任的明确。《辦法》從生成式人工智能服務提供者的算法設計與備案、訓練資料、模型,使用者隐私、商業秘密的保護,到監督檢查和法律責任等方面進行了義務與責任的規定,進一步展現了包容審慎監管和鼓勵發展的精神。

此外,《辦法》的義務規定與已有的《網絡安全法》《個人資訊保護法》《資料安全法》等相關法律緊密銜接,并充分尊重了生成式人工智能在訓練資料方面的客觀特征。

其三,《辦法》加強了對未成年人的保護。《辦法》在第10條中,明确表示提供者應“采取有效措施防範未成年人使用者過度依賴或者沉迷生成式人工智能服務”。明确地将保護未成年人的主體責任壓實在服務提供者的一方,科學且充分展現了對未成年人的保護。有效防範了在資本支配下,企業通過影響未成年人身心健康而獲得不法利益的行為。(作者是中國政法大學網際網路金融法律研究院院長)

歐美:起步較早但仍有風險

姚佳

對生成式人工智能實施監管,美國、歐盟已認證相關法案并采取行動。

美國延續其一向對技術發展的開放态度,以網際網路公司“自律監管”為基礎,同步預判新技術可能帶來的變革和産生的新問題。2023年5月,美國召開參議院聽證會,讨論如何監管生成式人工智能,以確定其符合美國的國家利益和價值觀。美國聯邦政府層面近年來也針對AI的監管采取系列行動。比如,白宮科學和技術政策辦公室于2022年10月釋出了《人工智能權利法案藍圖》等檔案,聚焦讨論安全且有效率的系統,防範算法歧視,保護資料隐私,以及人們的權利、機會和擷取路徑等等。

就歐盟而言,盡管沒有大型數字産業基礎,但是在布魯塞爾效應(指歐盟憑借市場力量單方面監管全球市場的能力)的帶動下,歐盟實作了對全球市場進行單邊監管的能力,并着力向世界輸出歐式資料保護治理理念和規則。2023年6月,歐洲議會通過《歐盟人工智能法案》,是首個對人工智能進行風險管制的法案,它基于風險預防理念,為人工智能系統制定了覆寫全過程的風險規制體系。歐盟将人工智能可能涉及的風險系統劃分為不可接受風險、高風險、低風險和最小風險四類,着重規制前兩類風險,并對高風險人工智能系統的全生命周期監管做了詳細規定,覆寫關鍵基礎設施、公民教育、産品安全元件、就業、公共服務、執法、出入境等相關領域。

盡管美歐起步較早,但仍有一些問題沒有正面應對,并可能帶來較大風險。一是利用生成式人工智能工具所産生的作品的著作權問題,至少美國版權局至今對此仍未置可否,隻是強調使用者不得侵權,但仍未正面解決生成式人工智能可能涉及的著作權歸屬問題;二是生成式人工智能在基礎生成算法的基礎上,可以在海量資料上進行無監督預訓練,但是這些訓練資料的來源和利用的合法性問題,仍是一個關鍵問題,而且具有全球性和緊迫性的特征。(作者是中國社會科學院法學研究所教授)

“後時代”的企業競争不僅是技術

歐智堅

生成式人工智能發展勢頭迅猛,用“一日千裡”來形容也不為過。與此同時,全球對該技術的發展和提供服務的企業進行監管的呼聲也從未停歇。

此番由七部門聯合釋出的《辦法》出台,從安全和發展兩條主線出發,充分展現了目前大陸在人工智能領域堅持發展和安全并重、促進創新和依法治理相結合的原則。就底層邏輯而言,《辦法》堅持了技術應服務于人類進步的本質訴求,有助于進一步通過有效規範促進科學技術發展“向上向善”。在全球範圍亦展現出引領及示範意義。

對于目前快速成長的大模型企業而言,《辦法》對目前生成式人工智能在發展中的一些潛在問題進行了規範。比如,對生成式AI在涉及個人資訊、重要資料、資料安全、資訊真僞等多方挑戰,《辦法》提出人工智能企業需按相關規定對其提供的服務進行安全評估、算法備案等,對生成式人工智能服務的透明度和生成内容的可靠性提出治理要求。此外,《辦法》強調了資訊收集者對個人資訊的保護義務,要求對于深度合成的圖檔必須予以辨別,等等。這些自上而下的規定,為企業提供了發展中應遵循的準則。

《辦法》鼓勵了人工智能在各行業的應用,實行包容審慎和分類分級監管。相關規範下,企業成長路徑也更為清晰。一方面,将監管的“利劍”高懸于上,有助于企業認清“紅線”,在發展中自主、自覺阻斷非法内容的生成或傳播。另一方面,《辦法》敦促了企業應不斷從社會責任角度出發,開發可靠技術、傳遞可靠資訊,不應為追逐經濟利益而忽略其社會責任。

目前全球已進入大模型“後時代”,下一階段的企業間競争,将不僅僅是科技力量的競争,企業社會責任的競争同樣關鍵。如何保障公衆利益,開發高可靠的人工智能?如何減少無效競争,實作産業各方協同進步?如何有效減少碳排放,降低“高耗能”開發所需的資源成本?這些都是“後時代”的新問題和新挑戰。未來能夠長遠發展的企業,必定是技術創新發展與社會責任擔當并舉的企業。

後續,如何讓監管進一步落地執行,需要政府、企業和學術界三方的共同努力。不斷結合技術發展,共同迎接挑戰,在規範中實作生成式人工智能技術的“向上向善”。(作者是清華大學副教授、博士生導師,人機對話、人工智能領域專家,它思科技聯合創始人)

繼續閱讀