天天看點

【關注我每天多懂一點AI】李飛飛團隊:《基礎模型的機遇與風險》

作者:ChatGPT掃地僧

【編者按】

《基礎模型的機遇與風險》一文寫作于2021年,但至今仍很有研究價值。彼時BERT、DALL-E、GPT-3模型先後亮相,斯坦福大學Percy Liang、李飛飛教授等諸多不同領域學者及時關注到此類預訓練模型可能對人工智能産生深刻影響,并聯合撰寫本報告,将此類模型命名為基礎模型。本文詳盡介紹了基礎模型的機遇和風險,包括其能力、應用、技術原理和社會影響。本文極具前瞻性,其中所預見的諸多情形已成為現實,其所提示的風險更值得正處于“模型泛在”社會階段前期的我們再次回顧。本篇推文将對《基礎模型的機遇與風險》進行編譯,重新回顧基礎模型帶來的機遇和各類風險,及研究人員提出的相應建議和其他值得持續探讨的開放性問題。

目錄

一、簡介

二、基礎模型的能力

三、基礎模型的應用

四、技術原理

五、社會影響

六、總結

一、簡介

本報告調研了基于通用模型建構人工智能系統的新興範式,本文将這種具有通用性的模型稱為基礎模型(foundation model)。基礎模型是指基于海量資料訓練的、能夠通過微調等方式适配各類下遊任務的模型。其具有兩個突出特征:湧現(emergence)和同質化(homogenization)。

1.1

湧現和同質化

湧現是指人工智能系統的行為并非預先明确設定的,而是被隐式誘導着進行的;這是科學研究中令人驚歎的發現,也是難以預測的風險的産生原因。同質化是指不同應用場景下的人工智能系統建構方式具有固定性;這使得基礎模型可以進行多種任務,但也制造了單點故障風險。

事實上,湧現和同質化現象同樣存在于過去30年間的機器學習研究和深度學習研究中,但為什麼直到現階段,該現象才引起人們的擔憂和關泛關注呢?這需要重新回到基礎模型的技術說起。

基礎模型是通過遷移學習和大規模化實作的,遷移學習使其成為可能,而大規模使其強大。遷移學習可以被感性地了解為舉一反三,即将從一項任務中學到的“知識”應用到另一項任務。在深度學習中,預訓練是遷移學習的主要方法:在替代性任務上訓練模型,然後通過微調等其他方式适配下遊任務。大規模的實作與以下三個因素有關:(1)計算機硬體的技術進步;(2)transformer架構;(3)大量可用訓練資料。尤其是在自監督學習中,預訓練任務是從未标注的資料中自動推導出來的,資料可用性和資料使用能力大幅提升。2019年後,自監督學習成為NLP領域的主要預訓練方式,這意味着開發人員接受了一個模型可以廣泛部署于多種下遊任務的先驗假設,着标志着基礎模型時代開啟了。

基礎模型引起了前所未見的同質化程度。首先,在NLP領域内,現有最先進的NLP模型都是基于少數基礎模型之一調适的,這雖然減少了模型訓練的成本,但也導緻了一種風險,即所有人工智能系統都可能繼承一些與基礎模型相同的錯誤偏置。同時,現在也出現了一些跨領域的模型同質化現象,例如類似的基于Transformer的序列模組化方法現在被應用于文本、圖像、語音。這表明,未來我們可能擁有一套統一的工具來開發各種模态的基礎模型。

基礎模型中産生的湧現效果也令人驚異。例如,與GPT-2的15億個參數相比,GPT-3有1750億個參數,并可以進行語境學習。通過向其語言模型提供提示(prompt)(一條對任務的自然語言描述)就可以讓其适配下遊任務。這種提示是一種既沒有經過專門訓練也不被期望在資料中出現的湧現屬性。

同質化和湧現以一種可能難以預料的方式互相作用。同質化可能為許多邊緣領域提供更多可能性,但另一方面,模型中的任何缺陷都會被所有下遊模型盲目繼承。由于基礎模型的能力來自于它們的湧現性質,現有的基礎模型難以了解,并且可能具有難以預料的錯誤模式。湧現的存在使基礎模型的能力和風險具有很強的不确定性,這些模型的同質化更擴大了這種風險。

1.2

社會影響和基礎模型生态系統

為了研究基礎模型的研發和部署,必須要從人工智能生态系統的角度出發研究。與基礎模型有關的問題應該從生态系統的不同階段來回答。

  1. 資料建立:資料是由人建立的,都直接或間接地與人相關。值得注意的是,資料都有其所有權人,資料的建立都具有目的性。
  2. 資料整理:将建立的資料整理成資料集,自然界中沒有單一自然分布的資料。即使是爬蟲軟體爬取的資料也需要選擇和過濾。
  3. 訓練:通過資料集訓練基礎模型。
  4. 适配:調整訓練好的基礎模型,給特定使用于某領域的應用程式加上額外的适配邏輯,使之能夠更好地适配下遊任務,避免受到基礎模型的負面影響。
  5. 部署:将人工智能系統提供給終端使用者,這會産生直接的社會影響。

雖然這份報告是關于基礎模型的,但需要注意的是,基礎模型的許多影響來自于生态系統中其他階段作出的決定,這意味着每個階段都需要深思熟慮的監測和幹預。

1.3

基礎模型的未來

基礎模型仍然處于早期研究階段,但很大程度上仍然是研究原型,其專業規範也尚不明晰,誰來決定這個未來值得探讨。

技術的快速進步和中心化導緻的壁壘引起了各界強烈關注。除了技術學家之外,人文主義者和社會科學家也應當投入其中,從一開始就将社會影響和倫理設計融入基礎模型及其周圍生态系統的技術開發中。

本文作者呼籲,學術機構因其學科多元性,應當在開發基礎模型方面發揮着至關重要的作用,促進模型社會效益和減輕其社會危害,以及确定生态系統每個階段需采取的行動。

當下,基礎模型的開發和研究因其巨額成本而被商業機構壟斷。盡管市場驅動的商業激勵可以很好地與社會效益保持一緻,使基礎模型更加準确、可靠、安全和高效,但也可能導緻市場失活和邊緣領域投資不足的問題。此外,商業激勵還會導緻公司忽略社會的外部條件,以利潤為唯一導向。

事實上,由于科技公司拒絕對基礎模型開源,基礎模型的可通路性喪失,學術界無法充分參與其中。學者呼籲對基礎模型進行開源,學術界和工業界進行合作,由工業界就最終如何部署基礎模型做出具體決策,由學術界依靠學術界專業知識,為基礎模型的開發和部署的理論和倫理問題提供指導。

1.4

概述

這份報告由百餘名不同教育背景的學者共同撰寫,涵蓋了基礎模型各個方面。報告分為26個章節,每個章節讨論基礎模型的一個方面。各章節之間有許多聯系,主要包含四個主題:能力、應用、技術和社會。這些聯系強調了一種綜合的、跨學科視角研究基礎模型的方法論。

【關注我每天多懂一點AI】李飛飛團隊:《基礎模型的機遇與風險》

圖1:文章架構

二、基礎模型的能力

基礎模型習得了多種能力,助力下遊應用的部署。本文選擇對五種能力進行論述:處理不同模态資料的能力(例如,語言、視覺)、影響實體世界的能力(例如,機器人學)、推理能力、與人類互動的能力(互動)。最後,我們以基礎模型能力存在的可能限制的哲學性讨論作為結束。

2.1

語言

自然語言處理(NLP)是為基礎模型開辟了道路的領域,該領域内的基礎模型産生了令人驚訝的通用性和可适配性:一個基礎模型可以以不同的方式進行調整來解決多種語言任務。經過适配适應某項任務的基礎模型的性能已經超過以前專門為解決該任務而建構的模型或流水線式的模型,該領域研究和實踐的重點已經從為不同任務定制架構轉向探索如何最好地利用基礎模型。

但是因為語言的多樣性(包括語言風格、方言、語種的多樣性),基礎模型的可适配性仍然存在局限。學術界認為,可以通過研究兒童習得語言的機制來獲得啟發,這包括兩個關鍵因素:非場景關聯的(ungrounded)統計學習和系統且可概括的語言系統。基礎模型已經極大地改變了 NLP 的研究和實踐,然而基礎模型在複雜的下遊環境中的即時性、安全性和實用性仍然有待提升,研究者也需要就新的領域進行研究,例如研究如何最好地使用和了解基礎模型、基礎模型可能增加 NLP 中的不平等等問題。

2.2

視覺

計算機視覺引領了深度學習在人工智能中的采用,證明了在大規模标注資料集上預訓練的模型可以被遷移到衆多的下遊情景中。在計算機視覺的背景下,基礎模型将來自不同來源和傳感器的原始感覺資訊轉化為可适配衆多下遊環境的視覺知識。計算機視覺領域的模型訓練資料集從标注資料集轉向原始資料集,進行了預訓練的基礎模型在諸如圖像分類、目标檢測這樣的标準任務中取得了令人滿意的結果,而通過在多模态資料上進行訓練使其有可能突破重大挑戰(例如,3D幾何與實體了解、常識推理)。随着來自更多不同模态傳感器的資料被納入基礎模型中,加深了對隐私洩露和監控産生的擔憂。另外,随着視覺基礎模型的語義和生成能力的不斷提升,深度僞造圖檔和誤導資訊也成為了更大的威脅。

2.3

機器人學

機器人學研究的目标是開發出能夠在多種實體環境中完成多種任務的通用性機器人。機器人基礎模型的應用包括機遇和挑戰兩方面:需要在清晰明确的任務規範和學習的機會與資料收集和安全部署的挑戰中尋找平衡。學者研究了不局限于特定環境(例如,一般的人類視訊等)以及跨模态(例如,語言、視覺)的大量資料或有助于填補資料上的空白。同時,確定機器人系統的安全性和魯棒性也是同樣緊迫的。如果基礎模型能夠在機器人環境中工作良好,将會使得通過機器人代替人類進行任務說明與學習更加容易、引領新的應用(例如,家務勞動)以及有效提高系統魯棒性與安全性(例如,正式的安全評估)。

2.4

推理與檢索

推理和檢索問題是人工智能領域的長期挑戰。實踐證明,深度學習能夠有效的指引搜尋空間,且擴大模型規模可以顯著提高推理能力。基礎模型因其生成性、普适性、關聯性能夠有效增強計算機的推理能力、知識遷移能力和分析抽象概念的能力。基礎模型為縮小機器與人類之間的差距提供了可能性。但是,提高進階推理能力是現有基礎模型的核心挑戰。同時,基礎模型也産生了其他挑戰,包括如何從理論和實踐中解釋這些模型,能否訓練可以泛化到域外問題的魯棒推理模型等。

2.5

互動

在基礎模型與人工智能系統開發者和終端使用者的互動中,由于基礎模型在适配中的樣本效率,降低了人工智能應用原型設計與建構的難度門檻值,同時由于基礎模型的多模态和生成能力,提高了使用者體驗度的上限。但基礎模型放大了一些人工智能模型的問題,包括模型生成内容的作者身份确認問題、責任轉移和許可所有者的認定問題等。在互動中,或許未來開發人員和終端使用者之間的界限将逐漸模糊,當然這就要求模型具有更高的魯棒性和易操作性。

2.6

哲學視角的了解

基礎模型是否可以了解它所訓練的資料這個問題當下難以回答。從形而上學的角度來說,了解的本質尚有争議。學者的初步結論是,對未來基礎模型了解自然語言的能力持懷疑态度可能還為時過早,尤其對于那些在多模态資料上進行訓練的模型。

三、基礎模型的應用

當下,基礎模型的研究主要局限于計算機科學和人工智能領域,而其應用主要集中在科技産業。然後,基礎模型展現出了對人類生活産生普遍影響的明顯潛力。本文選擇了醫療保健、法律和教育這三個社會基礎領域進行分析。

3.1

醫療保健與生物醫學

醫療保健任務與生物醫學研究依托于有限且昂貴的專家知識。基礎模型因其豐富的跨模态訓練資料及其在适配中的樣本效率,有效提高醫學診斷和研究中的效率和準确率。然而,基礎模型也帶來了明顯的風險,包括跨模态資料學習問題、較低的可解釋性問題、隐私問題、公平性問題。在醫藥領域使用基礎模型,涉及很多倫理問題,必須要對其使用進行有效的監管。

【關注我每天多懂一點AI】李飛飛團隊:《基礎模型的機遇與風險》

圖2:基礎模型在醫療保健與生物醫學領域的應用

3.2

法律

基礎模型在法律領域的使用能夠有效為更多普通人提供法律服務。基礎模型在法律領域的應用有兩個突出價值:第一,自監督學習能夠很好克服對法律資料進行專業标注的高成本問題;第二,為法律決策提供豐富的背景知識。但是,為了能夠可靠地推理各種來源的資訊進而生成真實的長格式文檔,基礎模型還需要進行有效的改進。為了在法律領域使用基礎模型,基礎模型需要具有更強的長文本閱讀分析能力、檢索推理能力,且因為基礎模型在法律領域的失敗會産生直接的法律後果,其生成内容的準确性和可靠性也需要提高。

【關注我每天多懂一點AI】李飛飛團隊:《基礎模型的機遇與風險》

圖3:基礎模型在法律領域的應用

3.3

教育

人工智能在教育領域的潛在應用非常豐富,例如為學生提供回報系統和個性化系統,為教師提供教學建議等。盡管教育中的很多資料流因為過于有限而無法單獨用于基礎模型的訓練,但對領域外的相關資料、跨模态資料的使用為将基礎模型廣泛應用于教育任務提供了可能性。如果基礎模型顯著增強教育相關的能力,那麼結合其開放式生成能力和互動能力的新應用将很有前景。在這種情況下,需要重新考慮将技術應用到教育中的特點(例如,學生隐私問題),同時特定的問題也變得更加重要(例如,擷取教育技術中的不平等、技術輔助的學術剽竊問題等)。

【關注我每天多懂一點AI】李飛飛團隊:《基礎模型的機遇與風險》

圖4:基礎模型在教育領域的應用

四、技術原理

本部分内容将讨論建構更好的模型架構、訓練和适配過程以及系統擴充背後的技術,尤其關注到了資料的問題,包括資料從何而來、成分如何等。此外,本部分還讨論了從評價、可解釋性、魯棒性、安全性、人工智能安全等角度了解模型運作産生的結果。

【關注我每天多懂一點AI】李飛飛團隊:《基礎模型的機遇與風險》

圖5:技術部分邏輯結構

(根據本報告75頁繪制)

4.1

模組化

基礎模型需要:(1)提煉和積累來自不同來源和領域的知識,(2)以高效和可擴充的表示方式組織它,以及(3)靈活地把它泛化遷移到新的環境中。學者從計算模型捕獲和了解現實世界資訊的表達能力,以及熟練處理大量高維資料的可擴充能力開始讨論,并提出模型應該具有五個屬性:表達性、擴充性、多模态性、存儲性群組合性。其中,表達性是指靈活地捕捉和吸收現實世界的資訊,可擴充性是指熟練地處理大量的高維資料,多模态性是指擷取、處理和可能産生來自不同來源和領域的内容,存儲性是指有效地存儲和檢索獲得的知識,最後,組合性是指促進對新任務、設定和環境的成功泛化。

4.2

訓練

訓練的目标是用數學函數進行表達,以将模型架構和海量資料轉化為基礎模型。最好的訓練算法需要能夠以最高的效率在各領域内利用各種模态的海量資料進行訓練。當下的訓練算法多依賴于自監督訓練,其突出特點是可以利用無需人工标注的資料進行訓練。當下的基礎模型訓練方式有兩種,除了引起廣泛讨論的生成式模型外,越來越多的研究者也關注到了判别式模型訓練方式,盡管這類方法不支援基于生成式算法的互動,但是它們可以在高維連續設定(如圖像、音頻和視訊)中為基于分類或回歸的任務提供更有效的學習。這些方法中的大多數都輸出(部分)的向量,這些向量被訓練成對于輸入的不同“視圖”是相似的,或者用于預測輸入的部分是真實的還是虛假的。本部分還讨論了重要問題,包括輸入資料表示的選擇以及涉及明确目标表示的未來訓練目标的潛力。

4.3

适配

基礎模型通常是未完成的且通常是不應直接使用的,往往需要針對特定的下遊任務進行适配。适配方法的選擇需要考慮到算力預算、資料可用性、對模型梯度的通路權限。一直以來,适配都是以微調作為主要方式進行,而最近研究表明,作為替代方案的輕量級微調和基于提示的方法可以很好地平衡準确性與效率。

學者認為,适配的具體應用場景包括适配的使用執行個體、任務專門化的适配、領域适配和時間适配、應用限制(隐私保護、載入被遺忘權等)、模型局部編輯,這些場景或可分為兩類:下遊産業的适配和基礎模型的更新更新。總結來說,作者認為“适配”在本質上就是一個不斷學習的過程,這是一個持續性的過程,用以更快地響應社會文化價值觀的變化,更好地利用現有知識來學習新概念,通過消除訓練的計算負擔,減少環境影響并增加基礎模型的可通路性,減少由于遺忘而必須重新學習先前學習的概念數量。

4.4

評價

考慮到基礎模型的适用通常是通過适配進入下遊産業鍊,故而學者認為考慮到調配任務的不可知性,應将模型與特定任務分離開展評價,分為基礎模型的内在評價和對特定任務模型的外在評價。内在評價方面,可使用元基準評價(從廣泛的适配任務完成情況中推測基礎模型的表現)和内在屬性直接評價(模型的特定能力或偏差)相結合的方式;外在評價方面,應考慮(預)訓練資源,并強調适配資源的使用和限制情況。同時作者讨論了通過更廣泛的評價設計來豐富評價名額,包括準确性、公平性、魯棒性等。評價實踐的改革會讓評價充分服務于基礎模型範式中涉及的多樣目标和多方參與者。

4.5

系統

訓練資料決定了基礎模型理論上可用的資訊,而模型架構和訓練目标決定了可以提取多少這些資訊,計算機系統決定了基礎模型實際可以實作的目标。系統是擴充資料和模型大小的關鍵瓶頸,這兩者似乎都與模型性能的提升密切相關。從綜合的視角考慮算法、模型、軟體和硬體的協同設計越來越重要。這種協同設計已經開始以各種形式出現,例如精心調整的DNN設計和基于檢索的模型等新架構。同時,随着基礎模型的廣泛适配,其面臨的挑戰越發多元,包括跨算法、模型、軟體和硬體的自動化優化、執行具有嚴格延遲目标的模型推理、確定以自動化方式監控模型和資料等等。

4.6

資料

資料被稱為人工智能時代的新石油,是基礎模型的命脈。當下人工智能研究中對資料的關注主要包括四個方面:(1) 大規模資料的管理,(2)跨新模态資料的整合,(3)資料使用的合規性分析(尤其是資料爬取的合規性),以及(4)對資料的品質了解和評價。這些問題并非基礎模型所特有,但基礎模型為上述的這些問題引入了全新且困難的挑戰。研究人員設想通過設立一個資料中心(datahub)來解決這些問題。這個資料中心能夠內建跨模态的海量資料,并能夠在充分保護隐私的前提下允許更多人通路,并提供資料品質檢測工具。學者闡明了該資料中心提案應如何關聯基礎模型的衆多以資料為中心的相關考慮因素,包括選擇、管理、文檔、通路、可視化與檢查、品質評估以及法律監管。

4.7

安全和隐私

目前,基礎模型的安全性和隐私性在很大程度上是未知的。基礎模型具有出現高影響力單點故障(single point of failure)的可能性,是以成為了攻擊的主要目标,現有實踐已證明了這些模型的各種安全漏洞或隐私風險。此外,基礎模型的普遍适用性加重了這些風險。學者研究認為,就安全性來說,基礎模型也可以作為安全阻塞點,以抵抗投毒、模型竊取或資源耗盡攻擊;就隐私保護而言,基礎模型的通用性會降低其對敏感資料的需求,同時降低資料精度,或可以使樣本更有效地适配敏感資料分布;就魯棒性而言,了解如何最好的利用過參數化和無标簽資料來實作對抗魯棒性将是未來研究的一個重要方向。

4.8

對分布變化的魯棒性

分布變化是指資料的機率分布随着時間、應用場景或其他因素的變化而發生變化的現象,對分布變化魯棒是指在不确定資料分布的情況下,尋找一個能夠适應各種分布變化的最優解。現有工作表明,對在廣泛的未标注資料上訓練的基礎模型進行适配可以提高适配模型在各種變化中的魯棒性,然而“僞相關”和“時間漂移”帶來的挑戰或許仍然有待解決。為此,研究人員提出必須要了解基礎模型的魯棒性原理、探索能夠增強魯棒性的資料增強手段、探究更好的下遊适配方式等。

4.9

人工智能安全與對齊

人工智能安全領域關注先進 AI 模型可能導緻的意外、危害和風險,尤其是社群或社會所面臨的大規模風險。研究人員就價值對齊(align)問題進行分析,以期模型不會以錯誤的目标或價值觀進行部署,研究人員認為在過去的實踐中通過“可糾正性”解決價值對齊問題,但在基礎模型場景下,還要求應對于模型行為具有實質控制力并且要求其行為具有可解釋性。學者鼓勵未來對于基礎模型能力和風險的準确表征和預測的研究;鼓勵設計新的方法來将基礎模型與人類價值觀和良好行為對齊。

4.10

理論

盡管人工智能模型在實踐中表現超凡,但是研究者對于基礎模型理論方面的了解仍十分有限,尤其是預訓練到适配過渡階段中的理論發展,因為預訓練階段和适配階段(可能)對應完全不同的任務和資料分布。成功的過渡可能依賴于一些條件,包括預訓練和适配的分布、目标函數、訓練方法以及模型的結構,這些超出了标準泛化理論的範圍。同時,研究人員也關注到了機器學習的湧現問題,他們認為子產品化或許可以為某些湧現的出現提供了解架構,但是另一些湧現行為(如語境學習和其他尚未發現的功能)可能需要相比于子產品化來說更深層的了解。

4.11

可解釋性

基礎模型的“單模型-多模型”性質增加其可解釋難度。目前的解釋方法通常是為解釋特定任務模型的行為而設計的,而基礎模型的可解釋性的一個核心問題是了解它在單模型和多模型圖譜之間的位置。作為單模型,其行為可以通過識别和表征用于産生跨任務行為的有限可泛化模型機制(例如,為單詞配置設定含義、比較數量和執行算術的機制)的數量實作可解釋。作為多模型,一項任務中模型行為的解釋不一定能為其他任務中的行為提供資訊;是以需要在每項任務中獨立地研究行為。研究人員認為,單模型-多模型範式下的模型解釋方法,應從單模型(基礎模型)及多模型(其适配的衍生模型)以何種程度共享決策的角度設計。從社會影響角度來說,可解釋性在基礎模型研究中具有關鍵作用,可解釋性所要求的為普通群眾提供解釋,或許能夠有效限制基礎模型技術被資本異化的問題。

五、社會影響

因為基礎模型具有能夠快速遷移并部署到各樣應用中的特點,它或将對社會産生大範圍的影響。本文從以下五個方面分析基礎模型的社會影響:(i)不公平性,(ii)濫用導緻的影響,(iii)對經濟和環境的影響,以及(iv)法律角度和(v)倫理角度下的廣泛影響。

5.1

不平等與公平

基礎模型可能加劇社會的不平等。研究人員分析了基礎模型在任務完成過程中所扮演的角色,提出基礎模型的内在偏置和外在危害,前者指基礎模型内在産生有害預測結果的屬性,後者是指在使用基礎模型建構的特定應用程式的背景下産生的危害。研究者認為,追溯基礎模型和适配過程中不平等的來源至關重要,并從資料、模型、模組化者這三個視角分析偏見來源問題與未來研究方向。為了解決基礎模型産生的不公平結果這一問題,本文還提出了主動幹預(例如,反事實資料增強等技術方法)和被動追索(例如,回報傳播機制以及道德/法律責任的歸屬)兩種機制并行的方案。

5.2

濫用

基礎模型的濫用指的是部分使用者對基礎模型的不當使用,會導緻嚴重的社會危害。例如,使用文字、圖檔生成技術來制造虛假資訊、合成深度僞造内容。基礎模型的完善可能會導緻更多的濫用行為,人工幹預可能難以應對。研究者提出通過适配訓練将基礎模型作為虛假内容探測器,來預測、甄别某些類型的自動生成的内容是否來源于濫用行為。但必須要承認的是,任何檢測系統都會出現假正例情況(人生成的合适内容被标記為有害),也可能會引起虛假内容生産者和檢測系統之間的“軍備競争”。内容平台在打造檢測模型來規制虛假資訊的程序中,或可發揮更大作用。

5.3

環境

基礎模型在預訓練、适配訓練階段、部署後應用疊代過程中,都會産生大量碳排放,導緻環境惡化問題。研究人員建議,(1) 首先,必須緩解碳影響,這可以通過在低碳強度地區訓練模型或者使用更高效的模型和硬體來實作;(2) 當所有緩解機制用盡且不可能進一步緩解時,應評估社會成本和收益來确定是否應該以及何時在更小、更高效的模型上部署更大的基礎模型 ,并在人工智能系統全生命周期視角下,減少碳排放;(3) 鼓勵基礎模型的研究人員和工程師提供其模型的計算、能源和碳成本,以及在創造基礎模型時使用了哪些碳減排政策。

5.4

合法性

本章節基于2021年的美國法律來分析法律如何影響、限制或促進基礎模型的創造和使用,強調了 (1) 模型訓練、(2) 模型預測的責任和 (3) 對模型輸出内容的保護相關的法律問題。值得注意的是,本章節更多從事後處理機制來介紹法律的規制,但是在事前和事中階段,道德層面的限制和技術層面的研究至關重要。具體來說,在模型訓練階段可能涉及非法爬取資料問題、訓練資料集違反知識産權和隐私權保護問題;在模型預測、決策過程中,或引起侵權問題、民權法挑戰和對行政機關的特殊限制問題;而模型的輸出内容可能涉及言論保護、輸出内容所有權的問題。這些問題的解決對于基礎模型的建構、使用和部署都至關重要。

5.5

經濟

基礎模型由于其新穎的功能以及在多種行業的潛在應用,可能會對經濟産生重大影響。基礎模型有潛力通過提高生産力和創新來顯著提高整體生活水準,這些模型可以用來替代人工或者幫助人類發現新的任務和機會,這樣可能導緻所有權和權力更加集中或者分散。總結來說,基礎模型既可能由于其潛在的中心化而導緻不平等的加劇,也可能因其強适配能力而帶來更廣泛的共享繁榮。這将由技術人員、決策人員、管理人員、産業勞工和其他社會參與者的選擇和行動共同決定。

5.6

倫理

本章節讨論了具有同質化、湧現特點的基礎模型規模化應用後,可能帶來的社會、政治和倫理風險和應對建議。

具體來說,風險包括(1)結果的同質化,基礎模型因其訓練資料品質問題、架構問題可能導緻其本身帶有各類偏見或總結出各種虛假的相關性,而基礎模型的同質化将會把這種風險擴大到社會的各個層面,将偏見标準化并加劇不公平;(2)模型建立者的影響力不斷集中,基礎模型的開發需要大量資料,享有最豐富資源的組織将最有能力生産具有競争力的基礎模型,而個人、初創企業的競争力将大幅下降,這很有可能導緻寡頭壟斷的情形,特别是在政府服務領域,基礎模型的采用可以進一步将決策權從政府轉移到企業服務提供商,并為程式正當性和問責制引入額外的障礙。

而在應對建議方面,研究人員提出如下建議:

(1)以推薦性建議和強制性要求相結合的方式設計基礎模型開發和部署階段中的規範,對基礎模型的資金架構、模型存儲、釋出實踐、會議檔案和撥款提案要求等方面進行制度化,建議通過規範設定打通基礎模型開發者和部署、應用端之間的溝通管道,公開釋出部署、應用中出現的問題,同時要求為模型設定标簽卡,寫明其使用的訓練資料和基礎模型,以及已知的能力、弱點和偏見等。

(2)在基礎模型分階段釋出的過程中對基礎模型進行審計,同時積極鼓勵開源以探索基礎模型可能帶來的其他有價值的應用場景。

(3)開發基礎模型的技術人員應當意識到基礎模型的開發并非純技術行為,而是一個具有政治影響的社會行為,技術人員應當思考該項技術擴張了哪些主體的權利,并思考何時應該停止基礎模型的開發活動,事實上何時不構模組化型既是個體的問題也是集體的問題,而這需要整個社群遵守職業道德和責任準則,本文認為當下應該重視旨在使基礎模型更具可解釋性、易通路性、可持續性和公平性的研究。

六、總結

本報告綜合多學科視角探究新興範式的本質特征、能力、應用場景、技術原理和社會影響,有利于促進人們對基礎模型的認知和定位,推動人工智能新範式的産生。為了“基礎模型+适配應用”的範式能夠負責任地持續發展,社會各界、各類機構主體和各種學科持續的通力合作十分重要。

【編譯】李叙燃 網絡法理論與實務前沿資料治理組編輯

【編輯】宋佳钰 網絡法理論與實務前沿執行主編

【指導教師】張欣 對外經濟貿易大學數字經濟與法律創新研究中心執行主任