天天看點

趙瑜、周江偉 | 人工智能治理原則的倫理基礎:價值立場、價值目标和正義原則

作者:再建巴别塔
趙瑜、周江偉 | 人工智能治理原則的倫理基礎:價值立場、價值目标和正義原則

引言:人工智能倫理的原則主義方案及其困境

人工智能技術挑戰了現有的社會治理體系,如何在數字化、智能化轉型中尋求适當的治理形式成為國際社會共同面臨的問題。在過去的幾年裡,已經出現諸多人工智能治理原則,它們試圖以一種“準立法”的方式推進相關領域的規制。這些原則往往重觀點表達而輕規制程式,是以也被稱為“軟法”。相較于缺乏彈性的“硬法”,“軟法”治理具有更好的靈活性,能夠靈活地支援技術治理、協調社會行動,也為“硬法”的出台做出準備。在大陸,國務院于2017年制定的《新一代人工智能發展規劃》中就确立了倫理規範、法律法規、政策體系“三步走”的整體戰略,2019年科技部指導的國家新一代人工智能治理專業委員會釋出了《發展負責任的人工智能:新一代人工智能治理原則》,确立了“和諧友好”“公平公正”等八項治理原則。

人工智能治理原則往往通過提取“最大公約數”的方法對倫理共識進行清單式列舉,以回避高層理論的邏輯演繹和由此産生的觀點沖突,這被認為是原則主義方法在該領域的展現。原則主義(Principlism)是一種源起于生命倫理學的中層方法,它擱置哲學理論争議,以社會成員所共有的道德常識來建構基本架構,進而更高效地應對現實倫理困境。具體而言,原則主義對不同社會文化和思想脈絡中的道德觀點進行歸納,經過通約、簡化和列舉而形成倫理架構。這種方法試圖為社會成員提供識别并概念化倫理挑戰的共同話語,幫助缺少系統倫理學知識的從業者和相關機構做出道德判斷并形成實踐方案。

然而這種回避哲學傳統而訴諸道德常識和社會共識的方法正日益受到實踐挑戰和理論批評。首先,抽象原則缺乏明晰性和具體性。在通約和求取共識的過程中,倫理原則變得過度抽象或模糊,不僅遮蔽了隐含在同一議題下的觀念差異,也無法提供适應情境的實踐指南。其次,原則清單重枚舉而輕協調。同一份原則清單往往源自多個倫理傳統和理論脈絡,并列式的語言政策無法處理競争價值排序的深層疑惑,也無法建構起不同倫理學脈絡之間的對話空間。

面對原則文本在明确性和協調性上的不足,有政策建議者向G20組織送出了政策提議,要求建立人工智能治理協調委員會(CCGAI),協調人工智能的治理方案和行動①。學術界嘗試借助多種方法對原則文本進行内容分析,以提供更為整體和清晰的描述。但基于文獻計量方法的分析依然不能有效解決關鍵概念的語境依賴問題,整合的結果自然也無法超越原則主義的“清單式”叙述。

本文嘗試建立一個可供比較和對話的整體架構,并在此基礎上整合和澄清現有人工智能治理原則的倫理基礎。首先,我們嘗試盡可能全面地搜集原則文本。文獻檢索主要通過三種方式進行:先是通過線上資料庫或彙總清單進行文獻檢索,共查找到三個線上資料庫和兩個彙總清單;然後是通過現有研究中整理的文獻清單進一步補充檢索;最後是通過搜尋引擎檢索“AI guidelines”“AI ethic”等關鍵詞,對所得的前三十條連結進行人工通路和篩選。在去除重複内容後,共獲得88份原則檔案。其次,在分析的過程中引入了闡釋主義的研究傳統:更加注重語境資訊,以應對概念的多義性和靈活性;同時更加重視倫理理論脈絡梳理,使整體架構既從原則文本中浮現,又從理論命題中延展而來。

一、人工智能治理的價值立場:人類、生态和技術物

應當珍視誰的價值,是一切倫理觀首先要面對的問題。東西方的倫理傳統都展現了深厚的人類中心主義立場。中國古代有“天道遐,人道迩”的古語,展現了古人在人道與天道之間進行的價值衡量,并主張在天人協調的基礎上把注意力放在力所能及的“人事”之上。在西方,自古希臘哲學家普羅塔格拉提出“人是萬物的尺度”以來,人類就被置于價值體系的中心。在人類中心主義的價值立場下,人類被賦予了某種固有價值或價值的優先性,而人類之外的其他事物則僅具有服務于人的工具價值。

絕大多數的人工智能治理原則文本都展現了人類中心主義立場。其中有14份原則文本對此做出了直接聲明。這些聲明在表述上略有差異,但總體可以歸納為三類:“人類中心”“聚焦人類”和“人類優先”。另一些文本則聚焦于人類與人工智能技術物的關系,嘗試在人類中心的立場下定位二者在價值譜系中的相對位置。具體而言,一方面是直接聲明人類相比于機器所具有的優先地位,如“我們把人類放在第一位,但也看到了人機互動的優勢”(45);另一方面則是在人機關系中界定機器的從屬性和次要性,要求在人機協同的關系中始終把人工智能視作實作人類目标的工具(1,46),其任務是協助而不是取代人類(19,22,30,40,71,72),更不能操縱和支配人類以使人類異化為工具。當人工智能被設想成為具有一定自主行動能力的行動者時,對其從屬地位的聲明就轉變為一種行動規範,要求人工智能尊重人類社會的價值、規範和法律。這種規範性要求已經逐漸在政府、科研機構和産業界構成的多元治理網絡中成為共識。2019年中國科技部(78)、北京人工智能研究院(77)和中國人工智能産業發展聯盟(73)先後釋出了人工智能治理原則,符合人類的價值觀和倫理規範是三者對“以人為本”理念的共有闡釋。

價值立場差異也往往展現在對制度安排的主張中。國際技術法協會等非政府組織積極主張在法律上确認人工智能的工具地位,并明确地拒絕為其賦予法人資格(46,65)。關于機器人法律地位的讨論往往也與具體的問責實踐相關聯。在問責過程中,首先要面對的問題是誰具有承擔責任的能力與資格。盡管有學者将道德視為一種後天養成的能力,肯定了技術物具有道德行動能力的可能性②,但這種能力在維貝克(Verbeek PP)看來僅僅是引發道德影響的能力③,而不是承擔責任的能力。正如博文斯(Bovens M)所指出的,問責制是基于行動者(actor)和問責者(forum)之間的社會關系④,在這個意義上技術物是否被接納為我們的社會成員構成了其是否能夠成為責任主體的必要條件。在大多數的原則文本中,人工智能依然被視為一種工具,而并非具有構成社會關系能力的同伴。

人類中心主義并不忽視其他事物的價值,例如由于生态環境關系到人類的福祉,具有某種不可忽視的工具價值,人類中心主義也關注人工智能對自然環境的影響,主張保護環境并促進其可持續發展。部分原則明确闡述了這種立場,如“人工智能系統應該造福全人類,包括子孫後代。是以,必須確定它們是可持續且環保的。此外,它們應該考慮到環境和其他生物”(76)。保護其他事物的主張也在另一種價值路徑中成立,即應當避免對其他事物的殘忍行為,進而防止人類對虐待同伴的舉動變得不敏感,正如康德(Kant I)所說的“對動物和精神的責任”⑤。這種擴充的價值視野在中國科技部釋出的《新一代人工智能治理原則》中被納入到“包容共享”意涵之中,被闡釋為對環境所持有的一種友好态度(78)。

随着倫理學視野的擴充,人類中心主義的觀點也逐漸面臨着來自兩個方面的挑戰。其一是環境倫理的興起和發展,這質疑了人類對其自身價值優于其他物種的假設,并探讨了賦予自然環境和其他非人類事物以内在價值的可能性。其二是将内在價值擴充到技術物的讨論。一方面,有觀點試圖否認人類的特殊性。法國哲學家梅特裡(de La Mettrie)就曾将人的身體類比為“一架巨大的、極其精細、極其巧妙的鐘表”⑥,并由此否認人類之于技術物的特殊性,主張将人類享有的權利和尊嚴擴充到技術物上。另一方面則是對于超級人工智能的想象,使人們開始考慮如何面對人類以外的擁有理性和情感的事物,以及是否應将其納入“目的王國”中。

部分原則文本呼應了以上兩種思潮。就有關生态環境的聲明來說,這些原則的制定者對人類中心主義的立場保有謹慎态度,将人類福祉、動物福祉或生态福祉并列叙述,卻沒有明确地表達它們之間的關系,更沒有将其置于一個等級序列中進行比較,這在一定程度上展現一種廣泛存在的立場猶豫。但也有個别原則試圖在人類利益和其他生物或生态環境利益之間進行平衡,如“AIS必須允許個人追求自己的喜好,隻要他們不傷害其他有情生物”(12)。就有關技術物的聲明而言,《南韓機器人憲章2012》做出了具有争議性的聲明,主張超越人類中心主義的立場,賦予機器人類似于人類的基本權利,例如免于擔憂受傷或死亡的生存權利和不受虐待的權利。據此該憲章将故意損壞或摧毀機器人、由于重大過失使機器人受傷、以故意和過分侮辱性的方式對待機器人的行為視為犯罪(2)。

生命未來研究院立足于一個更長遠也更具超越性的視野,在其頒布的《阿西洛馬人工智能原則》中認為“超級人工智能可代表地球生命曆程中一個深遠的變化”(12),這顯示了更為徹底的非人類中心主義,不僅承認了地球生命形态的多樣性,更将内在價值從具體的生命形式中抽離出來予以獨立的尊重。

盡管也有原則關注了人類之外的價值主體,甚至主張它們與人類共享内在價值,但這些聲明往往被一筆帶過,缺少更詳細的分析與闡述。在搜尋到的88份原則中72份持有人類中心立場,16份因關注了自然環境、其他生物或人工智能等非人類的固有價值而持有非人類中心主義立場。整體而言,人類依然是議題的中心,現有原則大多未将人工物納入“目的王國”,這也構成了人工智能治理的價值目标和正義原則的邏輯起點。

趙瑜、周江偉 | 人工智能治理原則的倫理基礎:價值立場、價值目标和正義原則

作者:趙瑜,浙江大學傳媒與國際文化學院 教授、副院長

二、人工智能治理的價值目标:福祉與尊嚴

福祉(well-being),有時候也被稱作“審慎價值”(prudential value),用以差別于審美價值和道德價值。關于福祉的讨論始終圍繞着“be good for”(造福于/對…好)的議題展開⑦,正如凱根(Kagan S)所指出的,對任何一種試圖闡釋有關人類福祉的本質和來源的理論,都必須滿足“有益的條件”(the benefit condition)⑧。在人類中心主義的立場下,福祉所面對的核心問題是一般意義上非工具性的、好的生活是怎樣的,什麼樣的事物有益于人類實作這種生活。

尊嚴(dignity)一般而言指受到尊重的權利。西塞羅是最早讨論人類尊嚴的哲學家之一,他将尊嚴與特定地位相關聯。他認為,在政治領域尊嚴來自于官職、等級等身份地位,而當尊嚴被推及到普遍化的人時,便來自于人類在宇宙中相較于其他自然事物所具有的更高地位。正如阿德勒(Adler MJ)所指出的“人的尊嚴在于人之為人的尊嚴,是一種擺脫他物所有而具有的尊嚴”⑨。這些被視為人類天性(human nature)的特征在近現代社會轉型過程中被制度和法律加以确認和保護,維持和發展這些天性被認為是人類與生俱來的、不可侵犯的權利。

雖然福祉和尊嚴的議題各有側重,但它們共同回答了應當珍視何種人類價值的問題。這兩個概念也并非彼此孤立或互相排斥,在不同的理論源流中它們的意義邊界常常互相交疊,有時甚至可以彼此通約。例如,對亞裡士多德(Aristotle)來說,福祉的實作有賴于作為最終目标的“至善”的達成。在“至善論”福祉觀的基本形式裡,“人類的美好生活是由人性決定的,人性包含一套特定的能力,這些能力的鍛煉和發展對人類有好處”⑩,而這也意味着福祉與尊嚴的概念被統一了起來。

(一)集體層面和個體層面的人類福祉聲明

在人工智能原則文本中,有關人類福祉的聲明在兩個層面展開。其一是人類集體層面的福祉,它指向了人們共同确認的社會目标,而人工智能技術則被期望用于促進這些目标的實作。這些目标在許多原則文本中被概述為一種關于更好社會生活的總體期待,如“服務文明進步”(78)、“取得社會重大進步”(46),“創造更好的社會……塑造共同美好的未來”(34)等。這種有關總體願景的表述,在中國主流語境裡與儒家和諧社會的價值觀念相結合。在《新一代人工智能治理原則》中,“增進人類共同福祉”的目标被納入“和諧友好”的原則中,并成為其首要内涵。也有原則文本指向較為具體的社會目标,諸如經濟效益、公共衛生、精神文化和公共安全等,它們共同構成了有關人類集體福祉的目标清單。公共部門往往通過這種方式來聲明和推進人工智能發展的優先事項,如美國白宮在《人工智能應用監管指南》中所指出的“人工智能預計将對社會和經濟生活的各個部門産生積極影響,包括就業、交通、教育、金融、醫療保健、個人安全和制造業。”(83)

其二是人類個體層面的福祉,它關注一般意義上的、抽象的人類個體。在搜集到的文本中,基本所有關于福祉的主張都在個體層面上回避了經典的“快樂主義”和“欲望主義”的福祉觀念,其背後原因與人工智能技術的持續發展使“體驗機器”⑪的隐喻逐漸可能成為現實有關。“體驗機器”假設如果人的經驗可以借由機器模拟産生,那麼這種虛拟的愉悅感或欲望滿足的體驗是否在實際上增進了人的福祉?人工智能的快速發展,直接地強化了相關争議。目前僅有少量原則以慎重的方式讨論了人工智能在創造快樂和滿足欲望上的價值,但更多的文本延續對“體驗機器”的道德憂慮,強調“情緒和意向的幻覺不應該被用于剝削脆弱的使用者”(1)。

同時,共有28個原則文本在個體層面的福祉聲明中強調對某些人類能力的鍛煉、補充和擴增。相關主張不僅涉及在主觀上增強人類的認知能力(76,75),使人類能夠面對更加複雜的認知對象(84),還要求在客觀上擴充和補充人類的經驗(26),促進知識擷取機會的增長(42),進而在結果上能夠提升人類對世界的了解(4),以求更快、更準确地處理和評估事實(66),做出更加明智的選擇和決策(76,66),提出有前景的新想法和新政策,解決人類面對的問題(84)。基于“至善論”的福祉主張往往也聚焦于特定的社會群體,特别是在生理上失能或在社會結構中處于弱勢地位的群體,如女性(37),老年人(47),殘障人士(16)等。人工智能技術在賦能弱勢群體并改善他們的不利處境上被寄予厚望。

(二)維持人類特性和尊重人類基本權利的聲明

人類的尊嚴依系于自身的固有特性,在啟蒙主義的傳統下,理性被視為人之為人的關鍵。正如康德所說的“如若它們是無理性的東西,就叫做物件(Sachen)。與此相反,有理性的東西,叫做人身(Personen)”⑫。而理性的特質又使得人類能夠自己選擇并決定着自己的行動。由此理性、自由和自治被内在地統一起來,構成了啟蒙主義者眼中人類最根本的天性。

然而随着人工智能技術的發展,機器智能作為另一種可能的理性行動者,引發了關于理性是否為人類所獨有的争論。盡管多數文本嘗試回避争議,但仍有原則對此做出直接的回應。世界科學知識和技術倫理協會在其《機器人倫理報告》中就明确重申理性作為人類獨有天性的觀點,認為盡管機器人可能擁有超越人類個體的認知能力和學習能力,但它們僅僅是人類創造力的結果,并不能為自己設定目的,不能将機器人與人類混淆(15)。

人工智能的發展在某種意義上也在促使人類重新審視自身的特性,随着自動化技術的日漸成熟,機器智能實作的功能越來越多,尋找人類的不可替代性并使人類從事更有意義、更符合自身特性的工作,也是治理原則中頻頻出現的議題。許多原則文本強調了人類在情感和社會關系上的不可替代性(3)。除此之外,直覺、創造力等通常無法由機械推理實作的特征也被看作是人類所特有的(24)。一些原則超越了傳統的尊嚴觀念,認為人類的尊嚴不僅指獨有的優越性,還包括獨特的弱點和缺陷,主張無論是生理還是心理上的人類弱點都應該得到尊重(3)。

然而維持人類特性的要求與賦能人類增進福祉的主張之間存在着張力。雖然使用技術矯正和恢複人類功能的傳統長期存在,然而随着技術想象的延展,人類不再僅僅尋求修複,而是試圖增強自身以獲得超過人類能力邊界的生理和心理特征,這種思潮被稱作“超人類主義”或“後人類主義”。為此《歐洲機器人民事法規則》納入了一條特别的原則,要求“限制人類使用增強技術”,以避免現有形态的人類被遺忘或因被迫采用增強技術而消失。

在維護和尊重人類基本權利層面,相關議題主要圍繞着身心健康的權利和自由、自治的權利展開。為避免人工智能直接或間接地對人類生理造成損害成為核心議題,限制和規範人工智能技術在自動化武器上的應用受到高度關注和密切讨論。一些原則明确拒絕将自動化技術用于武器制造(41)以及其他暴力與戰争行為(4)。人工智能在心理健康方面的影響也日益受到關注,如何避免人工智能技術給人類帶來精神困擾往往是讨論的焦點,例如避免人工智能刻意模仿或展示殘忍行為以造成精神創傷(11),或是增加壓力、焦慮,使人類感到被數字環境騷擾(12)等。此外,鑒于人工智能系統日益中介并調節着人類的社會交往,有原則也主張人工智能不應損害人類情感關系的維系,避免造成或加劇人的脆弱性和孤立性(11)。

就自由和自治的權利而言,有關保障人類自主決策和自由選擇的主張是最主要的共識,特别是要求人工智能技術在應用過程中避免使人類受到欺騙、脅迫或操縱(1,11,42,54,52,76),而人類也應獲得足夠的資訊、知識和行動能力來做出自主決定(38,42,70)。除此之外,個别原則還關注到了表達的自由(26,38,62)和發展自由(62)。

關于隐私權的保護是最受關注的議題之一,超過半數原則檔案涉及該議題。現有原則展現了隐私權内容從私生活自治向個人資訊自決的擴充,要求在包括收集、存儲、處理、使用等各環節的資訊生命周期内,個人都對其資訊擁有主要的控制權。隐私議題也是人工智能治理原則立法落地的熱點和焦點。2021年中國頒布并實施《資料安全法》《個人資訊保護法》與《網絡安全法》,在資訊權利保護領域建構了較為完備的制度體系,走在了世界人工智能治理實踐的前沿。

三、人工智能治理的正義原則:效益與配置設定

上述讨論關注“什麼是有價值的”,而正義原則所面對的問題則是“如何正确地對待這些價值”。

通常,從普遍的道德直覺出發,維護和促進有價值的事物本身就具有正當性。效益是以被看作是正當性的重要面向,大量原則圍繞着“有益”“非傷害”和“收益損失衡量”展開論述。

這些原則主張發展和應用人工智能所帶來的收益應當大于損失,并在合理範圍内使收益最大化,并将風險和損失維持在“社會可接受的範圍内”(23)或使之最小化。這種功利主義的考量也牽涉到風險管理與創新之間的張力,有原則認為我們同時也要考慮不使用人工智能技術所産生的潛在損失和風險(83),主張合理的風險能夠促進技術發展(65),在适當的情況下,應該避免過度的風險管控對技術創新和效益增長的阻礙(83)。

盡管效益之于正義是不可回避的議題,但在更多的情況下,有關正義的讨論側重于“有價值的東西如何被正确配置設定?”。對配置設定問題的考量在任何社會都不可回避,特别是當難以避免的利益沖突發生時,如何在社會範圍内配置設定收益和損失,成為正義問題的核心關切。總體而言,人工智能治理原則展現了兩種配置設定觀念。

其一是效益優先的配置設定觀。這種觀念往往建立在功利主義的基礎上。盡管在一些批評者看來,功利主義是隻考慮了總體福利如何最大化,而不關心這些福利如何在社會中進行配置設定。但實際上,功利主義至少在兩個層面處理了有關“配置設定”的問題。首先,總體福利原則内含個體利益和總體利益、少數人利益和多數人利益之間的衡量與配置設定。其次,在個體之間如何配置設定利益的問題上,由于功利主義主張的正當性不完全取決于個人的福利水準而是最終取決于整體的福利水準,它要求我們在自我利益和他人利益之間進行衡量和累加。正如謝夫勒(Scheffler S)所指出的,功利主義允許(甚至要求)一個行動者為了追求行為的非個人價值,而犧牲個人規劃與承諾的道德重要性。⑬而近年來活躍于公共領域的“有效利他主義”(Effective altruism)也是功利主義的一個變體。⑭

功利主義也并不必然期待一個多數人利益壓倒少數人利益的社會現實,而是将希望寄托于一個理想化的情境,在那裡個體和整體間共享一緻的利益,當總體利益最大化時,個體的利益也得到了最大化。一些原則表達了類似的理想期望,它們既希望讓盡可能多的人收益,又期待每一個人都是受益者,通過創設這樣的理想情境來消解功利主義視域下局部和整體之間的張力。另外一些原則直接回避了這一問題,僅主張在整體上衡量收益與成本、損失與風險,以求最大化人工智能帶來的益處或最小化風險與傷害(41,60,77)。也有原則直面了利益衡量的困境,承認人工智能的部署會給某些群體帶來風險或負面影響,但能夠為其他群體創造收益(64),并以此要求分析和确定各方在技術中獲得的收益,確定大多數人或者盡可能多的人從中受益。至于在局部産生的損失和風險,則可以通過為個人、組織、政治實體和整個社會創造的利益來抵消(5),進而保證人工智能對世界産生“淨積極影響”(84)。

其二是公平優先的配置設定觀。這種配置設定觀在根本上挑戰了功利主義,将對差異和平等的安排置于正義問題的核心。

功利主義或者一般目的論的基本假設是将“正當”的概念依附于“善”,并以後者定義前者,進而将正當問題轉變為如何确定某種善并将其最大化。以羅爾斯(Rawls J)和諾齊克(Nozick R)為代表的當代學者在不同的理論路徑上主張将“正當”獨立于“善”,進而将合理的配置設定形式和待配置設定的内容分離開來。羅爾斯在康德式的“先驗主體”的論證中,拒斥了具有經驗内容的“善”的絕對優先性。他認為某種“善”作為目的被選擇之前,必然已經存在一個具備選擇能力的自我,自我優先于目的,而目的則由自我加以确認。作為被選擇内容的“善”才具有從屬性,“正當”與“善”的關系乃是評判标準與所要評價事物之間的關系。諾齊克則沿襲了洛克的自然權利理論,認為奠基于人類尊嚴的自然權利及人們的合法所得具有一種先驗的正當性,不可以為了實作某種“善”而受到侵犯⑮。

确立一種獨立并優先于任何具體“善”的正義原則,使得圍繞“善”的不同取向而産生的社會差異不可避免。如何對待差異,以及在何種意義上主張平等,就構成了公平問題的兩個主要方面。

平等最簡單而極端的形式是“平均主義”,要求每個人都受到同樣的對待,特别是在配置設定結果上的平等。正如有原則主張廣泛而平等地配置設定人工智能技術所帶來的收益(14),或發揮技術潛力來克服目前社會的不平等(77,88)。這些帶有技術烏托邦色彩的平均主義主張通常被認為過于嚴格而難以實作。批評者一方面認為配置設定的平等并不必然帶來滿足的平等,另一方面也認為平均配置設定消除了社會經濟領域的有效激勵,再配置設定的成本也催生了浪費性低效⑯,是以有必要在平等和效率之間做出平衡。即便是主張消除階級差異的共産主義思想,也并不支援“平均主義”的觀點。馬克思(Marx)在《哥達綱領批判》中闡述了拒絕“平均主義”的原因,他認為“平均主義”對平等的絕對主張會忽視其它道德觀點,最終會導緻實質的不平等,更關鍵的問題在于如何消除社會中的沖突和支配關系,促進人的自由發展。在這個意義上消除階級差異的目的在于解放而非平等。⑰這種解放的觀念也展現在現有原則中,如“人工智能的發展必須有助于消除群體和個人之間基于權力、财富或知識差異的支配關系”(11)。

與“平均主義”不同,亞裡士多德主張一種合乎比例的安排。他承認人與人之不可消弭的差異,進而認為平等就是根據這種差異按比例配置設定與之相稱的事物,進而認可了合理的差異。但由于沒有對如何安排差異做出任何實質性的規定,這通常被認為是一種形式上的規範。

古典自由主義者對此做出的回應涉及到“機會平等”和“基本權利和自由的平等”兩個次元。他們主張人具有“自我擁有”(self-ownership)的自然權利,人們能夠平等地運用自己的天賦獲得收益。是以隻要保障人們享有平等的自由和權利,在一切機會向所有人開放的情況下,個人發展所緻的差異便應當被接受并被視為“道德上的應得”。許多原則也展現了這種觀念,比如,将人工智能作為一種社會資源,使包括代碼、訓練資料和其他相關資訊在内的資源向所有人開放(68),就契合了自由主義所主張“機會平等”原則。

由于正義長期以來被認為是随意性的對立面,對自然和社會的“偶然因素”或者個體層面的“運氣”的忽視,使古典自由主義的主張受到了挑戰。正如羅爾斯指出“天賦自由制度最不公正之處在于,從一種道德的觀點看,這一理論允許配置設定份額如此随意地受到這些因素的不合宜的影響。”⑱古典自由主義的修正者試圖通過補償那些偶然所緻的社會差異來實作“起點的平等”。在現有原則中這種觀點展現在兩個方面,一是通過人工智能技術填補人類的起點差異,比如通過技術賦能弱勢群體,創造一個更公平的競争環境(16);二是在人工智能技術紅利的擷取上的“起點平等”,比如通過轉移支付或社會援助等方式使經濟弱勢群體也能夠享有獲得技術裝置的機會(76)。但這種修正依然無法應對人們自然天賦的偶然差異,這也意味着“應得的正義”中始終包含着某種随意因素。

以德沃金(Dworkin R)為代表的運氣均等主義者試圖差別對待不同的“運氣”,并劃定不平等後果的責任範圍。⑲羅爾斯并不試圖區分不同的運氣,而是将天賦和好運視為“共同資産”,在保障基本自由平等和機會平等的基礎上,遵從“差别原則”,使社會制度的安排能夠充分利用這些資産來促進公共利益,并使最不利者在這種整體利益的增長中獲益。⑳對“最不利者的利益”的關注廣泛出現于現有治理原則中,這些“最不利者”被同樣抽象地描述為“應該特别考慮保護的人”“弱勢群體”“代表性不足的人口”,或者被包含在“所有人”“每個人”之中,而如何具體定位人工智能技術部署之下的“最不利者”卻鮮見于原則論述中。相對具體的讨論則聚焦于人工智能可能帶來的社會勞動力結構轉型,關注那些因缺乏數字素養而面臨失業的人群,主張他們應該受到社會的特别關照并受惠于人工智能技術。其中,最核心的主張是開展教育教育訓練,使人适應新的技術-社會環境并重新發現自我價值。

上述讨論更多着眼于何為正義或如何實作正義,但正義問題還要求我們考慮不正義發生後如何應對的問題,這就指向了正義的糾錯次元。有8份原則檔案涉及了糾錯的議題,其中多數原則在較為抽象的層面呼籲救濟或糾錯,而具體指向則主要包括經濟補償(15)、司法救濟(42)等方面。

結語:

原則主義試圖回避争議,通過清單式的整合為倫理實踐和社會行動提供基本指南。但借助通約和列舉形成的倫理架構,在概念的明晰性和原則間的協調性上存在問題。而随着治理主體日益多元化,激增的人工智能治理原則文本間也日益難以協調。本研究在衆多版本的原則主義“清單”之上,通過尋找整合架構而不是尋求最大公約數的方式來促進原則文本間的對話。如果将清單中的原則視為對特定倫理問題的回答,那麼尋找整合架構就是澄清這些問題和回應方式的思想基礎。

通過梳理88份人工智能原則文本,我們發現這些原則回應着三個彼此關聯的倫理問題:價值立場(珍視誰的價值)——價值目标(珍視何種價值)——正義原則(如何正确地對待這些價值)。三個核心議題在不同的理論脈絡和現實情境中又派生出更具體的問題,構成了一個豐富而系統的問題域。問題的澄清使涵蓋在某些關鍵概念中的豐富意涵和不同回應之間的張力得以顯現。例如絕大多數的規範性檔案都贊同人工智能的有益、非傷害、公平配置設定原則,但字面上的共識并不意味着倫理考量起點的一緻性,更不代表技術部署和規制實踐措施的統一性。厘清原則文本的理論脈絡差異和觀點張力,能讓我們更清楚地意識到為什麼激增的文本并未有效回應不斷湧現的技術後果,遑論形成人工智能規制合力。

總體而言,目前絕大多數的倫理原則秉持人類中心主義原則,對技術人工物地位的倫理辨析實則在反思人之所是。對福祉和尊嚴的主張關切人類如何以理性、自治的方式通達美好生活,在這些主張中,保護個人隐私和資料安全産生了較大共識,而集體和個體、賦能和維持的選擇優先級則持續産生張力。雖然對人類福祉的尊重明确要求保護生命安全和精神健康,但相關倫理主張顯然沒有阻止人工智能軍事化,甚至為之掃平了道路。2019年美國國防部下屬的國防創新委員會釋出《人工智能倫理道德标準》,看似嚴格的标準卻沒有禁止美軍将人工智能技術應用于緻命性武器,為軍方加快人工智能武器部署解除了最大的禁忌。而在正義原則方面,效益和公平能在學理脈絡中自洽,但在現實的社會情景中依舊出現優先級排序的困境。多個國家已将人工智能發展上升為國家戰略,說明國家層面多重視該技術對全社會的積極影響,認同不采納技術同樣是一種風險的主張。與此同時,絕大多數文本贊同對人工智能效益配置設定需秉持公平公正的原則,確定技術采納起點平等和保護最不利者利益,是其中較為具體的主張。當然,因為倫理原則較少地涉及糾錯機制設計,公平優先較之效益優先,更像軟限制。

大陸在人工智能治理方面采取了“軟硬結合”的方式,成效顯著。2017年國務院印發《新一代人工智能發展規劃》正式将人工智能上升為國家戰略,并提出在2025年初步建立人工智能法律法規、倫理規範和政策體系。從法律法規角度,大陸先後施行《網絡安全法》《資料安全法》《個人資訊保護法》,深圳、上海等地率先就人工智能産業立法,共同構築起國家安全、資料治理和産業部署的法律架構。2021年底多部門聯合釋出《網際網路資訊服務算法推薦管理規定》,在宏觀規制的基礎上開始聚焦人工智能的具體應用場景,其中算法備案等舉措切實地回應了既有倫理原則中關于透明性、可解釋性的主張。

“硬法”落地雖有助于構築剛性的社會規範架構,但也容易導緻産業發展的合規成本高企,是以更具靈活性的“軟法”在這一階段引起更多的關注。在倫理規範體系建設角度,國務院和科技部是主要的推動者,科研院所、産業聯盟與之配合共同回應人工智能的價值立場、價值目标和正義原則。總體而言,大陸人工智能倫理治理秉持人類中心主義,在安全可靠的前提下強調技術對經濟、社會、生态可持續發展方面的使能作用。增進人類福祉、尊重生命權利等基本原則同時重視集體福祉和個體福祉的提升,對人類命運共同體的強調進一步展現了國際主義的宏闊視野。堅持公平公正成為國内人工智能應用的基本原則,強調技術對最大多數人的公正配置設定,合理控制風險、保持公開透明則展現了使用機會均等和保障技術弱勢群體的配置設定觀。從本文分析的原則性檔案中可見,中國的倫理治理模式側重平衡,既未如美國一般多強調行業自律,也不似歐盟密集立法,而在放任主義和寒蟬效應的極端之間尋求中國式治理模式。

在本文述及的國内倫理原則文本中,起草者主要為科技部、國家和地方的産業聯盟,顯現多主體參與的“元治理”嘗試。元治理被認為是對治理的治理,即對不同治理主體進行協調,理性選擇并有機組合不同治理形式㉑,在彌補單一治理不足的同時,減少碎片化和重疊性。㉒随着人工智能治理所面對的現實情境日益複雜,參與到治理實踐中的主體日益多元,尋求整合架構在某種意義上就是一種“元治理”的嘗試。

本文所搜集的原則文本中來自公共部門及其智庫機構的文本僅占不到四成,企業與其它社會組織正在積極參與相關話語的建構,各國政府也積極通過引導行業自律和向社會購買服務等形式将多元主體納入治理網絡。中國政府就在《新一代人工智能治理原則》中将“開放協作”作為指導性原則之一,要求“推動國際組織、政府部門、科研機構、教育機構、企業、社會組織、公衆在人工智能發展與治理中的協調互動”。

在一定程度上,良好的對話架構是元治理得以開展的基礎,特别是當治理網絡中的行動主體之間發生分歧和沖突時,促進彼此間的對話和協商能夠減少治理失靈的程度,形成更靈活的治理組合。而元治理往往涉及到在價值和規範層面形成治理秩序,用以推進和評估治理實踐。㉓在這個意義上,面對不同的治理方案和倫理主張,積極建構對話架構,促進多治理元主體的協商與協同,毫無疑問地成為了元治理的應有之義。而本研究的目标也正是為這一架構的建構提供學理層面的參考,并在經驗層面引導對話,以澄清并組織既有治理觀念的倫理基礎。

此外,在具體的現實情境中,如何将抽象的倫理主張轉變為具體的治理實踐,在多元的價值取向之間進行選擇和行動也是元治理的重要議題。推動人工智能的治理實踐,需要在靜态的對話架構之上進一步建構動态的程式規則,以應對複雜現實情境中的道德選擇和行動需求。部分學者批評現有人工智能治理原則是“道德粉飾”,旨在掩蓋和回避真正的現實問題并為相關行動者的道德“避風港”。其實,盡管原則主義方法不能很好的解決理論和觀念的争議,但它引入的“反思平衡”程式展現了對實踐價值的重視,而這也是經典的倫理理論的薄弱環節。目前全球不約而同地在個人隐私、資料安全等領域積極立法,這得益于對這些問題業已形成的倫理共識和實踐動能。

目前多個國家将人工智能列為優先發展的戰略性科技力量,這項技術被濫用的風險也在與日俱增,在如何增進人類福祉、如何以公平正義的方式配置設定技術紅利等問題上急需建構一個國際對話合作的有效機制。目前在人工智能國際化治理的過程中切實出現了倫理話語政治化的風險,特别是在增進人類福祉的話語正義下僅關注本國利益、在公平配置設定的名義之下僅保護特定利益群體的傾向需要引起足夠的重視。

(作者機關:浙江大學傳媒與國際文化學院)

序号 檔案名 釋出者
1 機器人原則 英國工程和自然科學研究委員會
2 南韓機器人憲章2012 南韓産業通商資源部
3 人機互動專業 的道德規範 聖母大學
4 倫理政策 冰島智能機器研究所
5 大資料分析統一倫理架構 資訊問責基金會
6 AI夥伴的信條 人工智能夥伴
7 可問責的算法原則及算法的社會影響聲明 機器學習FAT組織
8 資料倫理通用原則 埃森哲
9 人工智能公共政策的機遇 因特爾
10 關于算法透明度和問責制的聲明 美國計算機協會
11 蒙特利爾宣言:負責任地發展人工智能 蒙特利爾大學
12 阿希洛馬人工智能原則 生命未來研究院
13 人工智能和大資料領域的人類倫理建議性聲明 加拿大國家研究委員會
14 倫理人工智能的十大原則 全球工會聯盟
15 COMEST機器人倫理學報告 世界科學知識和技術倫理協會
16 倫理原則:為商業開發的AI五條核心原則 塞吉
17 日本人工智能協會倫理指南 日本人工智能學會
18 為國際讨論起草人工智能研發指南 日本内務省和通信部 人工智能網絡社會協商會
19 人工智能政策原則 資訊技術産業委員會
20 符合倫理的設計 電氣電子工程師學會
21 公司數字化的10條倫理指南 斯圖加特傳媒學院
22 人類如何保持上風:算法和人工智能引發的倫理問題 法國國家資訊和自由委員會
23 資料管理和使用:21世紀的治理-英國學會和皇家學會的聯合報告 英國國家學術院和皇家學會
24 資料倫理:面向公司,決策者群組織的原則和指南 資料倫理智庫
25 Tieto的人工智能道德準則 TietoEVRY公司
26 Unity倫理人工智能指導性原則 UNITY公司
27 北歐波羅的海地區的人工智能 北歐部長理事會
28 SAP人工智能指導原則 思愛普公司
29 OpenAI綱領 OpenAI組織
30 霍爾伯頓-圖靈誓言 奧雷利 · 讓、斯蒂芬 · 達迪安和格雷戈裡 · 雷納德發起
31 專業資料科學家行為守則 意昂集團與牛津大學
32 通用人工智能指南 公共之聲聯盟
33 安全有效資料使用和分析的原則 加拿大隐私專員公署
34 索尼集團人工智能倫理指南 索尼
35 負責任的機器人:會話人工智能開發者的10條指南 微軟
36 在新加坡金融業使用人工智能和資料分析時,促進公平、道德、問責和透明度(FEAT)的原則 新加坡金融管理局
37 人工智能的未來共同願景 七國集團
38 人工智能倫理與資料保護宣言 國際資料保護和隐私專員會議
39 商業倫理和人工智能 商業道德研究所
40 IBM信任和透明原則 IBM
41 谷歌人工智能:我們的原則 谷歌
42 關于人工智能、機器人和自主系統的聲明 IBM科學和新技術倫理歐洲小組
43 為人民造福的資料:丹麥資料倫理專家組的建議 丹麥資料倫理專家組
44 關于在司法系統及其環境中使用人工智能的歐洲道德憲章 歐洲司法效率委員會
45 德國電信人工智能準則 德國電信
46 工作場所人工智能G20架構 國際治理創新中心
47 AI4people良善人工智能社會架構 AI4people
48 全球資料倫理承諾 資料民主
49 NITI Aayog讨論檔案:邁向印度人工智能政策的雄心一步 印度國家改革研究院
50 資料實踐宣言 資料世界
51 Telefonia:我們的人工智能原則 西班牙電信
52 資料道德委員會的意見 資料倫理協會
53 人工智能國家戰略 丹麥政府
54 以人為本的人工智能的社會原則 人類中心人工智能社會原則委員會
55 立陶宛人工智能戰略 立陶宛經濟部和專家組
56 人工智能的日常倫理 IBM
57 人工智能治理原則 未來社會智庫 法律和社會倡議
58 OP金融集團的人工智能倫理指南 波赫尤拉銀行集團
59 哈姆巴赫人工智能宣言 獨立資料保護機構會議
60 沃達豐集團的人工智能架構 沃達豐
61 人工智能倫理 特利亞電信
62 了解人工智能倫理與安全 阿蘭圖靈研究所
63 烏蘇皮斯可信任人工智能原則 烏蘇皮斯共和國
64 負責任的人工智能(AI)實用指南 普華永道
65 負責任的人工智能政策架構 國際技術法律協會
66 可信任人工智能 IBM
67 拉丁美洲關于人工智慧的設計,開發和使用的道德聲明 拉丁美洲人工智能共同體
68 負責任的人工智能應用 加拿大政府
69 G20貿易與數字經濟部長聲明 20國集團
70 可信賴的AI應用 弗勞恩霍夫智能分析和資訊系統研究所
71 維也納數字人文主義宣言 數字人文倡議
72 智慧迪拜人工智能倫理原則和指導 智慧迪拜
73 人工智能行業自律公約 中國人工智能産業發展聯盟
74 新一代人工智能行業自律公約 深圳市人工智能行業協會
75 人工智能澳洲倫理架構 澳洲産業、科學、能源和資源部
76 可信賴人工智能倫理指南 歐盟AI進階專家組(AI HLEG)
77 人工智能北京共識 北京智源人工智能研究院等
78 新一代人工智能治理原則——發展負責任的人工智能 中國科技部
79 将資料作為戰略資産利用的原則 美國聯邦政府
80 在人類服務中應用預測工具的倫理指南 MetroLab
81 新加坡的人工智能管理方法 個人資料保護協會
82 倫理架構 負責任的AI 數字崛起 機器智能倫理協會
83 人工智能應用監管指南 白宮管理和預算辦公室
84 DeepMind道德與社會原則 DeepMind
85 負責任的機器學習原則 人工智能和機器學習倫理研究所
86 負責任的AI:Microsoft AI原則 微軟
87 資料科學家的希波克拉底誓言 資料向善
88 數字決策 民主和技術中心

注釋:

①Jelinek, Thorsten, “Wendell Wallach and Danil Kerimi, Coordinating committee for the governance of artificial intelligence”, G20 Insights, Global Solutions Initiative Foundation, 2020.

②劉憲權:《人工智能時代機器人行為道德倫理與刑法規制》,《比較法研究》,2018年第4期,第40-54頁。

③彼得·保羅·維貝克:《将技術道德化》,闫宏秀、楊慶峰譯,上海交通大學出版社,2016年版,第62頁。

④Bovens M, “Analysing and assessing accountability: A conceptual framework”, European Law Journal, 2007,13(4), pp.447-468.

⑤Kant I, Lectures on ethic, Cambridge University Press, 1997, p.212.

⑥拉·梅特裡:《人是機器》,顧壽觀譯,商務印書館,1999年版,第65頁。

⑦、⑩Fletcher G, The philosophy of well-being: An introduction, Routledge, 2016, p.5, p.95.

⑧Kagan S, “The limits of well-being”, Social Philosophy and Policy, 1992,9(2), pp.169-189.

⑨Adler M J, "The dignity of man and the 21st century." A Speech Delivered to Members of The Commonwealth Club, 1952.

⑪、⑮Nozick R, Anarchy, state, and utopia, Basic Books, 1974, p.1, p.47.

⑫伊曼努爾·康德:《道德形而上學原理》,苗力田譯,上海人民出版社,1986年版,第80頁。

⑬Scheffler S, The rejection of consequentialism, Oxford University Press, 1994, p.61.

⑭MacAskill W, “Effective altruism: introduction”, Essays in Philosophy, 2017,18(1), pp.1-5.

⑯Okun Arthur M, Equality and Efficiency: The Big Tradeoff, Washington, The Brookings Institution, p.117.

⑰Marx Karl, Critique of the Gotha Program; reprinted in Marx-Engels-Werke (MEW) vol. 19, Berlin 1978; and in Marx-Engels-Gesamtausgabe (MEGA-B), Berlin 1975, vol. I 25.

⑱⑳約翰·羅爾斯:《正義論》,何懷宏、何包鋼、廖申白譯,中國社會科學出版社,2009年版,第58-69頁。

⑲高景柱:《德沃金與運氣均等主義理論》,《西南大學學報 (社會科學版)》,2021年第2期,第35-43頁。

㉑于水,查榮林,帖明:《元治理視域下政府治道邏輯與治理能力提升》,《江蘇社會科學》, 2014年第4期,第139-145頁。

㉒Gjaltema J, Biesbroek R, Termeer K, “From government to governance… to meta-governance: a systematic literature review”, Public Management Review, 2020,22(12), pp.1760-1780.

㉓Kooiman J, Jentoft S, “Meta‐governance: values, norms and principles, and the making of hard choices”, Public administration, 2009, 87(4), pp.818-836.

The Ethical Basis of AI Governance Principles: Standpoint, Goal, and Justice

Abstract: A large number of AI governance principles have emerged in recent years in an attempt to guide governance practices at the ethical and normative levels. However, the ethical framework has problems in the clarity of the concept and the coordination among the principles. With the increasing diversity of governance agents, it is increasingly difficult to coordinate among the proliferating principle texts. In order to establish an unified framework for comparison and dialogue, on which to integrate and clarify the ethical basis of existing AI governance principles, this paper analyzes and summarizes 88 principles texts from around the world. It is found that these principles respond to three interrelated ethical issues: the issue of value standpoint, the issue of value goals and the issue of justice. These core problems derive more specific problems in different theoretical contexts and practical situations, forming a systematic problem domain. Clarifying the theory context of this problem domain will provide a dialogue framework for different AI governance agents.

Key words: Artificial intelligence, Principlism, Governance, Ethics

繼續閱讀