天天看點

西方學界人工智能倫理風險防範研究

作者:中國社會科學網

智能化革命正在深刻地影響和塑造着人類的生産、生活方式與社會文明發展形态。如何應對人工智能技術發展和應用帶來的倫理問題及挑戰,成為智能化時代全人類需要面對的重大課題。國際學術界對新技術可能引發的各種倫理問題以及防範等進行了諸多研究,值得我們關注。

  對機器能否成為道德主體的看法

  人工智能顯然超出了傳統工具的範疇,具有學習能力,能做決策,并根據環境變化調整行為,進而産生相應的倫理後果。是以,該如何确定或定義人工智能在人類社會中的身份和地位,其能否成為道德主體或法律主體,為自身行為承擔責任或獲得激勵?國外學界認為,對這些問題的探讨最終還是要還原到何為自我意識、自由意志的問題。從1956年圖靈(A. M. Turing)提出“圖靈測試”設想開始到塞爾(J. R. Searle)的“中文屋”思想實驗,再到德雷福斯(H.Dreyfus)的《計算機仍然不能做什麼:人工理性批判》等思想成果,早期的人工智能先驅們基于人工智能的本質,及其與人類智能的差別等視角普遍認為,人工智能不具有類人的意識。

西方學界人工智能倫理風險防範研究

  近年來,随着以人工智能為代表的新技術指數級的發展,自主性的機器能否成為主體,成為繞不開的話題。其中,大部分學者認為機器智能依賴的是算法程式,很難衍生出像人一樣的自我意識和自由意志,因而很難成為道德主體。他們認為人的心靈(mind)是由兩個部分構成的,通過形式邏輯、自然因果律等認識、把握、改造對象世界的計算意識,通過對象性活動和交往活動确證主體世界本質與意義的社會情感意識,機器表現出來的自主意識隻是對人類計算智能的模拟。如博登(M. Boben)認為人類很難設計出通用人工智能,因為人工智能隻專注于智能理性而忽略了社會情感智能,沒有智慧(wisdom)。齊澤克強調不應該将計算機想象成人的大腦模型,要将人的大腦想象成“血肉構造的計算機”,而人腦是無法完全還原為計算機構造模型的。但是,一些未來學家認為機器在未來将衍生出不同于人類的意識和超出人類的智能,而一旦出現超級人工智能,人類将很難與其溝通,也很難使其遵守人類的道德規則。如庫茲韋爾(Ray Kurzweil)于2005年提出“技術奇點”論,認為在未來人的主體性将受到機器的挑戰。安德森(Michael Anderson)夫婦編著了“機器倫理”(Machine Ethics)一書,開啟了以機器作為責任主體的機器倫理學研究進路。随着人工智能技術指數級的發展,機器在未來能否突破因果律的限制,衍生出能動意識,需要理論持續的跟進。

  西方學者關于機器能否成為道德主體的論争,引發了我們重新關注和審視人工智能趨勢下“什麼是人”“我們該如何對待人”“技術的本質和限度是什麼”等問題的思考。

  人工智能産生的道德倫理風險

  人工智能技術自發展伊始就與人有着千絲萬縷的聯系,早在1950年,美國控制論創始人維納(Norbert Wiener)就認為機器人技術會從善還是作惡充滿不确定性,但機器人将代替人類從事工作,或許會造成人腦的“貶值”。西方學者對人工智能可能産生的道德倫理風險,進行了較為深入系統的研究和探索。

  第一,對人工智能技術導緻勞動者失業,形成新的社會不公、技術鴻溝等問題的探讨。不少西方學者認為人工智能造成大量失業、社會貧富差距增大等風險。如赫拉利(Yuval Harari)認為随着技術的進化,大多數人因自身工作會被人工智能替代而淪為“無用階級”,隻有少數掌握技術和資源的精英階層會進化成超級人類,社會階層固化、極化。對如何更好地保障人的生存發展權利,休斯(James Hughes)等學者提出通過稅收和财富公共所有權建立全面基本收入制度,以應對智能技術造成的失業和社會不公。

  第二,對人工智能技術不确定性倫理風險問題的辯論。“究竟誰應該對機器行為承擔責任”成為日益嚴峻的責任倫理問題。一些學者主張設計者、制造者、程式設計者和使用者應對機器人的社會後果進行控制監督,強調機器人工程師的倫理責任。另外一些學者主張以道德嵌入的方式來設計算法,使機器成為内置倫理系統的道德體,以防範人工智能在設計和應用階段産生的倫理風險。2009年,美國學者瓦拉赫(Wendell Wallach)和艾倫(Colin Allen)在合著的《道德機器:教導機器人分辨是非》一書中,對如何設計道德機器做了較為系統的分析。然而,道德算法面臨價值選擇與沖突。人類社會存在多種道德規範和倫理原則,各體系間難以通約,以何種道德規範設計算法成為問題。此外,設計者的倫理訴求也非一進制,在設計道德機器時如何進行價值取舍同樣成為問題。基于此,一些學者如布賴森(J. Bryson)等就如何進行價值排序、解決價值沖突、尋求普遍倫理共識作為設計道德機器的理論架構進行了探讨,他們普遍将機器對人類無害且友善作為首要的倫理原則。

  第三,對人工智能技術濫觞突破傳統人類道德倫理界限的擔憂。除了上述問題,一些學者對下述問題表達了擔憂。人對智能技術的過度依賴,容易導緻技術霸權和技術奴役,造成社會不确定性風險和危機;護理機器人的應用存在物化老人、幼兒,弱化或侵犯其尊嚴、自由、隐私等風險;自主作戰機器人的應用存在打破國際社會法律與規約,增大引發地區性沖突與戰争可能性以及大規模殺傷的風險。

  人工智能倫理風險防範思路

  針對人工智能可能引發的各種倫理問題,西方學者普遍認為應該從機器倫理價值導向設計、行業标準設定以及立法等多途徑防範和規避人工智能倫理風險。

  在國際學術界有較大影響力的是自上而下的道德編碼和自下而上的道德學習的機器設計思路。前者主張将人類社會的道德規則以程式編碼的方式嵌入算法中,使機器能夠通過計算和推理進行道德決策。後者認為人類的道德行為是在具體道德情景、與他人的互動中習得的,因而無須預先編碼,讓機器通過道德案例觀察、與其他道德體互動學習等成為道德行動者。

  這兩種設計各有局限,前者存在選擇何種倫理價值嵌入以及如何應對複雜道德場景的問題,後者存在沒有倫理指導系統,僅憑機器學習,輸入機器的道德敏感資料會得出何種結果的問題。考科爾伯格(Mark Coeckelbergh)認為,目前的機器學習實質上是一種統計學加工過程,因而機器很難被訓練成完全的道德行動者,他主張從人機互動的關系進路設計道德機器。

  通過行業标準設定防範和規避人工智能倫理風險的對策。近年來,歐洲機器人研究網絡(EURON),美國國家航空航天局(NASA)和國家科學基金會、南韓貿易、工業和能源部等從國家層面對人工智能倫理研究進行指導。一些行業協會如英國标準協會(BSI)頒布了《機器人和機器系統的倫理設計和應用指南》,美國電氣與電子工程師協會(IEEE)提出“合乎倫理設計”(EAD)規範等,以應對因設計者認知偏好引發的算法歧視、社會不公等問題。

  通過制度規範化解人工智能倫理風險的做法。2021年4月,歐盟委員會通過了《人工智能法》立法提案,對人工智能的功能和用途等要素做了不可接受的風險、高風險、有限風險和低風險等層級區分,并提出了明确、具體的對應分類治理和監管體系。

  國際學術界對“合乎倫理設計”的道德機器可行性探索,為我們開發設計可信賴的人工智能提供了方法論的指引。在疫情難以預料的當下和未來,人類命運休戚與共,加速人工智能與各領域的深度融合,使世界形成一個泛智能化的地球村已是大勢所趨。是以,擱置争議,尋求全球共識,設計具有最大公約數的道德機器,共同抵禦未來的不确定性風險非常必要、迫切并将成為可能。但這些學者将研究重心集中于如何規避技術風險,忽視了人文價值缺失在技術應用中的極化倫理風險。為了解決這些問題,我們應始終堅持以人民為中心的科技發展規律,在技術的發展和應用中始終将維護人的尊嚴,呵護人的價值作為根本目标和前置條件。

  (作者機關:華南理工大學馬克思主義學院;廣東省社會科學院國際問題研究所)

來源:中國社會科學網-中國社會科學報 作者:曹彥娜 劉偉

繼續閱讀