天天看點

基辛格談人工智能:如何看待人工智能時代的國際秩序?

作者:Beiqing.com

從谷歌AlphaGo擊敗人類棋手,到ChatGpt引發科技界熱議,人工智能科技的每一次進展都牽動着人們的神經。毋庸置疑的是,人工智能正深刻改變着我們的社會、經濟、政治甚至是外交政策,而對于解釋這一切的影響來說,過往傳統的理論往往失靈。在《人工智能時代與人類未來》一書中,著名外交家基辛格、谷歌前CEO施密特和麻省理工學院蘇世民計算機學院院長胡滕洛赫爾從不同角度梳理了人工智能的前世今生,并全面探讨了其發展可能給個人、企業、政府、社會、國家帶來的種種沖擊。幾位頂尖的思想者認為,随着人工智能的能力越來越強,如何定位人類的角色,将是我們在未來的時間中必須長期思考的命題。以下内容經過出版社授權摘編自《人工智能時代與人類未來》,有删改,小标題為摘編者所加。

基辛格談人工智能:如何看待人工智能時代的國際秩序?

《人工智能時代與人類未來》,作者: [美] 亨利·基辛格 / [美] 埃裡克·施密特 / [美] 丹尼爾·胡滕洛赫爾,版本: 中信出版社,2023年5月。

原作者 | [美]亨利·基辛格 / [美]埃裡克·施密特 / [美]丹尼爾·胡滕洛赫爾

通用人工智能會帶來什麼?

人類和人工智能是否從不同的角度接近同一個現實,并且可以優勢互補、相輔相成呢?還是說,我們會感覺到兩種不同但部分重疊的現實:一種是人類可以通過理性闡述的,另一種則是人工智能可以通過算法說明的?如果答案是後一種,那麼人工智能就能感覺我們尚未感覺也無法感覺的事物——不僅因為我們沒有足夠的時間以我們的方式去推理它們,還因為它們存在于一個我們的心智無法概念化的領域之中。人類對“完全了解世界”的追求将會發生改變,人們會意識到,為了獲得某些知識,我們可能需要委托人工智能為我們擷取知識,并向我們回禀消息。無論答案是哪一個,随着人工智能追求的目标愈加全面和廣泛,它在人類看來都将越來越像一個體驗和了解世界的“生靈”—— 一種結合了工具、寵物和心智的存在。

當研究人員接近或已然實作通用人工智能時,這個謎題隻會顯得越發深邃。正如我們在第三章所述,通用人工智能将不會局限于學習和執行特定的任務;相反,根據其定義,通用人工智能将能夠學習并執行範圍極廣的任務,一如人類所為。開發通用人工智能将需要巨大的算力,這可能導緻隻有少數資金充足的組織有能力建立此類人工智能。與目前的人工智能一樣,盡管通用人工智能可能随時被分散部署,但鑒于其能力,其應用有必要受到限制。可以通過隻允許經準許的組織營運通用人工智能來對其施加限制。那麼問題将變成:誰來控制通用人工智能?誰來授權對其的使用?在一個少數“天才”機器由少數組織操縱的世界裡,民主還是可能的嗎?在這種情況下,人類與人工智能的合作會是何種模樣?

如果通用人工智能真的出現在世上,這将是智力、科學和戰略上的重大成就。但即便未能如此,人工智能也同樣能為人類事務帶來一場革命。人工智能在應對突發事件(或者說意外事件)及提供解決方案方面展現出的動力和能力使其有别于以往的技術。如果不受監管,人工智能可能會偏離我們的預期,進而偏離我們的意圖。到底是限制它、與它合作還是順從它的決定,将不僅僅由人類做出。在某些情況下,這将由人工智能本身決定;在其他情況下,則取決于各種助力因素。人類可能參與一場“逐底競争”。

随着人工智能實作流程自動化、允許人類探索大量資料,并組織和重構物質和社會領域,那些先行者可能獲得先發優勢。競争壓力可能會迫使各方在沒有足夠時間評估風險或幹脆無視風險的情況下競相部署通用人工智能。關于人工智能的倫理道德是必不可少的。每個個體的決定—— 限制、合作或順從——也許會産生戲劇性的後果,也許不會,但當它們彙合起來,影響就會倍增。

這些決定不可能是孤立的。如果人類想要塑造未來,需要就指導每一個選擇的共同原則達成一緻。确實,集體行動很難實作,有時甚至不可能,但缺乏共同道德規範指導的個人行動隻會讓人類整體陷入更大的動蕩與變亂。那些設計、訓練人工智能并與人工智能合作的人所能夠實作的目标,将達到迄今人類無法企及的規模和複雜程度,比如新的科學突破、新的經濟效率、新的安全形式,以及社會監控的新次元。而在擴充人工智能及其用途的過程中,那些未能獲得主導權的人卻可能會感到,他們正在被自己不了解, 而且并非由自身設計或選擇的力量所監視、研究和采取行動。這種力量的運作是不透明的,在許多社會中,這是傳統的人類行為者或機構不能容忍的。人工智能的設計者和部署者應該準備好解決這些問題,首先要做的是向非技術人員解釋人工智能在做什麼、它“知道”什麼,又會如何去做。人工智能的動态性和新興性至少令其在兩個方面産生了模糊性。首先,人工智能可能按照我們的預期運作,但會産生我們無法預見的結果。這些結果可能會把人類引入其創造者也始料未及的境地,就像 1914 年的政治家沒有認識到軍事動員的舊邏輯加上新技術會把歐洲拖入戰争一樣。如果不加審慎的考慮就部署和運用人工智能,也可能會造成嚴重後果。

基辛格談人工智能:如何看待人工智能時代的國際秩序?

電影《阿麗塔:戰鬥天使》劇照。

這些後果可能是小範圍的,比如自動駕駛汽車做出的決定危及生命;也可能是極其重大的,比如嚴重軍事沖突。其次,在某些應用領域中,人工智能可能是不可預測的,它的行動完全出人意料。以 AlphaZero 為例,它隻是根據“赢棋”的訓示,就發展出一種人類在幾千年的國際象棋曆史中從未設想過的棋風。雖然人類可能會小心規定人工智能的目标,但随着我們賦予其更大的自由度,其實作目标的路徑可能會讓我們感到驚訝,甚至感到恐慌。是以,對人工智能的目标和授權都需要謹慎地設計,尤其是在其決策可能緻命的領域。我們既不應将人工智能視為自動運作、無須照管的存在,也不應允許其在無人監督、監視或直接控制的情況下采取不可撤銷的行動。人工智能由人類創造,故也應由人類來監管。但在我們這個時代,人工智能面臨的挑戰之一是,具備了創造人工智能所需的技能和資源的人并非必然具有了解其更廣泛内涵的哲學視角。許多人工智能的創造者主要關注的是他們試圖實作的應用和他們想要解決的問題:他們可能不會停下來考慮這個解決方案是否會産生一場曆史性的革命,或者他們的技術将如何影響不同的人群。人工智能時代需要它自己的笛卡兒和康德,來解釋我們創造了什麼及其對人類有何意義。

我們有必要組織政府、大學和私營行業創新者均參與其中的理性讨論和協商,其目标應該是對實際行動建立限制就像今天管理個人群組織行動的那些限制一樣。人工 智 能 具 有 的 屬性,部分與目前受監管的産品、服務、技術和實體相同,但在一些重要方面又與它們不同, 其缺乏自身完全界定的概念和法律架構。例如,人工智能不斷演變、推陳出新的特性給監管帶來了挑戰:它在世界上的運作對象和方式可能因不同領域而異,并随着時間的推移而演變,而且并不總是以可預測的方式呈現。對人的治理是以道德準則為指導的。人工智能需要一種自己的道德準則,這種準則不僅反映了技術的本質,也反映了它所帶來的挑戰。

通常,既有原則并不适用于此處。在信仰時代,當神明裁判中的被告面臨戰鬥裁決時,法院可以判定罪行,但上帝決定誰獲得勝利。在理性時代,人類根據理性的戒律來确定罪責,并根據因果關系和犯罪意圖等概念來判罪和施以懲罰。但是人工智能并不依靠人類的理性運作,也沒有人類的動機、意圖或自我檢討。是以,人工智能的引入将使适用于人類的現有正義原則更為複雜化。

當一個自主系統基于自己的感覺和決策行動時,其創造者承擔責任嗎?還是說,人工智能的行為不可與其創造者相混同,至少在罪責方面不應連坐?如果人工智能被用來監測犯罪行為的迹象,或者幫助判斷某人是否有罪,那麼人工智能必須能夠“解釋”它是如何得出結論的,以便人類官員對此加以采信嗎?此外,在技術發展的哪個時點、何種背景之下,人工智能應該受到國際協商的限制?這是另一個重要的辯論主題。如果試探過早,這項技術的發展可能會受到阻礙,或者可能誘使其隐藏自身能力;而如果拖延太久,則可能會造成破壞性後果,尤其是在軍事方面。對于一種虛無缥缈、晦澀難懂且易于傳播的技術,難以對其設計有效的核查機制使得這一挑戰更加複雜。官方的協商者必然是政府,但也需要為技術專家、倫理學家、創造和營運人工智能的公司以及其他領域外人士搭建發聲平台。

基辛格談人工智能:如何看待人工智能時代的國際秩序?

美劇《西部世界》劇照。

對不同社會來說,人工智能帶來的兩難困境均具有深遠意義。如今,我們的社會和政治生活很大程度上是在人工智能賦能的網絡平台上發生的,民主國家尤其如此,它們依靠這些資訊空間進行辯論和交流,形成公衆輿論并賦予其合法性。誰,或者什麼機構,應該界定技術的角色?誰又應該監管它?使用人工智能的個人應該扮演什麼樣的角色?生産人工智能的公司呢?部署使用它的社會政府呢?作為這些問題解決方案的一部分,我們應該設法使其可稽核,即使其過程和結論既是可檢查的又是可糾正的。反過來,糾正能否實施,将取決于能否将針對人工智能感覺和決策形式的原則加以細化。道德、意志甚至因果關系都不能很好地契合自主人工智能的世界。從交通運輸到金融再到醫藥,社會的大多數層面都會出現類似的問題。

想想人工智能對社交媒體的影響吧。借助最近的創新,這些平台已迅速成為我們公共生活的重要方面。正如我們在第四章中所讨論的,推特和臉書用以突顯、限制或完全禁止内容或個人的功能全都仰仗人工智能,這便是其力量的證明。使用人工智能進行單邊的、通常不透明的内容和概念推廣或删除,這對各國尤其是民主國家來說都是一個挑戰。随着我們的社會和政治生活越來越多地轉向由人工智能管理的領域,并且我們隻能依靠這種管理來駕馭這些領域,我們是否有可能保留主導權?

使用人工智能處理大量資訊的做法也帶來了另一挑戰:人工智能加大了對世界的扭曲,以迎合人類的本能偏好。在這一領域,人工智能可以輕易地放大我們的認知偏差,而我們卻還與之共鳴。伴随着這些聲音,面對選擇的多樣性,又被賦予了選擇和篩選的權力,人們接受的錯誤資訊将會泛濫。社交媒體公司不會通過新聞推送來推動極端和暴力的政治極化,但顯而易見的是,這些服務也沒有導緻開明話語的最大化。

人工智能、自由資訊和獨立思考

那麼,我們與人工智能的關系應該是怎樣的呢?在管理這些領域時,它應該被限制、被授權,還是被當作夥伴?某些資訊的傳播,尤其是故意制造的虛假資訊,會造成損害、分裂和煽動,這是毋庸置疑的。是以一些限制是需要的。然而,現在對“有害資訊”的譴責、打擊和壓制顯得過于寬松,這也應該引起反思。

在一個自由社會裡,有害資訊和虛假資訊的界定不應該被囿于公司的職權範圍。但是,如果将此類職責委托給一個政府小組或機構,該小組或機構應該根據确定的公共标準并通過可核查的程式來運作,以避免被當權者利用。如果将其委托給人工智能算法,則該算法的目标函數、學習、決策和行動必須清晰并接受外部審查,而且至少要有某種形式的人類訴求。

當然,不同的社會會對此得出不同的答案。有些社會可能會強調言論自由,強調程度可能因其對個人表達的相對了解差異而有所不同,并且可能是以限制人工智能在調和内容方面的作用。每個社會都會選擇各自重視的觀念,這可能會導緻其與跨國網絡平台營運商之間的複雜關系。人工智能就像海綿一樣善于吸收,它向人類學習,甚至在我們設計和塑造它的時候也是如此。

基辛格談人工智能:如何看待人工智能時代的國際秩序?

美劇《西部世界》劇照。

是以,不僅每個社會的選擇是不同的,每個社會與人工智能的關系、對人工智能的感覺,及其人工智能模仿人類、向人類老師學習的模式也是各不相同的。但有一點是确定的,那就是人類對事實和真理的追求不應該使一個社會通過一個輪廓不明、無法檢驗的過濾器來體驗生活。對現實的自發體驗盡管有其沖突性和複雜性,卻是人類境況的一個重要方面,即使這種體驗導緻了低效或錯誤。

人工智能和國際秩序

在全球範圍内,有無數問題正亟待解答。如何對人工智能網絡平台進行監管,而不會引發擔心其安全性的國家之間的緊張關系?這些網絡平台是否會侵蝕傳統的國家主權觀念?由此産生的變化會給世界帶來自蘇聯解體以來從未有過的兩極分化嗎?小國會反對嗎?試圖調解這些後果的努力會成功嗎?或者有成功的希望嗎?

随着人工智能的能力不斷增強,如何定位與人工智能合作時人類的角色将變得愈加重要和複雜。我們可以設想這樣一個世界:在這個世界裡,人類在日益重要的問題上越發尊重人工智能的意見。在一個進攻對手成功部署人工智能的世界裡,防禦方的上司人能否決定不部署自己的人工智能并為此擔責嗎?即使他們也不确定這種部署将帶來怎樣的演變。而如果人工智能擁有推薦一種行動方案的優越能力,那麼決策者是否有理由接受它,即使該行動方案需要做出一定程度的犧牲?人類怎能知道這種犧牲是否對勝利必不可少呢?如果确實必不可少,那麼決策者真的願意否決它嗎?換句話說,我們可能别無選擇,而隻能選擇扶植人工智能。但我們也有責任以一種與人類未來相容的方式來對它加以塑造。不完美是人類經驗中的常态之一,尤其是在上司力方面。

通常,決策者會因偏狹的擔憂而杯弓蛇影。有時,他們的行動基于錯誤的假設;有時,他們的行動純粹是出于感情用事;還有一些時候,意識形态扭曲了他們的視野。無論用何種政策來建構人類與人工智能的夥伴關系,它們都必須适應人類。如果人工智能在某些領域顯示出超人的能力,則其使用必須能夠被不完美的人類環境所相容并包。

在安全領域,人工智能賦能系統響應速度非常快,使得對手可能會在系統運作之前嘗試攻擊。結果是可能造就一種内在不穩定的局勢,堪比核武器所造成的局勢。然而,核武器被置于國際安全和軍備控制概念的架構中,這些概念是由各國政府、科學家、戰略家和倫理學家通過不斷的提煉、辯論和談判,在過去幾十年裡發展起來的。人工智能和網絡武器沒有類似的架構。

事實上,政府可能并不願意承認它們的存在。各國——可能還有科技公司——需要就如何與武器化的人工智能共存達成一緻。人工智能通過政府防務職能的擴散,将改變國際平衡以及在我們這個時代維持這種平衡所依賴的計算。核武器代價高昂,而且由于其規模和結構而難以被隐藏。與之相反,人工智能卻可以在随處可見的計算機上運作。由于訓練機器學習模型需要專業知識和計算資源,是以創造一個人工智能需要大公司或國家級的資源;而由于人工智能的應用是在相對較小的計算機上進行的,是以其必将被廣泛使用,包括以我們意想不到的方式。任何擁有筆記本電腦、連接配接到網際網路并緻力于窺探人工智能黑暗面的人,最終都能獲得人工智能賦能的武器嗎?政府是否會允許與其關系若即若離或毫無關系的行為者使用人工智能來騷擾他們的對手?恐怖分子會策劃人工智能襲擊嗎?他們是否能夠将這些活動嫁禍給國家或其他行為者?

過去,外交在一個有組織、可預測的舞台上進行;如今,其資訊擷取和行動範圍将獲得極大的擴充。以往因地理和語言差異而形成的清晰界線将逐漸消失。人工智能翻譯将促進對話,而且不用像以往的譯者那樣不僅要有語言造詣,還要精通文化。人工智能賦能的網絡平台将促進跨境交流,而黑客攻擊和虛假資訊将繼續扭曲人們的認知和評估。随着形勢愈加複雜,制定具有可預測結果的可執行協定将變得更加困難。

将人工智能功能與網絡武器相結合的可能性加深了這一困境。人類通過明确區分正常武器(被認為與傳統戰略相調和)和核武器(被認為是例外)而回避了核悖論。核武器的破壞力量一旦釋放就是無差别的,不分對象;而正常武器可以辨識打擊目标。但是,既能辨識目标又能進行大規模破壞的網絡武器消除了這一區分。

如果再有人工智能推波助瀾,這些武器将如虎添翼,變得更加不可預測,潛在的破壞性也更大。同時,當這些武器在網絡中伺機遊弋時,是無法确定歸屬的。它們無法被察覺,因為它們不像核武器那麼笨重;它們還可以通過 U 盤攜帶,而這有利于擴散。在某些形式下,這些武器一旦被運用就難以控制,如果考慮到人工智能的動态和新興特性就更加如此。

這種形勢挑戰了以規則為基礎的世界秩序的前提。此外,它還讓發展人工智能軍備控制的相關概念成了當務之急。在人工智能時代,威懾将不再依照曆史上的準則, 它也做不到這一點。在核時代之初,依據哈佛大學、麻省理工學院和加州理工學院的領軍教授、學者(有政府工作經驗)在讨論中形成的真知灼見,人們搭建了一個核軍備控制的概念架構,繼而又促成了一個制度(以及在美國和其他國家實施該制度的機構)的建立。

盡管學術界的思想很重要,但它與五角大樓對正常戰争的考量是分開實施的—— 它是一種新的補充,而非對原有的修改。但人工智能的潛在軍事用途比核武器更廣泛,而且至少目前其進攻和防禦還談不上泾渭分明。在一個如此複雜、内在又如此叵測的世界裡,人工智能成了另一種誤解和錯誤的可能來源,擁有高科技能力的大國遲早将不得不就此進行一場持續對話。

這種對話應聚焦于一個根本問題:避免災難,并以此求得生存。人工智能和其他新興技術(比如量子計算)似乎正在讓超越人類感覺範圍的現實變得更加觸手可及。然而,最終我們可能會發現,即使是這些技術也有其局限性。我們的問題是,我們尚未領會它們的哲學蘊含。我們正在被它們不由自主地推動向前,而非有意識的。

上一次人類意識發生重大變化是在啟蒙運動時期,這一轉變的發生是因為新技術産生了新的哲學見解,而這些見解又通過技術(以印刷機的形式)傳播開來。在我們這個時代,新技術已經發展起來,但相應的指導性的哲學理念卻暫付阙如。人工智能是一項具有深遠潛在利益的宏大事業。人類正在努力開發人工智能,但我們是用它來讓我們的生活變得更好還是更糟?它允諾帶來更強力的藥物、更高效公平的醫療保健、更可持續的環境實踐,以及其他種種進步圖景。然而與此同時,它也可以使資訊失真,或者至少使資訊的消費和真相識别的過程變得更加錯綜複雜,并由此令一部分人的獨立推理和判斷能力日漸萎落。

最後,一個“元”問題浮現出來:在對世界有着不同解釋和了解的人工智能的“輔助”下,人類能否滿足對哲學的需求?人類并不完全了解機器,但我們最終将與它們和平共處,并以此改變世界?伊曼努爾 ·康德在他的《純粹理性批判》一書的序言中以這樣一個觀點開篇:

人類理性具有此種特殊運命,即在其所有知識之一門類中,為種種問題所困,此等問題以其為理性自身之本質所加之于其自身者,故不能置之不顧,但又因其超越理性所有之一切能力, 故又不能解答之也。

在此後的幾個世紀裡,人類對這些問題進行了深入的探索,其中一些問題涉及心靈、理性乃至現實的本質。人類已取得了重大突破,但也遇到了康德提出的許多限制:一個其無法回答的問題領域,一個其無法完全了解的事實領域。人工智能的出現,帶來了人類僅憑理性無法實作的學習和處理資訊的能力,其可能會讓我們在那些已被證明超出我們回答能力的問題上取得進展。但是,成功将産生新的問題,其中一些問題我們已經試圖在本書中闡明。人類智能和人工智能正值風雲際會,兩者将彼此融彙于國家、大洲,甚至全球範圍内的各種追求之中。了解這一轉變,并為之發展一種指導性道德準則,需要社會各個階層,包括科學家和戰略家、政治家和哲學家、神職人員和首席執行官們,群策群力、各抒己見并做出共同的承諾。不僅各國内部應有此承諾,國與國之間也同樣如此。我們與人工智能究竟能建立何種夥伴關系,由此又會産生什麼樣的現實呢?現在,是時候對此加以界定了。

作者:/[美]亨利·基辛格 / [美]埃裡克·施密特 / [美]丹尼爾·胡滕洛赫爾

摘編/劉亞光

編輯/劉亞光

校對/趙琳

繼續閱讀