天天看點

百歲基辛格談人工智能:不要等到危機來臨才開始重視 | 讀書

作者:第一财經

評論贈書 你如何看待人工智能的發展對社會的影響,你身邊有哪些行業已經開始被人工智能所取代?在評論區留言,被選中的使用者有機會獲得這本由中信出版集團出版的《人工智能時代與人類未來》

2023年,亨利·基辛格已經100歲高齡,但是他頭腦依然很清醒,思路依然很清晰。他還是一如既往的參加國際問題的讨論,并且還能給出令人佩服的預測。

《經濟學人》在4月底與基辛格進行了長達8個小時的對話。在這次對話中,基辛格表示出了對中美兩國圍繞科技和經濟領先地位日益激烈競争的擔憂,他還擔心人工智能即将極大程度地加劇中美對立。基辛格認為,人工智能将在五年内成為安全領域的關鍵因素,其颠覆性潛力堪比活字印刷術。

“我們生活在一個破壞性空前的世界中”,基辛格警告道。盡管原則上人類要介入機器學習的回報循環,但人工智能還是可能成為全自動的、不可阻擋的武器。

基辛格一直非常關注人工智能的發展,他曾經說過“搞技術的人關心的是應用,我關心的是影響”。最近,基辛格和谷歌前首席執行官埃裡克·施密特、麻省理工學院蘇世民學院院長丹尼爾·胡騰洛赫爾還共同完成一本書《人工智能時代與人類未來》,基辛格在這本書中提出,人工智能将重塑全球安全和世界秩序,并對人工智能發展對個體和人類自我身份認同的沖擊進行了反思。

百歲基辛格談人工智能:不要等到危機來臨才開始重視 | 讀書

《人工智能時代與人類未來》

亨利·基辛格等著

自有記載的人類曆史起,安全始終是一個有組織的社會追求的最低目标。在每一個時代,尋求安全的社會都試圖将技術進步轉化為日益有效的方法,用以監視威脅,練兵備戰,施影響于國界之外,戰時則用于加強軍事力量以取得勝利。對最早期的有組織社會來說,冶金、防禦工事、戰馬蓄養和造船等方面的進步往往具有決定性的意義。到了近代早期,火器槍炮、海軍艦船、航海工具和技術方面的創新也發揮了類似的作用。

随着力量的增強,主要大國之間會互相衡量,以評估哪一方會在沖突中獲勝,取得這樣的勝利會帶來什麼風險和損失,開戰有什麼正當的理由,以及另一個大國及其軍事力量介入沖突會對結果産生什麼影響。不同國家的戰力、目标和戰略至少在理論上被設定為一種平衡,或者說是一種力量的均衡。

人工智能時代的網絡戰争

在過去的一個世紀裡,對手段和目的的戰略調整已然出現了脫節。用于追求安全的技術層出不窮,破壞性也越來越大,而運用這些技術實作既定目标的戰略卻變得越來越難以捉摸。在當今時代,網絡和人工智能的出現又為這些戰略計算增加了超乎尋常的複雜性和抽象性。

在冷戰結束後的今天,主要大國和其他國家都利用網絡能力增強了本國的武器庫,這些網絡能力的效用主要源自其不透明性和可否認性,在某些情況下,也源自對其在散播虛假資訊、收集情報、蓄意破壞和傳統沖突的模糊邊界上的運用——這構成了種種尚無公認理論教條的戰略。與此同時,每一次進步都伴随着新的弱點被揭露。

人工智能時代可能使現代戰略之謎更趨複雜化,這并非人類本意,也許還完全超出人類的了解。即使各國不廣泛部署所謂的緻命自主武器(即經過訓練和授權可以自主選擇目标,并在沒有進一步人類授權的情況下進行攻擊的自動或半自動人工智能武器),人工智能仍有可能增強正常武器、核武器和網絡能力,進而使對手之間的安全關系更加難以預測和維護,沖突更加難以限制。

沒有哪個大國可以忽視人工智能的安全次元。一場争奪人工智能戰略優勢的競賽已經開始,尤其是在美國和中國之間,當然還有俄羅斯。随着對他國正在獲得某些人工智能能力的認知或猜疑日益蔓延,将會有更多國家尋求獲得這些能力。而一旦被引入,這能力就會快速擴散。雖然創造一種複雜的人工智能需要大量的算力,但對其進行增殖擴散或使用它通常并不需要。

解決這些複雜問題的辦法既不是陷入絕望,也不是繳械投降。核技術、網絡技術和人工智能技術已經存在,其中每一項技術都将不可避免地在戰略中發揮作用。我們已不可能退回到這些技術“未被發明”的時代。如果美國及其盟友因這些能力可能産生的影響而畏縮不前,結果不會是一個更和平的世界。相反,那将是一個不太平衡的世界,身處其中的各國會競相發展和使用最強大的戰略能力,而不考慮民主責任和國際平衡。

今後幾十年,我們需要實作一種力量平衡,這種平衡既要考慮到網絡沖突和大規模虛假資訊傳播等無形因素,也要考慮到由人工智能輔助的戰争的獨特屬性。殘酷的現實迫使人們認識到,即使是在彼此競争中,人工智能領域的對手們也應緻力于限制極具破壞性、不穩定性和不可預測性的人工智能能力的開發和使用。在人工智能軍備控制方面的清醒努力與國家安全并不沖突,它是一種嘗試,為的是確定在人類未來的架構下尋求實作安全。

一個社會的數字能力越強

這個社會就變得越脆弱

縱觀曆史,一個國家的政治影響力往往與其軍事力量和戰略能力大緻比對,這是一種即使主要通過施加隐性威脅也會對其他社會造成破壞的能力。然而,基于這種力量權衡的均勢不是靜态的或自我維持的。相反,它首先依賴于各方就這一力量的構成要素及其使用的合法界限達成共識。其次,維持均勢需要體系内所有成員,尤其是對手,就各個國家的相對能力、意圖和侵略的後果進行一緻的評估。最後,保持均勢需要一個實際的、公認的平衡。當體系中的一方以一種與其他成員并不成比例的方式增加自身力量時,體系将通過組織對抗力量或者通過适應新的現實來設法做出調整。當均勢的權衡變得不确定時,或者當各國對各自相對實力的權衡結果完全不同時,由誤算引發沖突的風險就會達到最大。

在當今時代,這些權衡的抽象性更進一步。帶來這種轉變的原因之一是所謂的網絡武器,這類武器涉及軍用和民用兩個領域,是以其作為武器的地位是模糊的。在某些情況下,網絡武器在行使和增強軍事力量方面的效用主要源于其使用者未披露其存在或未承認其全部能力。傳統上,沖突各方都不難認識到發生了交戰,或者認識到交戰各方是誰。對手間會計算對方的戰力,并評估他們部署武器的速度。可是這些在傳統戰場上颠撲不破的道理卻不能直接套用到網絡領域。

正常武器和核武器存在于實體空間中,在那裡,它們的部署可以被察覺,它們的能力至少可以被粗略計算出來。相比之下,網絡武器的效用很大一部分來自其不透明性;若被公之于衆,它們的威力自然有所減損。這些武器利用之前未曾披露的軟體漏洞,在未經授權使用者許可或知情的情況下侵入網絡或系統。在“分布式拒絕服務”(DDoS)攻擊(如對通信系統的攻擊)的突發事件中,攻擊者可能會使用一大堆看似有效的資訊請求來壓垮系統,使系統無法正常使用。在這種情況下,攻擊的真實來源可能被掩蓋,使人難以或無法(至少在當時)确定攻擊者。即使是最著名的網絡工業破壞事件之一——震網(Stuxnet)病毒破壞了伊朗核項目中的制造控制計算機,也沒有任何政府對此事做過正式承認。

正常武器和核武器可以相對精确地瞄準目标,道德和法律要求它們瞄準的對象隻能是軍事力量和設施。而網絡武器可以廣泛地影響計算和通信系統,往往可對民用系統造成特别有力的打擊。網絡武器也可以被其他行為體基于其他目的而進行吸納、修改和重新部署。這使得網絡武器在某些方面類似于生物和化學武器,其影響可以非預期和未知的方式傳播。在許多情況下,網絡武器影響的是大範圍的人類社會,而不僅僅是戰場上的特定目标。

網絡武器的這些用途,使得網絡軍備控制難以被概念化或被推行。核軍備控制的談判人員可以公開披露或描述一類核彈頭,而不必否認該武器的功能。網絡軍備控制談判人員(目前尚不存在)則需要解決以下悖論:一旦對網絡武器的威力進行讨論,可能就會導緻這種威力的喪失(允許對手修補漏洞)或擴散(對手得以複制代碼或侵入方法)。

我們所處的數字時代的一個核心悖論是:一個社會的數字能力越強,這個社會就變得越脆弱。計算機、通信系統、金融市場、大學、醫院、航空公司和公共交通系統,甚至民主政治的機制,所涉及的系統在不同程度上都容易受到網絡操縱或攻擊。随着發達經濟體将數字指揮和控制系統整合到發電廠和電網中,将政府項目轉移到大型伺服器和雲系統中,并将資料轉謄到電子賬簿中,它們在網絡攻擊面前的脆弱性也成倍增加。這些行為提供了更豐富的目标集合,是以僅僅一次成功的攻擊就可能造成實質性的破壞。與此相對,如果發生數字破壞的情況,低技術國家、恐怖組織甚至個人攻擊者可能會認為他們承受的損失相對要小得多。

人工智能将為戰争帶來新的變數

各國正在悄無聲息地,有時是試探性地,但又确鑿無疑地發展和部署那些對各種軍事能力的戰略行動均有所促進的人工智能,這對安全政策可能産生革命性影響。

戰争一直是一個充滿不确定性和偶然性的領域,但人工智能進入這個領域将為其帶來新的變數。

人工智能和機器學習将通過擴大現有武器類别的打擊能力來改變行為者的戰略和戰術選擇。人工智能不僅能使正常武器瞄得更精準,還能使它們以新的、非正常的方式進行瞄準,比如(至少在理論上)瞄準某個特定的個人或物體,而不是某個地點。通過研究大量資訊,人工智能網絡武器可以學習如何滲透防禦,而不需要人類幫它們發現可以利用的軟體漏洞。同樣,人工智能也可以用于防禦,在漏洞被利用之前定位并修複它們。但由于攻擊者可以選擇目标而防禦者不能,人工智能即使未必讓進攻方戰無不勝,也可令其占得先機。

如果一個國家面對的對手已經訓練人工智能來駕駛飛機、獨立做出瞄準的決策并開火,那麼采用這種技術将在戰術、戰略或訴諸更新戰争規模(甚至是核戰)的意願方面産生什麼變化?

人工智能開辟了資訊空間能力的新視野,包括虛假資訊領域。生成式人工智能可以創造大量似是而非的虛假資訊。人工智能推波助瀾的資訊戰和心理戰,包括使用僞造的人物、圖檔、視訊和演講,無時無刻不在暴露出當今社會令人不安的新弱點,尤其是在自由社會。廣泛轉發的示威活動配上了看似真實的圖檔和視訊,裡面的公衆人物發表着他們從未真正說過的言論。從理論上講,人工智能可以決定将這些由人工智能合成的内容以最有效的方式傳遞給人們,使其符合人們的偏見和期望。

各個主要的技術先進國家都需要明白,它們正處于戰略轉型的門檻上,這種轉型與當年核武器的出現同等重要,但影響将更加多樣化、分散化和不可預測。每個正在擴充人工智能前沿的社會都應緻力于成立一個國家層面的機構,來考量人工智能的防禦和安全,并在影響人工智能建立和部署的各個部門之間建立橋梁。這個機構應被賦予兩項職能:確定維持本國在世界其他地區的競争力,同時協調研究如何防止或至少限制不必要的沖突更新或危機。在此基礎上,與盟友和對手進行某種形式的談判将是至關重要的。

如果要對這一方向進行探索,那麼世界兩大人工智能強國——美國和中國——就必須接受這一現實。兩國可能會得出這樣的結論:無論兩國競争的新階段可能會出現何種形式的競賽,兩國仍應該尋求達成一項共識,即不會同對方打一場前沿技術戰争。雙方政府可以委托某個團隊或進階官員負責監督,并直接向上司人報告潛在的危險,以及如何避免這些危險。

在人工智能時代,我們應該對長期以來的戰略邏輯進行調整。在災難真正發生之前,我們需要克服,或者至少是遏制這種自動化的驅向。我們必須防止運作速度比人類決策者更快的人工智能做出一些具有戰略後果的、不可挽回的行為。防禦力量的自動化,必須在不放棄人類控制的基本前提下去實施。

由于大多數人工智能技術具有軍民兩用特性,我們有責任在這場技術研發競賽中保持領先。但這也同樣迫使我們去了解它的局限性。等到危機來臨才開始讨論這些問題就為時已晚了。一旦在軍事沖突中使用,人工智能技術的響應速度之快,幾乎注定它将以比外交手段更快的速度産生結果。大國之間必須就網絡和人工智能武器展開讨論,哪怕隻是為了形成一套共同的戰略概念話語,以及感覺彼此的紅線。

要在最具破壞性的能力上實作互相制約,絕不能等到悲劇發生再去亡羊補牢。當人類開始在創造新的、不斷演化的、擁有智能的武器方面展開競争時,曆史不會原諒任何對此設限的失敗。在人工智能時代,對國家優勢的持久追求,仍須以捍衛人類倫理為前提。

微信編輯 | 小V

繼續閱讀