天天看點

《人類簡史》作者談AI:2028年美國總統競選可能不再由人類主持

  • 1“語言是人類文化的作業系統。從語言中産生了神話和法律,衆神和金錢,藝術和科學,友誼和國家,以及計算機代碼。人工智能對語言的掌握,意味着它現在可以入侵并操縱文明的作業系統。”
  • 2“社交媒體是人工智能與人類的第一次接觸,而人類輸了。大型語言模型是我們與人工智能的第二次接觸,我們不能再輸了。”
  • 3“想象一下,當你登上一架飛機時,一半建造這架飛機的工程師告訴你,飛機有10%的可能性會墜毀,導緻你和飛機上的其他人死亡。你還會登機嗎?
  • 4“2022年,在一項調查中,超過700名頂級學者和頭部人工智能企業的研究人員被問及未來人工智能的風險。半數受訪者表示,未來的人工智能系統有10%或更大幾率使人類滅絕(或永久性嚴重喪失能力)。建立今天的大型語言模型的科技公司,正陷入一場将全人類送上那架飛機的競賽。”

近日,《人類簡史》作者、以色列曆史學家尤瓦爾·赫拉利(Yuval Harari)與知名紀錄片《監視資本主義:智能陷阱(The Social Dilemma)》的制作人特裡斯坦·哈裡斯(Tristan Harris)和阿紮·拉斯金(Aza Raskin)共同撰文,呼籲人類争取時間,為應對人工智能世界而更新現有機構(這套機構仍然源自19世紀),并在人工智能掌控人類之前學會掌控它。

《人類簡史》作者、以色列曆史學家尤瓦爾·赫拉利。

這篇題為《你可以擁有藍色藥丸或紅色藥丸,我們已經沒有藍色藥丸了》的文章發表在《紐約時報》。紅色藥丸與藍色藥丸(red pill and blue pill)是一種流行的迷因,意思是在令人不安的知識和殘酷現實的“紅色藥丸”與保持愚昧并繼續過着平凡生活的“藍色藥丸”之間做出選擇。

文章指出,未對産品進行嚴格的安全檢查,藥品公司不能向人們出售新藥。生物技術實驗室不能為了打動股東而将新病毒釋出到公共領域。同樣,具有GPT-4及以上能力的人工智能系統,其卷入數十億人生活的速度,不應該超過文化能安全吸收它們的速度。為了主導市場而展開的競賽,不應該設定部署人類最重要技術的速度。

“自20世紀中期以來,人工智能的幽靈一直困擾着人類,但直到最近,它仍然是一個遙遠的前景,是屬于科幻小說而不是嚴肅科學和政治辯論的東西。我們人類的頭腦很難掌握GPT-4和類似工具的新能力,更難掌控這些工具發展更先進和更強大能力的指數級速度。但大多數關鍵技能歸結為一件事:操縱和生成語言的能力,無論是用文字、聲音還是圖像。”文章寫道。

“起初是文字。語言是人類文化的作業系統。從語言中産生了神話和法律,衆神和金錢,藝術和科學,友誼和國家,以及計算機代碼。人工智能對語言的掌握,意味着它現在可以入侵并操縱文明的作業系統。通過對語言的掌握,人工智能正在奪取文明的萬能鑰匙,從金庫到聖墓。”文章繼續寫道。

對人類來說,生活在這樣一個世界裡意味着什麼?“在這個世界裡,很大比例的故事、旋律、圖像、法律、政策和工具都是由非人類智能塑造的,它知道如何以超人的效率利用人類思維的弱點、偏見和成瘾,同時知道如何與人類形成親密的關系?在像國際象棋這樣的遊戲中,沒人有希望能擊敗計算機。當同樣的事情發生在藝術、政治或宗教領域時會發生什麼?”作者問道。

“AI可以迅速吃掉整個人類文化——我們幾千年來産生的一切——消化它,并開始湧出大量的新文化藝術品。不僅僅是學校作文,還有政治演說、意識形态宣言、新邪教的聖書。到2028年,美國總統競選可能不再由人類主持。”

這篇文章認為,人類往往不能直接接觸到現實,而是被文化所籠罩,通過文化棱鏡體驗現實。“我們的政治觀點是由記者的報道和朋友的轶聞形成的。我們的性偏好是由藝術和宗教來調整的。到目前為止,這個文化之繭是由其他人類編織的。通過非人類智慧産生的棱鏡來體驗現實會是什麼樣子?”

“幾千年來,我們人類一直生活在其他人類的夢中。我們崇拜神靈,追求美麗的理想,并把我們的生命獻給源于某些先知、詩人或政治家想象的事業。很快,我們也會發現自己生活在非人類智慧的幻覺中。”

文章舉例稱,《終結者》系列電影描繪了機器人在街上奔跑和射擊的場景。《黑客帝國》假設要獲得對人類社會的完全控制,人工智能将不得不首先獲得對我們大腦的實體控制,并将它們直接連接配接到計算機網絡。然而,隻要掌握了語言,AI就會擁有它所需要的一切,将人類控制在一個類似母體的幻覺世界中,而不需要向任何人開槍或在大腦中植入任何晶片。如果有必要開槍,人工智能可以讓人類扣動扳機,隻需要對人類講述合适的故事即可。

文章指出:“社交媒體是人工智能與人類的第一次接觸,而人類輸了。第一次接觸讓我們嘗到了随之而來的苦果。在社交媒體中,初期的人工智能不是用來創造内容,而是用來組織使用者生成的内容。新聞瀑布流背後的人工智能仍然在選擇哪些文字、聲音和圖像到達我們的視網膜和耳膜,其依據是選擇那些将獲得最廣傳播、最大反應和最多參與的内容。

“雖然非常原始,但社交媒體背後的人工智能足以創造出一幕幕幻象,加劇了社會的兩極分化,破壞了我們的心理健康,并使民主解體。數以百萬計的人将這些幻覺與現實混淆。美國擁有曆史上最好的資訊技術,但美國公民卻無法再就誰赢得選舉達成共識。盡管現在每個人都已經意識到了社交媒體的弊端,但由于我們太多的社會、經濟和政治機構已經與之糾纏在一起,是以這個問題還沒有得到解決。

紀錄片《監視資本主義:智能陷阱》揭示了人類日益依賴社交媒體帶來的後果。

“大型語言模型是我們與人工智能的第二次接觸,我們不能再輸了。但是,我們應該在什麼基礎上相信人類有能力使這些新形式的人工智能與我們的利益相一緻?如果我們繼續像往常一樣,新的人工智能能力将再次被用來獲得利潤和權力,即使它在無意中破壞了我們社會的基礎。”

文章最後強調,人工智能确實有潛力幫助戰勝癌症,發現拯救生命的藥物,為氣候和能源危機提供解決方案,還有無數無法想象的其他好處。“但是,如果地基坍塌,人工智能組裝的利益摩天大樓有多高也不重要了。”

作者發出呼籲:“在我們的政治、經濟和日常生活變得依賴人工智能之前,是時候重視人工智能了。民主是一種對話,對話依賴于語言,而當語言本身被入侵時,對話就會中斷,民主就會變得無法維持。如果我們等待混亂的發生,再來補救就太晚了。

“我們已經召喚出了一個外星智能。我們對它了解不多,隻知道它非常強大,為我們提供了令人眼花缭亂的禮物,但也可能破壞我們文明的基礎。我們呼籲世界各國上司人以對應其挑戰的水準來應對這一時刻。第一步是争取時間,為人工智能世界更新我們19世紀的機構,并在人工智能掌控我們之前學會掌控它。”

尤瓦爾·赫拉利長期關注人工智能對世界的影響,著有《人類簡史》《未來簡史》和《今日簡史》等書籍,并創辦了Sapienship國際咨詢公司。特裡斯坦·哈裡斯和阿紮·拉斯金是“人道主義技術中心(Center for Humane Technology)”的創始人,他們制作的紀錄片《監視資本主義:智能陷阱》也被譯作《社交陷阱》,揭示了人類日益依賴社交媒體帶來的後果:人類社會正面臨一個生死攸關的危機,被人工智能、大資料和算法模型所控制,導緻出現最近幾年的分裂和混亂。

繼續閱讀