天天看點

馬克安德森:人工智能不會毀滅世界,事實上反而能拯救世界

作者:web3探路人
馬克安德森:人工智能不會毀滅世界,事實上反而能拯救世界

幸運的是,我在這裡帶來好消息:人工智能不會毀滅世界,事實上可能拯救世界。

首先,簡要介紹一下人工智能是什麼:人工智能是将數學和軟體代碼應用于教授計算機如何了解、綜合和生成知識的方式,與人類的方式類似。人工智能就像任何其他計算機程式一樣——運作、接受輸入、處理和生成輸出。人工智能的輸出在許多領域中非常有用,從編碼到醫學、法律和創意藝術。它由人擁有并受人控制,就像任何其他技術一樣。

接下來,簡要說明一下人工智能不是什麼:它不是那種會躍然而起決定屠殺人類或以其他方式毀滅一切的殺手軟體和機器人,就像電影中所展示的那樣。

再簡單地說,人工智能可以讓我們關心的一切變得更好。

為什麼人工智能能讓我們關心的一切變得更好

社會科學幾十年來的大量研究最核心的結論是:人類智力可以在生活的幾乎所有領域中改善生活結果。更聰明的人在幾乎每個活動領域中都有更好的結果:學術成就、工作表現、職業地位、收入、創造力、身體健康、壽命、學習新技能、處理複雜任務、上司力、創業成功、解決沖突、閱讀了解、财務決策、了解他人的觀點、創意藝術、育兒結果和生活滿意度。

此外,人類智力是我們用了幾千年時間來創造我們今天所生活世界的杠杆:科學、技術、數學、實體學、化學、醫學、能源、建築、交通、通信、藝術、音樂、文化、哲學、倫理學、道德。如果沒有在所有這些領域應用智力,我們仍然會生活在泥屋中,勉強以自給自足的農業謀生。相反,我們利用智力使我們的生活水準在過去4000年中提高了約10,000倍。

人工智能為我們提供的是深度增強人類智力的機會,進而使所有這些智力産出——以及從此開始的許多其他産出,從新藥物的創造到解決氣候變化的方法和可達到星際旅行的技術——變得更加出色。

人工智能對人類智力的增強已經開始——人工智能已經在我們周圍以各種形式存在,現在通過像ChatGPT這樣的大型語言模型迅速更新,并且從現在開始将迅速加速——如果我們允許的話。

在我們人工智能的新時代:

1. 每個孩子都将擁有一個無限耐心、無限同情、無限知識和無限幫助的人工智能導師。這個人工智能導師将在孩子成長的每個階段都陪伴在他們身邊,幫助他們最大限度地發揮潛力,擁有無限愛的機器版本。

2. 每個人都将擁有一個無限耐心、無限同情、無限知識和無限幫助的人工智能助手/教練/導師/訓練師/顧問/治療師。這個人工智能助手将在生活的所有機遇和挑戰中陪伴,并最大化每個人的結果。

3. 每個科學家都将有一個可以極大擴充他們科學研究和成就範圍的人工智能助手/合作者/夥伴。每個藝術家、工程師、商人、醫生、照顧者也将在他們的領域中擁有同樣的助手。

4. 每個上司者——首席執行官、政府官員、非營利組織主席、運動教練、教師——都将擁有同樣的助手。上司者更好的決策在他們上司的人群中的放大效果是巨大的,是以這種智力增強可能是最重要的。

5. 整個經濟的生産率增長将大幅加速,推動經濟增長、新産業的産生、新工作崗位的創造和工資增長,進而實作全球範圍内物質繁榮的新時代。

6. 科學突破、新技術和新藥物将大幅擴充,因為人工智能幫助我們進一步解碼自然規律并将其應用于我們的利益。

7. 創意藝術将進入黃金時代,因為經過人工智能增強的藝術家、音樂家、作家和電影制片人能夠以比以往更快、更大規模地實作他們的願景。

8. 我甚至認為人工智能在必要時會改善戰争,通過大幅減少戰時死亡率。每場戰争都以在極度壓力和資訊有限的情況下由極度有限的人類上司者做出的可怕決策為特征。現在,軍事指揮官和政治上司者将有人工智能顧問,幫助他們做出更好的戰略和戰術決策,進而将風險、錯誤 和不必要的流血最小化。

9. 簡而言之,人們今天用他們的天然智力所做的任何事情,通過人工智能都可以做得更好,而且我們将能夠應對以前無法解決的新挑戰,從治愈所有疾病到實作星際旅行。

10. 而且,這不僅僅與智力有關!人們對人工智能最低估的品質也許是它能夠賦予人性。人工智能藝術使那些本來缺乏技術技能的人們有自由創作和分享他們的藝術創意。與一個富有同情心的人工智能朋友交談确實可以提高他們應對逆境的能力。而且,與人類醫生相比,人工智能醫療聊天機器人已經更具同情心。與其使世界變得更加冷酷和機械化,無限耐心和同情心的人工智能将使世界變得更加溫暖和友善。

這裡的賭注很高。機會是深遠的。人工智能很可能是我們文明創造的最重要和最好的事物之一,當然與電力和微處理器相當,甚至可能超越它們。

人工智能的發展和普及——遠非我們應該害怕的風險——是我們對自己、我們的孩子和我們的未來的一種道德責任。

我們應該生活在一個更美好的人工智能世界中,現在我們可以實作這一點。

那麼,為什麼會出現恐慌?

與這種積極觀點相反,目前關于人工智能的公衆讨論充斥着歇斯底裡的恐懼和偏執。

有人聲稱人工智能将殺死我們所有人,毀掉我們的社會,奪走我們所有的工作,導緻嚴重的不平等,并使壞人能夠做出可怕的事情。

什麼解釋了從接近烏托邦到可怕的反烏托邦的潛在結果之間的差異?

從曆史上看,每一項重要的新技術,從電燈到汽車、無線電到網際網路,都引發了道德恐慌——一種社會傳染病,讓人們相信新技術将毀滅世界或社會,或者兩者兼有。Pessimists Archive的團隊在過去幾十年中記錄了這些以技術為驅動的道德恐慌,他們的曆史清晰地表明了這一模式。事實證明,目前的人工智能恐慌甚至不是第一個。

現在,當然有許多新技術導緻了糟糕的結果——通常是那些在其他方面對我們福祉有巨大益處的技術。是以,并不是道德恐慌的存在就意味着沒有什麼需要擔心的。

但道德恐慌本質上是不理性的——它把可能是合理關注的問題誇大成一種讓人難以應對實際嚴重問題的歇斯底裡。

現在,我們正面臨着對人工智能的全面道德恐慌。

這種道德恐慌已經被各種行動者用作推動政策行動的動力——要求新的人工智能限制、法規和法律。這些行動者對人工智能的危險進行了極端誇張的公開聲明——從道德恐慌中汲取能量并進一步煽動——他們都自稱是無私的公共利益捍衛者。

但他們是嗎?

他們是對還是錯?

AI的洗禮和走私者

經濟學家觀察到這種改革運動中長期存在的模式。這些運動中的行動者可以分為兩類——"洗禮者"和"走私者"——借鑒了20世紀20年代美國禁酒令的曆史例子:

1. "洗禮者"是真正相信社會改革的社會改革者,他們從情感上(而不是理性上)深深地感到需要新的限制、法規和法律來防止社會災難。對于酒精禁令,這些行動者通常是真正虔誠的基督教徒,他們認為酒精正在摧毀社會的道德基礎。對于AI的風險,這些行動者堅信AI帶來了一種或多種存在危險——把他們綁在測謊儀上,他們真的是這樣認為的。

2. "走私者"是自私的機會主義者,他們在新的限制、法規和法律實施中有着經濟利益。對于酒精禁令,這些人就是那些在合法酒精銷售被禁止時靠非法銷售酒精暴富的人。對于AI風險,這些人是CEO,如果建立起政府認可的AI供應商的壟斷壁壘,使其免受新的初創企業和開源競争的影響,他們将獲得更多的利潤——這相當于軟體版的"大而不倒"銀行。

憤世嫉俗者會說,其中一些所謂的洗禮者也是走私者——特别是那些受到大學、智庫、激進組織和媒體機構的資助,以攻擊AI。如果你因為從事AI恐慌而獲得工資或撥款,那麼你很可能是一個走私者。

走私者的問題在于他們會赢得勝利。洗禮者是天真的理想主義者,走私者是憤世嫉俗的運作者,是以,這種改革運動的結果往往是走私者得到了他們想要的——監管捕獲、與競争對手隔離的保護性法規、壟斷形成。而洗禮者會納悶他們追求社會改進的動力到底錯在哪裡。

我們剛剛經曆了一個驚人的例子——2008年全球金融危機後的銀行改革。洗禮者告訴我們,我們需要新的法律和法規來拆分"太大以至于無法失敗"的銀行,以防止這樣的危機再次發生。是以,美國國會通過了2010年的多德-弗蘭克法案,宣傳稱其滿足了洗禮者的目标,但實際上卻被走私者——大銀行——所操縱。結果是,2008年那些"太大以至于無法失敗"的銀行現在規模更大了。

是以,在實踐中,即使洗禮者是真誠的——即使洗禮者是正确的——他們也被狡猾和貪婪的走私者利用。而這正是目前推動AI監管的情況。

然而,僅僅識别這些行動者并懷疑他們的動機是不夠的。我們應該從實質上考慮洗禮者和走私者的論據。

AI風險#1:人工智能會殺死我們嗎?

第一個也是最早的AI末日論風險是人工智能會決定殺死人類。

對我們自己創造的技術會起義并摧毀我們的恐懼在我們的文化中根深蒂固。希臘人用普羅米修斯神話表達了這種恐懼——普羅米修斯将破壞性的火焰和更廣義的技術(“techne”)帶給人類,為此,普羅米修斯被神們永久地受到折磨。後來,瑪麗·雪萊在她的小說《弗蘭肯斯坦,或現代普羅米修斯》中為現代人創造了我們自己的版本,在這本小說中,我們開發了永生的技術,然後這項技術起義并試圖摧毀我們。當然,任何關于AI的恐慌新聞報道都少不了詹姆斯·卡梅隆的《終結者》系列電影中一個閃閃發光的紅眼殺人機器人的靜态畫面。

這個神話的推測演化目的是激勵我們認真考慮新技術的潛在風險——畢竟,火焰确實可以用來焚燒整個城市。但正如火焰也是現代文明的基礎一樣,用來使我們在寒冷而敵對的世界中保持溫暖和安全,這個神話忽視了大多數新技術的巨大優勢,實際上加劇了破壞性情緒而不是理性分析。隻是因為古人像這樣驚慌失措并不意味着我們也必須如此;我們可以運用理性。

我的觀點是,人工智能會決定殺死人類的想法是一種深刻的範疇錯誤。人工智能不是經過數十億年進化而被激發起來參與适者生存之戰的生命存在,就像動物和我們一樣。它是數學——代碼——由人建構、由人擁有、由人使用、由人控制的計算機。認為它最終會發展出自己的思維,并決定它有導緻它試圖殺死我們的動機,這是一種迷信的揮手之辭。

簡而言之,人工智能沒有欲望,它沒有目标,它不想殺死你,因為它不是活的。而且人工智能是機器——它不會比你的烤面包機更活躍。

現在,顯然,有一些真正相信殺人機器人的人——洗禮者——他們的可怕警告在媒體上引起了大量關注,其中一些人聲稱已經研究這個話題幾十年了,現在他們對所了解的内容感到非常害怕。其中一些真正相信者甚至是這項技術的創新者。這些行動者主張對人工智能實施各種奇怪和極端的限制,從禁止人工智能的發展,一直到對資料中心進行軍事打擊和核戰争。他們主張,因為像我這樣的人無法排除人工智能未來可能帶來的災難性後果,我們必須采取一種預防性的立場,這可能需要大量的實體暴力和死亡,以防止潛在的滅絕性風險。

我的回應是,他們的立場是非科學的——它有可測試的假設嗎?什麼情況下這個假設是錯誤的?我們如何知道什麼時候進入到危險區域?除了“你無法證明它不會發生!”之外,這些問題基本上沒有得到回答。事實上,這些洗禮者的立場是如此非科學和極端——關于數學和代碼的陰謀論——他們已經呼籲使用實體暴力,是以我将做一些我通常不會做的事情,對他們的動機表示懷疑。

具體來說,我認為有三件事正在發生:

首先,記得John Von Neumann對Robert Oppenheimer有關他在創造核武器方面的焦慮的回應嗎?馮·諾伊曼說:“有些人承認罪行以聲稱對罪行負責。”什麼是一種可以在聽起來并不明顯誇耀的情況下為自己的工作的重要性聲稱功勞的最戲劇化方式?這解釋了正在建設和資助AI的洗禮者言行不一緻的現象——關注他們的行動,而不是他們的言辭。(杜魯門在會見奧本海默後更加苛刻:“不要讓那個啜泣的嬰兒再進來。”)

其次,一些洗禮者實際上是走私者。有一個完整的“AI安全專家”、“AI倫理學家”、“AI風險研究人員”的職業。他們受雇于末日論者,并且他們的陳述應該被适當對待。

第三,加利福尼亞州因其衆多的教派而聞名,從EST到人民寺廟,從天堂之門到曼森家族。雖然并非所有的教派都是有害的,而且也許甚至對于感到疏離的人來說是有用的,但有些教派确實非常危險,而且教派在跨越導緻暴力和死亡的界限方面非常困難。

實際上,在現在的“AI風險”驅動下,這種類型的教派并不新鮮——有着長期的西方千年主義傳統,這産生了啟示錄教派。AI風險教派具有千年主義啟示錄教派的所有特征。維基百科上的解釋中我加入了一些内容:

“千年主義是一群或一種運動的信仰 [AI風險末日論者],他們相信社會将經曆根本性的轉變 [AI的出現],在那之後一切都将發生改變 [AI烏托邦、末日論或世界末日]。隻有戲劇性的事件 [AI禁令、對資料中心的空襲、核打擊無監管AI] 被認為能夠改變世界 [防止AI],并且這種改變被預期由一群虔誠和敬業的人來完成或存活下來。在大多數千年主義場景中,即将發生的災難或戰鬥 [AI末日論,或其防止]将會在之後出現一個新的、純淨的世界 [AI禁令],信徒将在這個世界上得到獎勵 [或者至少被認可一直以來是正确的]。”

這種啟示錄教派的模式是如此明顯,以至于我驚訝為什麼更多的人沒有看到它。

不要誤會,教派很有趣,他們的著作通常很富有創造力和引人入勝,他們的成員在晚宴和電視節目中也很引人入勝。但他們的極端信仰不應決定法律和社會的未來——顯然不是這樣。

AI風險#2:人工智能會毀掉我們的社會嗎?

第二個被廣泛讨論的AI風險是人工智能會毀掉我們的社會,通過産生對人類來說“有害”的資訊輸出。

這是一個相對較新的末日論者關注點,它從我上面描述的“AI風險”運動中分化出來,并在一定程度上占據了主導地位。事實上,“AI風險”的術語最近從“AI安全性”——由那些擔心人工智能會直接殺死我們的人使用的術語——變成了“AI對齊”——由那些擔心社會“傷害”的人使用的術語。最初的AI安全人士對這種轉變感到沮喪,盡管他們不知道如何讓它回到原來的狀态——他們現在主張實際的AI風險主題被重命名為“AI不殺人主義”,這個術語尚未被廣泛采用,但至少是清晰明了的。

AI社會風險索賠的本質就在于其自身的術語“AI對齊”。對齊什麼?人類價值觀。哪些人類的價值觀?問題就在這裡變得棘手起來。

恰好,我對類似情況——社交媒體的“信任和安全”之戰——有着近距離的觀察。衆所周知,多年來,社交媒體服務一直面臨來自政府和活動家的巨大壓力,要求他們禁止、限制、審查和壓制各種内容。而“仇恨言論”(以及其數學對應物“算法偏見”)和“錯誤資訊”的相同擔憂直接從社交媒體背景轉移到了“AI對齊”的新領域。

我在社交媒體戰争中學到的重要經驗有:

一方面,沒有絕對的言論自由立場。首先,包括美國在内的每個國家至少都将某些内容視為非法。其次,有一些種類的内容,比如兒童色情和煽動實際暴力,幾乎每個社會都普遍認為它們是不允許的——無論是否合法——這幾乎得到了每個社會的廣泛同意。是以,任何促進或生成内容——言論——的技術平台都将有一些限制。

另一方面,滑坡不是謬論,而是不可避免的。一旦建立了限制甚至是極其可憎的内容的架構——例如,對于仇恨言論,對特定傷害性詞彙的限制,或對錯誤資訊,顯然錯誤的聲明,如“教皇死了”——各種政府機構、活動家壓力團體和非政府實體就會投入到行動中,要求越來越大程度的審查和壓制他們認為對社會和/或他們個人偏好構成威脅的言論。他們将一直這樣做,甚至包括以公然犯罪的方式。在社交媒體上,這一循環已經持續了十年,隻有特定的例外情況才會變得更加熱烈。

是以,現在“AI對齊”周圍形成了這種動态。其擁護者聲稱他們有智慧來工程化對社會有益的AI生成的言論和思維,并禁止AI生成對社會有害的言論和思維。他們的反對者聲稱,思想警察極其傲慢和專橫——在美國至少往往是明顯的犯罪行為——實際上正在試圖成為直接從喬治·奧威爾的《1984》中抄襲的新型融合政府-企業-學術權威言論獨裁體制。

由于“信任和安全”以及“AI對齊”的支援者都聚集在全球人口的非常狹小的切片中,這個切片描述了美國沿海精英階層——其中包括許多從事技術行業的人——我的許多讀者可能會發現自己傾向于主張對AI輸出進行戲劇性的限制,以避免摧毀社會。我現在不會試圖說服你們,我隻會簡單地陳述這種需求的本質,以及世界上大多數人既不同意你們的意識形态,也不想看到你們獲勝。

如果你不同意正在通過不斷更新的言論規範對社交媒體和AI施加的主導的利基道德觀,你還應該意識到AI被允許如何運作将比任何其他事情都重要——可能更加重要。你應該意識到小而孤立的一群政治社會工程師正在試圖決定這一點,而他們聲稱他們是在保護你。

簡而言之,不要讓思想警察壓制AI。

人工智能風險之三:人工智能會奪走我們所有的工作嗎?

對于因機械化、自動化、計算機化或人工智能而失業的擔憂,自從機械紡織機等機械首次出現以來,已經成為數百年來反複出現的恐慌。盡管曆史上每一次重大新技術的出現都導緻了更多數量的工作崗位以及更高的工資水準,但每一次這種恐慌的浪潮都伴随着聲稱“這次不同”的說法——這一次終将發生,這一次将是對人類勞動的緻命一擊的技術。然而,這種情況從未發生過。

在我們最近的過去,我們經曆了兩個技術驅動的失業恐慌周期——2000年代的外包恐慌和2010年代的自動化恐慌。盡管在過去的二十年中,許多嘴巴、專家和科技行業高管不斷地狂熱宣稱大規模失業即将到來,但截至2019年底(即COVID爆發之前),世界上的就業崗位比曆史上任何時候都要多,而且工資水準也更高。

然而,這種錯誤的觀念并不會消亡。

事實證明,它又回來了。

這一次,我們終于擁有了能夠奪走所有工作并使人類勞工變得多餘的技術——真正的人工智能。這一次曆史不會重演,人工智能将導緻大規模失業,而不是經濟、就業和工資的快速增長,對嗎?

不,這種情況不會發生——事實上,如果允許人工智能在整個經濟中得以發展和普及,它可能會引發有史以來最引人注目和持久的經濟繁榮,并帶來創紀錄的就業和工資增長——完全與恐懼相反。以下是原因。

自動化将工作崗位消滅的核心錯誤思維是所謂的“勞動總量謬誤”。這個謬誤是一種錯誤的觀念,即在任何特定時間點上,經濟中需要完成的勞動總量是固定的,要麼由機器完成,要麼由人類完成——如果由機器完成,就沒有工作可以供人類做了。

勞動總量謬誤源自天真的直覺,但在這裡天真的直覺是錯誤的。當技術應用于生産時,我們獲得了生産力增長——通過減少投入而增加産出。結果是商品和服務的價格降低。随着商品和服務價格的下降,我們為它們支付的費用減少,這意味着我們現在有了額外的消費能力,可以用來購買其他東西。這增加了經濟中的需求,推動了新的生産活動,包括新産品和新行業的産生,進而為之前被機器替代的人們創造了新的工作機會。結果是一個更大的經濟體,擁有更高的物質繁榮程度,更多的行業,更多的産品和更多的工作。

好消息還不止于此。我們還能獲得更高的工資。這是因為,在個體勞工層面上,市場根據勞工的邊際生産力來确定薪酬。在一個融入了技術的企業中,一個勞工的生産力将比一個傳統企業的勞工更高。雇主要麼會給予這個勞工更高的工資,因為他現在更有生産力,要麼其他雇主會這樣做,純粹出于自身利益考慮。結果是,技術引入一個行業通常不僅增加了該行業的工作崗位數量,還提高了工資水準。

總之,技術使人們能夠更加高效地工作。這導緻現有商品和服務的價格下降,工資上升。這反過來又推動了經濟增長和就業增長,同時促使新工作崗位和新行業的創造。如果市場經濟能夠正常運作,如果技術能夠自由引入,這将是一個永不結束的持續向上的循環。正如彌爾頓·弗裡德曼所觀察到的,“人類的欲望和需求是無窮無盡的”——我們總是想要比我們擁有的更多。一個融入了技術的市場經濟是我們更接近實作每個人都可以想象的一切都能得到的方式,但永遠不會完全實作。這就是為什麼技術不會破壞工作崗位,也永遠不會破壞工作崗位。

對于那些沒有接觸過這些想法的人來說,這些都是令人震驚的思想,可能需要一些時間來了解。但我發誓我并沒有憑空編造它們——實際上,你可以在标準經濟學教材中找到所有這些内容。我推薦亨利·哈茲裡特(Henry Hazlitt)的《一堂經濟學課》中的“機器之咒”一章,以及弗雷德裡克·巴斯夏(Frederic Bastiat)的諷刺性的《蠟燭制造商請願書》,這本書描述了它與照明行業的不公平競争,這是為我們的時代進行了現代化的改編。

但你現在可能在想,這一次情況不同。這一次,随着人工智能的出現,我們擁有了可以替代所有人類勞動的技術。

但是,根據我上面描述的原則,想象一下如果所有現有的人力勞動都被機器所替代意味着什麼。

這将意味着經濟生産力增長的起飛速度将絕對是天文數字,遠遠超過任何曆史先例。現有商品和服務的價格将普遍降至接近零。消費者福利将飙升。消費者的購買力将激增。經濟中的新需求将爆發。企業家們将創造令人眼花缭亂的新行業、産品和服務,并盡可能快地雇傭盡可能多的人和人工智能來滿足所有的新需求。

假設人工智能再次取代了這些勞動力?這個循環将重複,推動消費者福利、經濟增長以及工作和工資增長更上一層樓。這将是一種直線式的上升,進入了亞當·斯密(Adam Smith)或卡爾·馬克思(Karl Marx)從未夢想過的物質烏托邦。

我們應該如此幸運。

人工智能風險之四:人工智能會導緻嚴重的不平等嗎?

說到Karl Marx,關于人工智能奪走工作的擔憂直接引出了下一個所聲稱的人工智能風險:好吧,馬克,假設人工智能确實奪走了所有的工作,無論是出于好的還是壞的目的,這難道不會導緻大規模的财富不平等,因為人工智能的所有經濟回報都歸所有者所有,而普通人一無所得嗎?

恰好,這是馬克思主義的一個核心觀點,即生産資料的所有者——資産階級——必然會從真正從事實際工作的人——無産階級——那裡竊取全部社會财富。這是另一個謬誤,無論現實如何一再反駁,它都不會消亡。但讓我們徹底揭穿它。

這個理論的缺陷在于,作為一種技術的所有者,你沒有理由将其保留給自己——事實上恰恰相反,你有理由将其銷售給盡可能多的客戶。全球最大的市場是全世界的人口,即80億人口。是以實際上,每一項新技術——甚至那些最初隻銷售給高薪大公司或富有消費者的技術——都會迅速傳播,直至進入盡可能大的大衆市場,最終傳播到全球的每個角落。

這其中的經典例子就是Elon Musk在2006年對特斯拉提出的所謂“秘密計劃”——他當然公開釋出了:

第一步,建造[昂貴的]跑車

第二步,用這些錢建造一輛價格更實惠的車

第三步,用這些錢建造一輛更實惠的車

……這當然正是他做到的,結果成為了世界上最富有的人。

這最後一點非常關鍵。如果埃隆今天隻向富人銷售汽車,他會變得更富有嗎?不會。如果他隻為自己制造汽車,他會比現在更富有嗎?當然不會。不,他通過向全球最大可能的市場——全世界人口——銷售來最大化自己的利潤。

簡而言之,每個人都能擁有這樣的技術——正如我們在過去看到的不僅僅是汽車,還有電力、無線電、計算機、網際網路、行動電話和搜尋引擎。開發這些技術的公司極具動力,要将價格推向下降,直至全球每個人都能負擔得起。這正是人工智能中已經發生的事情——這就是為什麼你現在可以免費或者以低成本使用最先進的生成式人工智能,比如微軟的必應(Microsoft Bing)和谷歌的巴德(Google Bard),而且這種趨勢還将繼續下去。這不是因為這些供應商愚蠢或慷慨,而是因為他們貪婪——他們想要最大化市場規模,進而最大化利潤。

是以,發生的情況與技術推動财富集中化的觀點相反——技術的個體客戶,最終包括全球的每個人,反而得到了權力的增強,并獲得了大部分創造的價值。與此前的技術一樣,建構人工智能的公司——假設它們必須在自由市場中運作——将競相努力使這一點成為現實。

馬克思當年錯了,他現在還是錯了。

這并不是說不平等不是我們社會中的一個問題。它确實存在,隻是它并不是由技術驅動的,而是由相反的因素驅動的,即那些對新技術最抵制、政府幹預最多以阻止人工智能等新技術的采用的經濟部門——特别是住房、教育和醫療保健。人工智能和不平等的實際風險不在于人工智能會導緻更多的不平等,而在于我們不允許人工智能被用于減少不平等。

人工智能風險之五:人工智能會導緻壞人做壞事嗎?

到目前為止,我已經解釋了人工智能的五個最常被提出的風險中有四個實際上并不存在——人工智能不會複活并殺死我們,人工智能不會毀掉我們的社會,人工智能不會導緻大規模失業,人工智能不會導緻嚴重的不平等增加。但現在讓我們來讨論第五個風險,這是我實際上同意的:人工智能将使壞人更容易做壞事。

從某種意義上說,這是一個重言論。技術是一種工具。從火和石頭開始,工具可以用來做好事——烹饪食物和建造房屋——也可以用來做壞事——燒人和擊打人。任何技術都可以用于好壞兩個方面。沒錯。人工智能将使犯罪分子、恐怖分子和敵對政府更容易做壞事,這是毫無疑問的。

這導緻一些人提出,好吧,既然這樣,讓我們在這種情況下禁止人工智能,以免發生這種情況。不幸的是,人工智能并不是一種難以獲得的神秘物質,就像钚一樣。恰恰相反,它是世界上最容易擷取的材料——數學和代碼。

人工智能的貓已經跑出了包袱。你可以通過數千門免費的線上課程、書籍、論文和視訊學習如何建構人工智能,而且每天都有出色的開源實作項目不斷湧現。人工智能就像空氣一樣——它将無處不在。為了阻止這一點,所需的集權壓迫将是如此嚴酷,以至于需要一個監控和控制所有計算機的世界政府?黑色直升機上的武裝暴徒搶奪反叛的圖形處理器?那樣的話,我們将沒有一個社會可以保護。

是以,我們有兩種非常直接的方法來應對人工智能為壞人做壞事的風險,而這正是我們應該關注的。

首先,我們已經有法律來将人們可能會用人工智能做的大部分壞事定為犯罪行為。侵入五角大樓的電腦系統?那是犯罪。從銀行偷錢?那也是犯罪。制造生物武器?那是犯罪。實施恐怖襲擊?那也是犯罪。我們隻需專注于在可能的情況下預防這些犯罪,并在無法阻止時進行起訴。我們甚至不需要新的法律——我不知道有哪個實際上已經提出的壞用途是合法的。如果确定了一種新的壞用途,我們就禁止該用途。得證明。

但你會注意到我在其中提到了一個事情——我說我們應該首先專注于在壞用途發生之前預防人工智能輔助的犯罪——難道這意味着預防就意味着禁止人工智能嗎?那麼,還有另一種方法可以預防這樣的行為,那就是将人工智能作為一種防禦工具。使人工智能在壞人手中具有危險性的能力,也使其在善良的人手中具有強大的力量——特别是那些從事防止壞事發生工作的善良人士。

例如,如果你擔心人工智能生成虛假的人物和虛假的視訊,答案就是建構新的系統,人們可以通過加密簽名驗證自己和真實内容。在人工智能之前,數字内容的真實和虛假的創造和修改已經存在;答案不是禁止文字處理器和Photoshop——或者人工智能——而是利用技術建構一個真正解決問題的系統。

是以,第二點,讓我們積極投入人力、物力,利用人工智能來進行善良、合法的防禦工作。讓我們在網絡防禦、生物防禦、追捕恐怖分子以及我們為了保護自己、社群和國家所做的一切方面發揮人工智能的作用。

當然,現在已經有很多聰明的人在政府内外做着這些工作——但是如果我們将目前過于專注于禁止人工智能的徒勞前景的所有努力和智慧用于使用人工智能來防範壞人做壞事,我相信與今天相比,充斥着人工智能的世界将更加安全。

不追求最大力量和速度開展人工智能的實際風險

最後,還有一個真正的人工智能風險可能是最可怕的:

人工智能不僅僅是在西方相對自由的社會中發展,它也在某國執政黨手中得到發展。

某國對人工智能有着與我們截然不同的願景——他們将其視為一種用于集權人口控制的機制,而且他們對此從來都不保密,他們已經在追求他們的議程。而且,他們不打算将人工智能戰略局限于某國,他們打算将其在擁有5G網絡、提供“一帶一路”借款、以及提供類似Tiktok這樣的友好消費者應用作為其集中控制人工智能的前端的地方廣泛推廣。

人工智能的最大風險就是某國在全球範圍内獲得人工智能的主導地位,而我們——美國和西方——沒有。

我提出了一個簡單的政策來解決這個問題——實際上,這是羅納德·裡根總統在與蘇聯赢得第一次冷戰時所采取的政策。

“我們赢,他們輸。”

與其讓關于殺手人工智能、有害人工智能、破壞就業的人工智能和導緻不平等增加的人工智能的無根據的恐慌使我們陷入被動,我們美國和西方應該全力以赴支援人工智能。

我們應該争取赢得全球人工智能技術優勢的競賽,并確定某國不會獲得這一地位。

在這個過程中,我們應該盡可能快地将人工智能引入我們的經濟和社會,以最大限度地提高經濟生産力和人類潛力。

這是抵消真正人工智能風險的最佳方式,也是確定我們的生活方式不被更加黑暗的某國願景所取代的方式。

我們應該如何做?

我提出一個簡單的計劃:

1. 大型人工智能公司應該被允許盡快、積極地建構人工智能——但不應被允許實作監管壟斷,不應被允許建立一種因錯誤的人工智能風險而免受市場競争的政府保護的卡特爾。這将最大限度地利用這些公司令人驚歎的能力為技術和社會帶來回報,這些公司是現代資本主義的珍寶。

2. 初創人工智能公司應該被允許盡快、積極地建構人工智能。他們既不會面對政府授予大公司的保護,也不會得到政府的援助。他們應該被允許自由競争。如果初創公司不能成功,他們在市場上的存在也将不斷激勵大公司做到最好——我們的經濟和社會都是受益的。

3. 開源人工智能應該被允許自由傳播并與大型人工智能公司和初創公司競争。對于開源來說,不應有任何監管障礙。即使在開源沒有擊敗公司的情況下,它的廣泛可用性對全世界的學生來說是一種福音,他們想要學習如何建構和使用人工智能來成為技術未來的一部分,并確定無論他們是誰,他們有多少錢,人工智能都可供他們使用。

4. 為了抵消壞人利用人工智能做壞事的風險,政府與私營部門合作,應在潛在風險的每個領域積極運用人工智能,以最大限度地提高社會的防禦能力。這不應僅限于人工智能相關的風險,而也包括更普遍的問題,如營養不良、疾病和氣候變化。人工智能可以成為解決問題的強大工具,我們應該将其作為這樣的工具來接受。

5. 為了防止某國在全球範圍内取得人工智能的主導地位,我們應該充分發揮我們的私營部門、科學機構和政府的全部力量,齊心協力推動美國和西方在人工智能領域實作絕對的全球優勢,包括最終在某國本土實作。我們赢,他們輸。

這就是我們如何利用人工智能拯救世界。

現在是時候行動起來了。

英雄與傳奇

最後,我想用兩個簡單的說法結束。

人工智能的發展始于上世紀40年代,與計算機的發明同時進行。關于神經網絡——我們今天人工智能的架構——的第一篇科學論文于1943年發表。在過去的80年中,整整一代人的人工智能科學家出生、上學、工作,甚至有些人去世了,他們都沒有看到我們現在所得到的回報。他們是傳奇,每個人都是。

今天,越來越多的工程師——其中許多人年輕,可能有祖父母甚至曾祖父母參與了人工智能背後思想的創造——正在努力使人工智能成為現實,盡管有着大量的恐慌和災難論試圖将他們描繪成魯莽的惡棍。我不認為他們魯莽或者是惡棍。他們都是英雄。我和我的公司非常高興支援盡可能多的人工智能工作者,我們将全力支援他們和他們的工作。

繼續閱讀