天天看點

AI能拯救世界?

作者:元宇宙三十人論壇

“AI 不會毀滅世界,事實上可能拯救世界。”

a16z的創始合夥人MARC ANDREESSEN 認為,AI提供了增強人類智慧的機會,使我們在各個領域取得更好的結果。然而,AI的發展也存在風險,而目前的道德恐慌可能誇大了問題,其中一些行動者可能是為了自身利益。

如何理性看待AI,又應該從哪些視角來看待AI?這篇文章為我們提供了一個可行、可信與可深入的探讨範例。

以下為演講全文(略有删改):

首先,對人工智能的簡短描述:人工智能是将數學和軟體代碼應用于教導計算機以類似于人類方式了解、綜合和生成知識的方法。人工智能就像任何其他計算機程式一樣——它運作、接收輸入、處理并生成輸出。人工智能的輸出在各個領域都非常有用,從程式設計到醫學、法律以及創意藝術都有應用。它屬于人類所有并由人類控制,就像其他任何技術一樣。

對人工智能的更簡短描述:它可以讓我們關心的一切變得更好。

AI能拯救世界?

Marc Andreessen是美國企業家、風險投資人和軟體工程師

為什麼人工智能可以讓我們關心的一切變得更好

社會科學幾十年來進行了數千項研究,最具驗證性的核心結論是:智力提高會使我們在生活的幾乎每個領域都獲得更好的結果。更聰明的人在幾乎所有活動領域中都取得更好的成果:學業成績、工作表現、職業地位、收入、創造力、身體健康、壽命、學習新技能、管理複雜任務、上司才能、創業成功、沖突解決、閱讀了解、金融決策、了解他人的觀點、創意藝術、育兒成果和生活滿意度。

此外,人類智力是我們數千年來用來創造我們今天所生活世界的杠杆:科學、技術、數學、實體學、化學、醫學、能源、建築、交通、通信、藝術、音樂、文化、哲學、倫理學、道德。如果沒有在所有這些領域應用智力,我們都還會住在泥屋裡,艱難度日。相反,我們利用智力在過去的4000年裡使我們的生活水準提高了大約10,000倍。

人工智能為我們提供的是深度增強人類智力的機會,可以使所有這些智力成果(以及許多其他方面,從創造新藥到解決氣候變化問題再到太空技術)變得更加出色。

人工智能對人類智力的增強已經開始了——人工智能已經以各種形式存在于我們周圍,如各類計算機控制系統,現在又随着ChatGPT等大型語言模型的出現迅速更新,并将從現在開始加速發展——如果我們允許的話。

在我們的新人工智能時代中:

每個孩子都将擁有一位無限耐心、無限同情心、無限知識和無限幫助的人工智能導師。人工智能導師将在每個孩子成長的每一步旁邊,幫助他們以無限愛的機器版本最大化潛力。

每個人都将擁有一位無限耐心、無限同情心、無限知識和無限幫助的人工智能助手/教練/導師/訓練師/顧問/治療師。人工智能助手将在人生的各種機遇和挑戰中與人同在,最大化每個人的成果。

每位科學家都将有一位能極大擴充他們科學研究和成就範圍的人工智能助手/合作者/夥伴。每位藝術家、工程師、商人、醫生、護理人員都将在他們的領域中得到同樣的幫助。

每位人民上司者——首席執行官、政府官員、非營利組織主席、運動教練、教師——都将擁有同樣的幫助。上司者做出更好決策在他們上司的人中所産生的放大效應是巨大的,是以這種智力增強可能是最重要的。

整個經濟的生産力增長将大幅加速,推動經濟增長、新産業的創造、新崗位的開設和工資增長,進而在全球範圍内實作物質繁榮的新時代。科學突破、新技術和新藥物将得到顯著擴充,因為人工智能幫助我們進一步解碼自然法則并将其利用于我們的利益。創意藝術将進入黃金時代,因為受到增強人工智能的藝術家、音樂家、作家和電影制片人将能夠比以往更快、更大規模地實作他們的創意。

我甚至認為,當不得不進行戰争時,人工智能将改善戰争,通過大幅減少戰時死亡率。每場戰争都以在極大壓力和極為有限資訊下由非常有限的人類上司者做出的可怕決策為特征。現在,軍事指揮官和政治上司人将擁有人工智能顧問,幫助他們做出更好的戰略和戰術決策,最大程度地減少風險、錯誤和不必要的流血犧牲。

簡而言之,今天人們憑借自己的自然智慧所做的任何事情,借助人工智能都可以做得更好,并且我們将能夠應對那些在沒有人工智能的情況下無法解決的新挑戰,從治愈所有疾病到實作星際旅行。

而這不僅僅涉及智能!人工智能最被低估的特質可能是它能賦予人類情感。人工智能藝術使那些缺乏技術技能的人有自由創作和分享藝術思想的能力。與富有移情能力的人工智能朋友交談确實提高了人們應對逆境的能力。而且與人類相比,人工智能醫療聊天機器人已經更具移情能力。無限耐心和同情心的人工智能将使世界變得更溫暖、更友善,而不是使世界變得更加冷酷和機械化。

這裡的賭注很高。機遇是深遠的。人工智能可能是我們文明創造的最重要、最好的事物,至少與電力和微晶片相媲美,甚至可能超越它們。人工智能的發展和普及——遠非我們應該害怕的風險——是我們對自己、對我們的子孫和對我們的未來的道義責任。

有了人工智能,我們應該生活在一個更美好的世界中,而現在我們可以實作這一目标。

那麼,為什麼會出現恐慌情緒?

與這種積極觀點形成鮮明對比的是,關于人工智能的公衆讨論充斥着歇斯底裡的恐懼和偏執。

我們聽到各種聲稱,人工智能将殺死我們所有人,毀壞我們的社會,奪走我們所有的工作,導緻嚴重的不平等,并使壞人能夠做出可怕的事情。

那麼,是什麼導緻了這種從接近烏托邦到可怕的反烏托邦的潛在結果的分歧呢?

從曆史上看,每一項重要的新技術,從電燈到汽車,從無線電到網際網路,都引發了道德恐慌——社會傳染,使人們相信新技術将摧毀世界、或社會,或兩者兼而有之。悲觀主義檔案館的優秀工作記錄了這些幾十年來由技術驅動的道德恐慌;它們生動地揭示了這種模式。事實證明,目前的人工智能恐慌甚至不是第一次出現。

現在,當然有許多新技術确實導緻了不良後果——這些技術通常也對我們的福祉産生了巨大的益處。是以,并不是說道德恐慌的存在意味着沒有什麼需要關注的問題。但是道德恐慌本質上是非理性的——它将可能是合理關切的問題誇大成一種歇斯底裡的程度,諷刺的是,這使得我們更難以應對真正嚴重的問題。

現在,我們正在經曆一場關于人工智能的全面道德恐慌。這場道德恐慌已經被各種行動者用作動力,要求采取政策行動——實施新的人工智能限制、法規和法律。這些行動者對人工智能的危險發表極具戲劇性的公開聲明,滋養和進一步激發道德恐慌,他們都自稱是公共利益的無私捍衛者。

但他們是嗎?他們是對還是錯?

人工智能的洗禮者和走私者

經濟學家觀察到這類改革運動中的一個長期模式。這些運動内部的參與者可以分為兩類——“洗禮者”和“走私者”,這是基于20世紀20年代美國禁酒時期的曆史例子:

“洗禮者”是真正相信社會改革的人,他們确實認為(即使不是理性地,但情感上非常深刻),需要采取新的限制、法規和法律來防止社會災難。在禁酒時期,這些參與者通常是深信不疑的基督徒,他們認為酒精正在摧毀社會的道德基礎。在涉及人工智能風險的情況下,這些參與者是真正相信人工智能帶來一種或多種存在性風險的人——給他們接上一台測謊儀,他們是真心相信的。

“走私者”是自私的機會主義者,他們有望通過實施新的限制、法規和法律從中獲得經濟利益,這些措施使他們免受競争對手的沖擊。在禁酒時期,這些人是指那些非法銷售酒精給美國人的走私者,在合法酒類銷售被禁止時,他們積累了巨額财富。在涉及人工智能風險的情況下,這些人是指那些如果建立起政府贊助的人工智能供應商壟斷集團,進而形成對新創企業和開源競争的保護性的監管壁壘,将能夠獲得更多利潤的首席執行官們——這是“太大而不能倒”的銀行的軟體版本。

憤世嫉俗者會認為,一些看似是洗禮者的人也是走私者,特别是那些由大學、智囊團、活動團體和媒體機構付錢攻擊人工智能的人。如果你因促進人工智能恐慌而領取薪水或獲得資助...你可能是走私者。

走私者的問題在于他們總是勝利者。洗禮者是天真的意識形态主義者,而走私者是憤世嫉俗的操作者,是以,這類改革運動的結果往往是走私者得到他們想要的——監管的壟斷、免受競争的沖擊,形成壟斷集團——而洗禮者則疑惑不解,不知道他們追求社會改進的動力為何走錯了方向。

我們剛剛經曆了一個驚人的例子——2008年全球金融危機後的銀行業改革。洗禮者告訴我們,我們需要新的法律和法規來拆分“太大而不能倒”的銀行,以防止再次發生這樣的危機。于是,美國國會通過了2010年的多德-弗蘭克法案,宣傳稱滿足了洗禮者的目标,但實際上卻被走私者——大型銀行所利用。結果是,2008年“太大而不能倒”的那些銀行現在變得更加龐大。

是以,實際上,即使洗禮者是真心相信的,甚至他們是正确的,他們也被善于操縱和貪婪的走私者利用作為掩護,以謀取自身利益。

而這正是目前推動人工智能監管的情況。然而,僅僅識别參與者并懷疑他們的動機是不夠的。我們應該就洗禮者和走私者的論點進行全面的評估。

AI風險之一:人工智能是否會殺死我們所有人?

第一個也是最早的人工智能厄運論風險是人工智能将決定直接殺死人類。

我們對自己創造的技術會起義并摧毀我們的恐懼深深根植于我們的文化中。古希臘人通過普羅米修斯神話表達了這種恐懼——普羅米修斯帶給人類毀滅性的火的力量,以及更一般的技術(“techne”),是以被神們永遠地受苦。後來,瑪麗·雪萊在她的小說《弗蘭肯斯坦》或《現代普羅米修斯》中,為我們現代人創造了自己的版本,其中我們發展了永生的技術,然後這種技術起義并試圖摧毀我們。當然,沒有關于人工智能恐慌的報紙文章可以完整,如果沒有詹姆斯·卡梅隆的《終結者》系列電影中閃爍着紅色眼睛的殺人機器人的靜态畫面。

這種神話的假定進化目的是激勵我們認真考慮新技術的潛在風險——畢竟,火确實可以用來燒毀整個城市。但是,正如火也是現代文明的基石,可以用來使我們在寒冷而敵對的世界中保持溫暖和安全一樣,這種神話忽視了大多數——甚至全部——新技術的更大優勢,并在實踐中激起了破壞性情緒,而非理性分析。僅僅因為古代人會像這樣恐慌并不意味着我們必須也這樣做;我們可以運用理性。

我認為,人工智能會決定直接殺死人類的想法是一個深刻的範疇錯誤。人工智能不是經過數十億年進化的生物,具備參與适者生存競争的條件,就像動物和我們一樣。它隻是數學、代碼、由人建構、由人擁有、由人使用、由人控制的計算機。它不會在某個時刻發展出自己的思想,并決定有動機試圖殺死我們,這是一種迷信的揮手。

簡而言之,人工智能沒有欲望,沒有目标,沒有殺死你的意願,因為它不是活的。人工智能是一台機器,它不會變得有生命,就像你的烤面包機一樣。

現在,顯然,有些人真心相信人工智能會殺人——洗禮者——他們因他們可怕的警告而突然獲得了極高的媒體關注度,其中一些人聲稱已經研究該主題幾十年,并表示他們現在因為所了解的東西而感到驚恐。其中一些真信徒甚至是這項技術的創新者。這些參與者主張對人工智能實施各種奇怪和極端的限制,從禁止人工智能的發展,一直到軍事打擊資料中心和核戰争。他們認為,因為像我這樣的人不能排除人工智能未來可能造成災難性後果的可能性,我們必須采取一種預防性立場,可能需要大量的暴力和死亡來防止潛在的存在風險。

我的回應是,他們的立場是非科學的——什麼是可測試的假設?有什麼能夠證明假設是錯誤的?我們如何知道何時進入危險區域?除了“你不能證明它不會發生!”這些問題基本上沒有得到回答。事實上,這些洗禮者的立場非常非科學和極端——關于數學和代碼的陰謀論——而且他們已經呼籲使用暴力,是以我将做一件通常不會做的事情,質疑他們的動機。

具體來說,我認為有三件事情正在發生:

首先,回想一下,約翰·馮·諾伊曼對羅伯特·奧本海默關于他在創造核武器方面的擔憂作出了回應——核武器幫助結束了第二次世界大戰并阻止了第三次世界大戰——他說:“有些人承認罪行是為了聲稱犯罪行為的功勞。”有什麼更戲劇化的方式可以為自己的工作的重要性聲名顯赫,而不顯得過于自誇呢?這解釋了那些實際上正在建設和資助人工智能的洗禮者的言行不一緻——觀察他們的行動,而不是他們的言辭。

第二,一些洗禮者實際上是走私者。有一個完整的“人工智能安全專家”、“人工智能倫理學家”、“人工智能風險研究員”職業。他們受雇于成為厄運論者,并且應該适當處理他們的陳述。

第三,加利福尼亞州以衆多邪教而聞名,從EST到人民神廟,從天堂之門到曼森家族。許多,盡管不是全部,這些邪教是無害的,甚至可能為在其中找到歸屬感的疏離人群提供服務。但有些确實非常危險,而且邪教在揭開最終導緻暴力和死亡的界限上非常困難。

現實情況是,對于“人工智能風險”,顯而易見的對于灣區的每個人來說都是顯而易見的,但可能在灣區以外的地方并不為人所知,它已經發展成為一個邪教,并突然出現在全球媒體關注和公衆對話的日光下。這個邪教不僅吸引了邊緣人物,而且還吸引了一些實際的行業專家和不少富有的捐贈者,包括直到最近的山姆·班克曼-弗裡德。它發展出了一套完整的邪教行為和信仰。

這種邪教是為什麼存在一些聽起來非常極端的人工智能風險論者的原因——并不是因為他們實際上擁有使他們的極端主義合乎邏輯的秘密知識,而是因為他們自己将自己激動到了狂熱狀态,并且确實非常非常極端。

事實證明,這種類型的邪教并不新鮮——在西方有一種長期的末日信仰傳統,産生了末日邪教。人工智能風險邪教具有所有末日邪教的特征。

根據維基百科的說法:“千禧年主義是一個團體或運動(人工智能風險論者)相信社會将發生根本性的轉變(人工智能的到來)之後,一切事物都将發生改變(人工智能烏托邦、末日,或者世界末日)。隻有戲劇性的事件(人工智能禁令,對資料中心的空襲,對無監管人工智能的核打擊)被視為能夠改變世界(阻止人工智能)的力量,而且人們預計這種變革将由一群虔誠而專注的人帶來或幸存下來。在大多數千禧年主義情景中,即将到來的災難或戰鬥(人工智能末日或其預防)之後将是一個新的、純淨的世界(人工智能禁令),在這個世界中,信徒将得到獎賞(或者至少被認可一直是正确的)。”

這種末日邪教模式是如此明顯,以至于我很驚訝為什麼更多的人看不到它。别誤會,邪教很有趣,他們的書面材料通常很有創造力和吸引力,他們的成員在晚宴和電視上非常引人入勝。但是他們的極端信仰不應該決定法律和社會的未來——顯然不應該。

AI風險之二:人工智能會毀掉我們的社會嗎?

第二個被廣泛讨論的人工智能風險是,人工智能會毀掉我們的社會,通過生成輸出結果,根據這種厄運論者的說法,這些輸出結果将是如此“有害”,以至于對人類造成深遠的破壞,即使我們并非直接喪生。

簡單來說:如果殺人機器人沒有擊敗我們,仇恨言論和虛假資訊就會這樣做。

這是一個相對較新的厄運論關注點,它分支出來并在一定程度上接管了我上面描述的“人工智能風險”運動。事實上,最近“人工智能風險”的術語已經從“人工智能安全”(由擔心人工智能會真正殺害我們的人使用的術語)變為“人工智能對齊”(由擔心社會“傷害”的人使用的術語)。原始的人工智能安全論者對這種轉變感到沮喪,盡管他們不知道如何把它收回去——他們現在主張實際的人工智能風險主題更名為“AI notkilleveryoneism”,雖然這個名字尚未被廣泛采用,但至少很明确。

AI社會風險主張的線索就在于它自己的術語“AI對齊”。對齊到什麼?人類的價值觀。哪些人類的價值觀?啊,這就是事情變得棘手的地方。

恰巧,我親眼目睹了一個類似情況——社交媒體的“信任與安全”戰争。如今顯而易見,社交媒體服務多年來一直受到政府和活動人士的巨大壓力,要求封禁、限制、審查和其他方式壓制各種内容。對“仇恨言論”(以及其數學對應物“算法偏見”)和“虛假資訊”的擔憂直接從社交媒體環境轉移到了“AI對齊”的新領域。

我在社交媒體戰争中的主要收獲是:

一方面,不存在絕對的言論自由立場。首先,包括美國在内的每個國家都将某些内容視為非法。其次,有些類型的内容,如兒童色情和煽動真實世界暴力的行為,幾乎被幾乎所有社會普遍認為是無法容忍的,無論是否合法。是以,任何促進或生成内容(言論)的技術平台都将有一些限制。

另一方面,滑坡論不是謬誤,而是不可避免的。一旦限制甚至極其可怕的内容的架構建立起來,例如對于仇恨言論、傷害性詞語或虛假資訊,明顯錯誤的聲明,如“教皇已經去世”,一系列政府機構、活動人士壓力團體和非政府實體将投入運作,并要求越來越大程度上對他們認為威脅社會和/或他們個人偏好的言論進行審查和壓制,他們甚至以裸露的重罪方式來實施。這種循環在實踐中似乎可以無限進行下去,得到了沿着我們精英權力結構内設立的威權式守門人的熱情支援。這在社交媒體上已經持續了十年,隻有一些例外情況下,這種現象仍在不斷增強。

這就是“AI對齊”周圍形成的動态。其支援者聲稱具備智慧,能夠為社會創造良好的人工智能生成的言論和思想,并禁止對社會有害的人工智能生成的言論和思想。其反對者聲稱思想警察極其傲慢和放肆——至少在美國,他們經常是徹頭徹尾的犯罪分子——實際上,他們試圖成為直接從喬治·奧威爾的《1984》中揭示的新型政府-企業-學術威權言論獨裁的形式。

由于“信任與安全”和“AI對齊”的支援者集中在全球範圍内非常狹窄的美國沿海精英階層——包括許多從事科技行業和撰寫相關文章的人——我的很多讀者可能會認為,需要對人工智能輸出進行重大限制,以避免破壞社會。我現在不打算試圖說服你們,我隻是簡單地陳述這是需求的本質,并且世界上大多數人既不同意你們的意識形态,也不希望看到你們獲勝。

如果你不同意正在通過不斷強化的言論規範來施加在社交媒體和人工智能上的盛行小衆道德觀,你還應該意識到,關于允許人工智能說/生成什麼的鬥争将比對社交媒體審查的鬥争更加重要——非常重要。人工智能極有可能成為世界上一切事物的控制層。它被允許如何運作可能比任何其他事情都更加重要。你應該意識到,一小部分孤立的、黨派性社會工程師正在試圖在古老的保護你們的說法的宣稱掩護下決定這一點。

簡而言之,不要讓思想警察壓制人工智能。

AI風險之三:人工智能會奪走我們所有的工作嗎?

對于因機械化、自動化、計算機化或人工智能而導緻的失業擔憂,自從機械織機等機械裝置首次出現以來,已經是數百年來一直存在的恐慌。盡管曆史上每一次重大技術的出現都帶來了更多的就業機會和更高的工資水準,但每一波這樣的恐慌都伴随着聲稱“這一次不同”的說法——這一次終将發生,這一次的技術終将對人類勞動力造成毀滅性打擊。然而,它從未發生過。

在最近的過去,我們經曆了兩個由技術驅動的失業恐慌周期——2000年代的外包恐慌和2010年代的自動化恐慌。盡管在這兩個十年中,許多評論家、專家甚至技術行業高管紛紛表态稱大規模失業即将來臨,但在2019年底——就在COVID爆發之前——世界上的就業機會比曆史上任何時候都更多,工資也更高。

然而,這個錯誤的觀點仍然不會消失。而且,它又回來了。

這一次,我們終于擁有了将奪走所有工作并使人類勞動者變得多餘的技術——真正的人工智能。這一次曆史不會重演,人工智能将導緻大規模失業,而不是經濟、就業和工資的迅速增長,對嗎?

不,那是不會發生的——事實上,如果允許人工智能在整個經濟中得以發展和普及,它可能會引發有史以來最引人注目且持久的經濟繁榮,相應地創造創紀錄的就業和工資增長——正好與擔憂相反。原因如下:

自動化導緻失業的末日論者一直犯着一個核心錯誤,即“勞動總量誤解”。這個誤解是錯誤的觀念,即在任何特定時間,經濟中需要完成固定數量的勞動力工作,要麼由機器完成,要麼由人完成——如果由機器完成,就沒有工作可以讓人做了。

勞動總量誤解自然而然地産生于幼稚的直覺,但這裡的幼稚直覺是錯誤的。當技術應用于生産時,我們會獲得生産力增長——即通過減少輸入來增加産出。結果是商品和服務的價格下降。随着商品和服務價格的下降,我們支付的費用減少,這意味着我們現在有了額外的消費能力,可以購買其他物品。這增加了經濟中的需求,推動了新的生産(包括新産品和新産業)的産生,為之前被機器替代的人們創造了新的工作機會。結果是經濟規模更大,物質繁榮度更高,産業更多,産品更多,就業機會更多。

好消息不止于此。我們還會獲得更高的工資。這是因為,在個體勞工的層面上,市場根據勞工的邊際生産力來确定報酬。科技融入業務的勞工比傳統業務中的勞工更加高效。雇主要麼根據勞工的提高生産力為其支付更多的工資,要麼另一個雇主會,純粹出于自身利益。結果是,技術在一個行業中的引入通常不僅增加了該行業的就業機會,而且提高了工資水準。

總結一下,技術賦予人們更高的生産力。這導緻現有商品和服務的價格下降,工資上漲。進而引發經濟增長和就業增長,并促使新的工作和新的産業的建立。如果市場經濟得以正常運作,技術得以自由引入,這就是一個永無止境的向上循環。正如弗裡德曼(Milton Friedman)觀察到的那樣,“人類的需求是無窮無盡的”——我們總是想要比我們擁有的更多。融入技術的市場經濟是我們接近滿足每個人可能想要的一切的方式,但永遠無法完全達到那個目标。這就是為什麼技術不會摧毀就業,而且永遠不會。

對于那些沒有接觸過這些想法的人來說,這些觀點可能會讓你們震驚,可能需要一些時間來了解。但我發誓我沒有憑空捏造它們——事實上,你可以在标準經濟學教科書上讀到所有這些内容。我推薦亨利·哈茲裡特(Henry Hazlitt)的《一堂經濟學課》中的《機械的詛咒》一章,以及弗雷德裡克·巴斯夏(Frederic Bastiat)關于燭光制造商向太陽申請取消它與照明行業的不公平競争的諷刺請願書,這是為我們這個時代進行了現代化改編。

但你會認為這一次不同。這一次,通過人工智能,我們擁有可以替代所有人力勞動的技術。

但是,根據我上面描述的原理,想象一下如果所有現有的人力勞動都被機器替代會意味着什麼。這将意味着經濟生産力增長的起飛速度将是絕對天文數字,遠超過任何曆史先例。現有商品和服務的價格将全面下降至接近零。消費者福利将飙升。消費者購買力将飙升。經濟中的新需求将爆炸式增長。企業家将創造令人眼花缭亂的新行業、産品和服務,并盡可能快地雇傭盡可能多的人力和人工智能來滿足所有的新需求。

假設人工智能再次替代了那些勞動力?這個循環将重複,推動消費者福利、經濟增長以及工作和工資的進一步增長。這将是一條直線螺旋上升之路,達到亞當·斯密(Adam Smith)或卡爾·馬克思(Karl Marx)從未敢于夢想的物質烏托邦。

我們應該如此幸運。

AI風險#4:人工智能是否會導緻嚴重的不平等?

說到卡爾·馬克思,對于AI奪走工作的擔憂直接引出了下一個聲稱的AI風險,即,好吧,馬克,假設AI确實奪走了所有的工作,不管是出于好意還是惡意。那麼,作為AI的所有者将獨占所有經濟回報,普通人一無所得,這難道不會導緻巨大而嚴重的财富不平等嗎?

恰好,這是馬克思主義的一個核心觀點,即生産資料的所有者——資産階級——将不可避免地從實際從事工作的人——無産階級那裡奪取所有社會财富。不管這個觀點被現實多少次證明錯誤,它始終是一個不死的謬論。但是無論如何,讓我們對其予以駁斥。

這個理論的缺陷在于,作為一種技術的所有者,将其保留給自己并不符合你自身的利益,事實上恰恰相反,将其賣給盡可能多的客戶才符合你自身的利益。全球任何産品的最大市場都是全世界的80億人口。是以,實際上,每一項新技術——即使最初隻向高薪大公司或富裕消費者銷售——也會迅速傳播,直到進入盡可能大的大衆市場,最終覆寫地球上的每個人。

這方面的經典例子是埃隆·馬斯克(Elon Musk)在2006年公開發表的所謂“秘密計劃”:

第一步,制造[昂貴的]跑車

第二步,用這些錢制造一輛實惠的車

第三步,用這些錢制造一輛更實惠的車

……當然,這正是他所做的,結果成為世界上最富有的人。

最後一點很關鍵。如果埃隆今天隻向富人銷售汽車,他會更富有嗎?不會。如果他隻為自己制造汽車,他會比現在更富有嗎?當然不會。不,他通過向全世界這個最大的市場銷售來最大化自己的利潤。

簡而言之,每個人都能夠擁有這種技術——我們在過去不僅在汽車、電力、無線電、計算機、網際網路、行動電話和搜尋引擎方面看到了這一點。這些技術的制造商都有強烈的動力将價格降低到每個地球上的人都能夠負擔得起的程度。這正是目前在AI領域正在發生的——這就是為什麼你可以以低廉甚至免費的價格使用最先進的生成式AI,例如Microsoft Bing和Google Bard。這也是未來的趨勢。這不是因為這些供應商愚蠢或慷慨,而是因為他們貪婪——他們希望最大化市場規模,進而最大化利潤。

是以,情況與技術推動财富集中的說法相反——技術的最終使用者,最終包括地球上的每個人,反而獲得了權力,并獲得了大部分創造的價值。與之前的技術一樣,建立AI的公司——假設它們必須在一個自由市場中運作——将競相努力實作這一目标。

馬克思當時錯了,現在他仍然錯了。

這并不是說不平等在我們的社會中不是一個問題。它确實是一個問題,隻是它不是由技術驅動的,而是相反,是由那些對新技術最抵制的經濟部門驅動的,這些部門在采用像AI這樣的新技術方面受到最多政府幹預的限制,特别是住房、教育和醫療保健領域。

AI和不平等的實際風險并不在于AI會導緻更多的不平等,而是我們将不允許使用AI來減少不平等。

AI風險#5:人工智能是否會導緻壞人做壞事?

到目前為止,我已經解釋了五個最常被提出的AI風險中的四個實際上并不存在——人工智能不會複活并殺死我們,人工智能不會毀壞我們的社會,人工智能不會導緻大規模失業,人工智能不會導緻糟糕的不平等增加。但現在讓我們來解決第五個風險,這個風險我實際上是同意的:人工智能将使壞人更容易做壞事。

在某種意義上,這是一個同義反複。技術是一種工具。工具,從火和石頭開始,可以用來做好事——烹饪食物和建造房屋——也可以用來做壞事——燒傷人和毆打人。任何技術都可以被用于善或惡。沒錯。而且人工智能将使犯罪分子、恐怖分子和敵對政府更容易做壞事,毫無疑問。

這導緻一些人提出,好吧,如果是這樣的話,那麼在這種情況下,讓我們不冒這個風險,讓我們在這種事情發生之前立即禁止人工智能。不幸的是,人工智能不是某種難以獲得的神秘物質,就像钚那樣。相反,它是世界上最容易獲得的物質——數學和代碼。

人工智能的貓顯然已經出逃了。你可以通過成千上萬的免費線上課程、書籍、論文和視訊學習如何建構人工智能,而且每天都有出色的開源實作不斷湧現。人工智能就像空氣一樣——它将無處不在。要抓住它需要實施的極權壓迫程度将如此嚴厲——一個全球政府監控和控制所有計算機?黑色直升機中的軍警搶奪不受控制的GPU?——那時我們将沒有社會可保護了。

是以,我們有兩種非常直接的方法來應對壞人利用人工智能做壞事的風險,而這正是我們應該關注的。

首先,我們已經有法律來刑事化任何人可能利用人工智能進行的大多數壞事。侵入五角大樓的計算機系統?那是犯罪。從銀行盜竊資金?那是犯罪。制造生物武器?那是犯罪。實施恐怖襲擊?那是犯罪。我們可以簡單地專注于在我們能夠時防止這些犯罪行為,并在無法防止時予以起訴。我們甚至不需要新的法律——我不知道有哪一個實際的壞用途被提出并且不已經是非法的。如果發現一種新的壞用途,我們就禁止這種使用。證畢。

但你會注意到我剛才提到的——我說我們應該首先集中精力在防止AI協助犯罪之前——這難道不意味着禁止人工智能嗎?嗯,還有另一種方法來防止這種行為,那就是将人工智能作為一種防禦工具。使人工智能在壞人手中具有壞目标的危險性與使人工智能在好人手中具有好目标的力量是一樣的——特别是那些負責防止壞事發生的好人。

例如,如果你擔心人工智能生成假人和虛假視訊,答案就是建立新的系統,讓人們可以通過加密簽名來驗證自己和真實内容。在人工智能之前,數字化創造和修改真實和虛假内容已經存在;答案不是禁止文字處理軟體、Photoshop或人工智能,而是利用技術來建構一個真正解決問題的系統。

是以,第二,讓我們大力倡導将人工智能用于善、合法的防禦目的。讓我們在網絡防禦、生物防禦、打擊恐怖分子以及我們為了保護自己、社群和國家而做的一切中運用人工智能。

當然,政府内外已經有很多聰明人正在做這些事情——但如果我們将目前所有緻力于徒勞地試圖禁止人工智能的努力和智力應用于利用人工智能防範壞人做壞事,我相信一個充斥着人工智能的世界将比我們今天所生活的世界更安全。

應該做些什麼呢?

我提出一個簡單的計劃:

大型人工智能公司應該被允許盡快而有力地建構人工智能,但不應該被允許實作監管捕獲,不應該建立一個由于錯誤的人工智能風險聲明而免受市場競争影響的政府保護壟斷。這将最大程度地發揮這些公司令人驚歎的能力在技術和社會層面帶來的回報,它們是現代資本主義的珍寶。

初創人工智能公司應該被允許盡快而有力地建構人工智能。他們既不應該面對政府授予大公司的保護,也不應該獲得政府援助。他們應該被允許自由競争。如果初創公司沒有成功,它們在市場上的存在也将不斷激勵大公司做到最好——我們的經濟和社會無論如何都會受益。

開源人工智能應該被允許自由傳播和與大型人工智能公司和初創公司競争。開源應該沒有任何監管壁壘。即使開源技術沒有超越公司,其廣泛可用性對世界各地希望學習如何建構和使用人工智能以成為技術未來一部分的學生來說是一種福音,并且将確定人工智能對每個能從中受益的人都可用,無論他們是誰,有多少錢。

為了抵消壞人利用人工智能做壞事的風險,政府與私營部門合作應積極參與潛在風險領域,利用人工智能來最大程度地提升社會的防禦能力。這不僅限于與人工智能相關的風險,還包括更一般的問題,如營養不良、疾病和氣候問題。人工智能可以成為解決問題的非常強大的工具,我們應該将其視為如此。

這就是我們如何利用人工智能拯救世界。現在是建設的時候了。

傳奇和英雄

人工智能的發展始于上世紀40年代,與計算機的發明同時進行。關于神經網絡(即我們今天所擁有的人工智能的架構)的第一篇科學論文于1943年發表。在過去的80年裡,整整幾代人的人工智能科學家出生、上學、工作,甚至在許多情況下去世,他們未能看到我們現在所獲得的回報。他們是傳奇,每一個人都是。

如今,越來越多的工程師——其中許多人年輕,可能有祖父母甚至曾祖父母參與了人工智能理念的創造——正在努力将人工智能變為現實,盡管面對一堵試圖将他們描繪成魯莽惡棍的恐懼和悲觀主義牆壁。我不認為他們是魯莽或者惡棍。每一個人都是英雄。我和我的公司非常高興支援盡可能多的他們,我們将百分之百地支援他們和他們的工作。

來源:AI範兒

繼續閱讀