天天看點

馬斯克等千名科技人士發公開信:暫停訓練比GPT-4更強大的AI系統

作者:美食家的小眼睛

“我現在并不擔心‘AGI風險’(我們無法控制的超級智能機器的風險),在短期内我擔心的是‘MAI風險’——平庸人工智能(Mediocre AI)是不可靠的(比如必應和GPT-4)但被廣泛部署。”

最近幾天,人工智能風險引發了多位科技領袖的深切擔憂。

首先是被稱為“人工智能教父”的傑弗裡·辛頓(Geoffrey Hinton),他上周在接受哥倫比亞廣播公司采訪時表示,人工智能可能發展到對人類構成威脅“并非不可想象”的地步。

随後,AI“大牛”蓋瑞·馬庫斯(Gary Marcus)3月27日發推響應辛頓,28日又發表題為“人工智能風險≠通用人工智能風險”的文章,稱超級智能可能會也可能不會迫在眉睫,但在短期内,需要擔心“MAI(平庸人工智能)風險”。

27日,推特CEO伊隆·馬斯克也加入進來,表達對辛頓和馬庫斯的贊同。

馬斯克等千名科技人士發公開信:暫停訓練比GPT-4更強大的AI系統

馬斯克在社交網絡上與傑弗裡·辛頓和蓋瑞·馬庫斯互動。

29日,未來生命研究所(Future of Life Institute)公布一封公開信,呼籲所有AI實驗室立即暫停訓練比GPT-4更強大的AI系統至少6個月。辛頓、馬庫斯和馬斯克均簽署了這封公開信。

“加快開發強大的AI治理系統”

未來生命研究所的這封公開信題為“暫停巨型AI實驗:一封公開信”,于29日解封。

馬斯克等千名科技人士發公開信:暫停訓練比GPT-4更強大的AI系統

未來生命研究所的公開信已有1079人簽署。

信中寫道:廣泛的研究表明,具有與人類競争智能的人工智能系統可能對社會和人類構成深遠的風險,這一觀點得到了頂級人工智能實驗室的承認。正如廣泛認可的“阿西洛馬人工智能原則(Asilomar AI Principles,阿西莫夫的機器人三大法則的擴充版本,于2017年由近千名人工智能和機器人專家簽署)中所述,進階AI可能代表地球生命史上的深刻變化,應該以相應的關照和資源進行規劃和管理。不幸的是,這種級别的規劃和管理并沒有發生,盡管最近幾個月人工智能實驗室陷入了一場失控的競賽,以開發和部署更強大的數字思維,沒有人——甚至他們的創造者——能了解、預測或可靠地控制。

“當代人工智能系統現在在一般任務上變得與人類具有競争力,我們必須扪心自問:我們是否應該讓機器用宣傳和謊言充斥我們的資訊管道?我們是否應該自動化所有工作,包括令人滿意的工作?我們是否應該發展最終可能比我們更多、更聰明,淘汰并取代我們的非人類思維?我們應該冒險失去對我們文明的控制嗎?”這封信寫道,“隻有當我們确信它們的影響是積極的并且風險是可控的時候,才應該開發強大的人工智能系統。這種信心必須有充分的理由,并随着系統潛在影響的規模而增加。OpenAI最近關于通用人工智能的聲明指出,‘在某些時候,在開始訓練未來的系統之前進行獨立審查可能很重要,并且對于最先進的工作來說,應該同意限制用于建立新模型的計算量增長。’我們同意。那個某些時候就是現在。”

這封信呼籲,所有人工智能實驗室立即暫停訓練比GPT-4更強大的人工智能系統至少6個月。這種暫停應該是公開的和可驗證的,并且包括所有關鍵參與者。如果不能迅速實施這種暫停,政府應介入并實行暫停。人工智能實驗室和獨立專家應該利用這次暫停,共同開發和實施一套用于進階人工智能設計和開發的共享安全協定,并由獨立的外部專家進行嚴格審計和監督。這些協定應確定遵守它們的系統是安全的,并且無可置疑。這并不意味着總體上暫停AI開發,隻是緊急從奔向不可預測的大型黑盒模型的危險競賽中收回腳步。

與此同時,信中指出,AI開發人員必須與政策制定者合作,以顯著加快開發強大的AI治理系統。至少應包括:建立專門負責AI的有能力的新監管機構;監督和跟蹤高性能人工智能系統和大量計算能力;推出标明來源系統和水印系統,以幫助區分真實與合成,并跟蹤模型洩漏;強大的審計和認證生态系統;界定人工智能造成的傷害的責任;為人工智能技術安全研究提供強大的公共資金;以資源充足的機構來應對人工智能将造成的巨大經濟和政治破壞(尤其是對民主的破壞)。

這封信最後寫道,“人類可以享受人工智能帶來的繁榮未來。成功建立強大的AI系統後,我們現在可以享受‘AI之夏’,收獲回報,設計這些系統以造福所有人,并為社會提供适應的機會。社會已經暫停其他可能對社會造成災難性影響的技術。 我們可以在這個領域也這樣做。讓我們享受一個漫長的AI之夏,而不是毫無準備地陷入秋天。”

未來生命研究所建立于2014年,是一個非營利組織,由一系列個人群組織資助,使命是引導變革性技術遠離極端、大規模的風險,轉向造福生活。

截至發稿,這封信已有1079名科技領袖和研究人員簽名,除了馬斯克、辛頓和馬庫斯之外,還包括圖靈獎得主約書亞·本希奧(Yoshua Bengio)、《人工智能:現代方法》作者斯圖爾特·羅素(Stuart Russell)、蘋果公司聯合創始人史蒂夫·沃茲尼亞克(Steve Wozniak)、Stability AI首席執行官埃馬德·莫斯塔克(Emad Mostaque)等科技界領袖人物。

“可能導緻核戰争和更嚴重的疫情”

28日,馬庫斯在寫作平台Substack上寫道,一位同僚寫信給他問道:“這封(公開)信不會造成對即将到來的AGI(通用人工智能)、超級智能等的無端恐懼嗎?”

馬庫斯解釋道,“我仍然認為大型語言模型與超級智能或通用人工智能沒有太大關系;我仍然認為,與楊立昆(Yann LeCun)一樣,大型語言模型是通向通用人工智能道路上的一個‘出口’。我對厄運的設想可能與辛頓或馬斯克不同;他們的(據我所知)似乎主要圍繞着如果計算機快速而徹底地自我改進會發生什麼,我認為這不是一個直接的可能性。”

馬斯克等千名科技人士發公開信:暫停訓練比GPT-4更強大的AI系統

人工智能風險與通用人工智能風險。

但是,盡管許多文獻将人工智能風險等同于超級智能或通用人工智能風險,但不一定非要超級智能才能造成嚴重問題。“我現在并不擔心‘AGI風險’(我們無法控制的超級智能機器的風險),在短期内我擔心的是‘MAI風險’——平庸人工智能(Mediocre AI)是不可靠的(比如必應和GPT-4)但被廣泛部署——無論是就使用它的人數而言,還是就世界對軟體的通路而言。一家名為Adept.AI的公司剛剛籌集了3.5億美元來做到這一點,以允許大型語言模型通路幾乎所有内容(旨在通過大型語言模型‘增強你在世界上任何軟體工具或API上的能力’,盡管它們有明顯的幻覺和不可靠傾向)。”

馬庫斯認為,許多普通人也許智力高于平均水準,但不一定是天才,在整個曆史中也制造過各種各樣的問題。在許多方面,起關鍵作用的不是智力而是權力。一個擁有核代碼的白癡就可以摧毀世界,隻需要适度的情報和不應該得到的通路權限。現在,AI工具已經引起了犯罪分子的興趣,越來越多地被允許進入人類世界,它們可能造成更大的破壞。

歐洲刑警組織27日釋出一份報告,對采用ChatGPT類工具進行犯罪的可能性進行了讨論,令人警醒。“大型語言模型檢測和重制語言模式的能力不僅有助于網絡釣魚和線上欺詐,而且通常還可以用來冒充特定個人或群體的講話風格。這種能力可能會被大規模濫用,以誤導潛在受害者将他們的信任交給犯罪分子。”這份報告寫道,“除了上述犯罪活動外,ChatGPT的功能還有助于處理恐怖主義、政治宣傳和虛假資訊領域的許多潛在濫用案件。是以,該模型通常可用于收集更多可能促進恐怖活動的資訊,例如恐怖主義融資或匿名檔案共享。”

馬庫斯認為,再加上人工智能生成的大規模宣傳,被大型語言模型增強的恐怖主義可能導緻核戰争,或者導緻比新冠病毒更糟糕的病原體的故意傳播等。許多人可能會死亡,文明可能會被徹底破壞。也許人類不會真的“從地球上消失”,但事情确實會變得非常糟糕。

“人工智能教父”傑弗裡·辛頓在接受哥倫比亞廣播公司采訪時表示,人工智能可能發展到對人類構成威脅“并非不可想象”的地步。

上周在哥倫比亞廣播公司的采訪中,“人工智能教父”辛頓被問及人工智能“消滅人類”的可能性時說,“我認為這并非不可想象。我隻想說這些。”

馬庫斯指出,相比辛頓和馬斯克擔憂天網和機器人接管世界,應該更多思考眼前的風險,包括恐怖分子在内的犯罪分子可能對大型語言模型做什麼,以及如何阻止他們。

來源:澎湃新聞

繼續閱讀