天天看點

字少事大!OpenAI 創始人等超 350 名大牛再簽聯名,一句話簡短有力

作者:InfoQ

作者 | 劉燕、核子可樂

應該像對待包括流行病和核戰争等其他全球性迫切社會問題一樣,緩解 AI 引發的滅絕性風險。

全球 AI 大牛又簽署一封公開信

本周二,人工智能安全中心(CAIS)釋出了一份由 OpenAI 及 DeepMind 高管、圖靈獎獲得者及其他 AI 研究人員簽署的簡短聲明,警告稱他們的畢生成果可能會毀滅全人類。

CAIS 表示,這份聲明希望讨論“AI 所帶來的廣泛且緊迫的風險”。

正所謂字越少、事情越大,聲明内容隻有一句:“應該像對待包括流行病和核戰争等其他全球性迫切社會問題一樣,緩解 AI 引發的滅絕性風險。”

在聲明上簽字的名人包括圖靈獎獲得者 Geoffery Hinton 和 Yoshua Bengio、OpenAI CEO Sam Altman、OpenAI 首席科學家 Ilya Sutskever、OpenAI 首席技術官 Mira Murati、DeepMind CEO Demis Hassabis、Anthropic CEO Dario Amodei,以及來自加州大學伯克利分校、斯坦福大學和麻省理工學院的多位教授, 據悉,目前約超過 350 名從事人工智能工作的高管、研究人員和工程師簽署了這份公開信。

作為風口浪尖上的人物,聲明發表之際 OpenAI 掌門人 Altman 正通路全球,與各國元首就 AI 及其潛在風險展開讨論。5 月初,Altman 還參與了美國參議院關于 AI 行業的監管聽證。

這份關于 AI 風險的模糊聲明,很快激起了反對者的批評。

從内容上看,這份聲明沒有對 AI 做出确切定義、也沒有提及要如何緩解滅絕風險,隻是将這項工作放在了與其他全球性社會問題相同的高度。

但在另一份新聞稿中,CAIS 進一步強調希望“設定護欄并建立相關機構,確定 AI 風險不會讓人類措手不及。”

2 個月前,馬斯克等人呼籲叫停 AI 研發

2 個月前,AI 領域數十人共同署名、科技富豪馬斯克高調參與的一封公開信震驚世界。

今年 3 月 22 日,生命未來研究所(Future of Life)向全社會釋出了一封《暫停大型人工智能研究》的公開信,呼籲所有人工智能實驗室立即暫停比 GPT-4 更強大的人工智能系統的訓練,暫停時間至少為 6 個月。

馬斯克、圖靈獎得主 Yoshua Bengio、蘋果聯合創始人 Steve Wozniak、Stability AI 創始人兼 CEO Emad Mostaque、DeepMind 進階研究科學家 Zachary Kenton、AI 重量級人物 Yoshua Bengio(通常被稱為“AI 教父”之一)和該領域研究的先驅 Stuart Russell 等上千名科技大佬和 AI 專家已經簽署公開信。

公開信中提到,通過廣泛研究和頂級 AI 實驗室的調查認可,具備類人智能的 AI 系統很可能對社會和人類構成深遠風險。正如廣受推崇的阿西洛馬 AI 原則中所述,進階 AI 可能代表着地球生命史上一場影響深遠的變化,應給予相應的關注和資源進行規劃和管理。但遺憾的是,我們并沒有看到這種級别的規劃和管理。最近幾個月來,AI 實驗室陷入了一場失控般的技術競賽,全力開發和部署一顆顆愈發強大的“數字大腦”,但就連創造者自己都無法了解、預測或可靠地加以控制。

公開信認為,這種暫停應當對外公開且可加驗證,涵蓋所有關鍵參與者。如果未能迅速實施暫停,政府應介入并強制要求其暫停。各 AI 實驗室和獨立專家則應把握這次暫停,共同開發和實施一套用于進階 AI 設計和開發的共享安全協定,并由外部獨立專家進行嚴格審計與監督。這些協定應確定依其建構的系統具備無可置疑的安全性。AI 研究和開發工作應當集中注意力,努力讓目前最強大、最先進的系統變得更準确、更安全、更可解釋、更透明、更穩健、更一緻,也更加忠誠且值得信賴。與此同時,AI 開發商必須與立法機構合作,加快開發出強大的 AI 治理體制。

通過這封公開信可以看出,人們想要叫停更先進的 AI 系統的研發,無非是擔心在缺乏有效監管的情況下,AI 發展太快會為人類社會帶來一系列潛在隐患和危險。更重要的是,AI 太過強大了,發展到一定成程度時甚至人類都無法掌控它。

AI 倫理專家:并不 Care 這類警告 AI 風險的公開信

但,長期關注 AI 倫理問題的專家,對這類公開信根本不感興趣。

Hugging Face 公司機器學習研究科學家 Sasha Luccioni 博士覺得 CAIS 的這封信如同兒戲:“首先,聲明把 AI 的假想風險跟流行病和氣候變化等現實威脅混為一談,這隻會擾亂公衆的基本判斷。這同時也是一種誤導,隻要把公衆的注意力吸引到未來風險上,他們就會忽略目前的更多有形風險,比如 AI 偏見、法律糾紛和同意權等。”

作家兼未來學家 Daniel Jeffries 也發推稱,“AI 的風險和危害如今成了一種表明立場的遊戲,每個人都想在這波風潮下扮演好人……問題是這麼吵來吵去有用嗎?看着挺好,但沒人真正付出,完全是在浪費時間。”

CAIS 是總部位于舊金山的非營利組織,目标是通過技術研究和宣傳“減少 AI 引發的規模化社會風險”。其聯合創始人之一 Dan Hendrycks 擁有加州大學伯克利分校的計算機科學博士學位,之前還曾在 DeepMind 實習。另一位聯合創始人 Oliver Zhang 也時常在 LessWrong 論壇上發表關于 AI 安全的文章。

在機器學習領域,一部分 AI 安全研究者總是擔心比人類更聰明的超級 AI 将很快出現、脫離限制,要麼控制人類文明、要麼徹底消滅人類文明。**作為目前這波 AI 浪潮的發起者,OpenAI 的基礎安全工作也是圍繞着這種“AGI”(通用人工智能)焦慮而展開。**換言之,AI 末日論在科技行業中已經頗有市場。

但也有不少人覺得,簽署這樣一封内容含糊的公開信沒有任何意義,無非就是讓從業者們減輕一點内心深處的道德壓力。Luccioni 強調,“這群創造出 AI 技術的人參與聲明,無非是給自己博取了個好名聲。”

這裡澄清一點,Luccioni 和她的同僚們并非認定 AI 毫無危害,而是覺得重點考慮未來的假想風險會讓人們忽略目前客觀存在的 AI 負面影響。這些影響正在帶來棘手的道德難題,而科技巨頭們卻無視威脅、大肆出售相關産品。

Hugging Face 首席倫理科學家 Margaret Mitchell 認為,“某些弱勢群體已經是以受到傷害:基于 AI 的監控系統正強迫伊朗女性保持傳統穿着,甚至對某些群體施以監視和軟禁。”

盡管有朝一日,某種形式的先進 AI 也許确實會威脅到全人類,但批評者們認為 2023 年讨論這個問題還為時過早、不可能帶來建設性的幫助。對于尚不存在的問題,如何開展研究?

Jeffries 也發推重申了這一觀點,“AI 遠期風險是種不切實際的幻想,我們無法解決并不存在的問題。這完全是在浪費時間,我們應當集中精力解決當下的問題,未來的事就交給未來去辦。”

AI“教父”Yoshua Bengio 放話:面對畢生工作成果,我也很“迷茫”

近日,在這封最新的公開信上簽名的 AI 大牛科學家,Yoshua Bengio 在接受采訪中坦言,他開始對自己這一輩子的工作成果感到“迷茫”。

字少事大!OpenAI 創始人等超 350 名大牛再簽聯名,一句話簡短有力

作為 AI 三大“教父”之一,他在該領域做出了不少開創性的貢獻。而 AI 的發展方向和驚人速度正引發他的憂慮。Bengio 教授表示自己曾經出于認同感而投身其中,但如今的狀況卻讓他困惑不已。

“從情感上講,身處 AI 領域内部的人們肯定都受到了沖擊。“迷茫是真的,但我們還是得繼續前進,必須參與其中、加入讨論、鼓勵他人和自己一同思考。”

這位加拿大學者最近簽署了兩份聲明,敦促對 AI 的未來風險保持謹慎态度。部分學者和行業專家已經發出警告,稱 AI 發展過快可能導緻這項技術被惡意人士濫用。即使抛開這一層,AI 自身也有可能引發惡劣影響。

Bengio 教授也加入了 AI 監管的行列,并表示他個人認為不該把 AI 的能力給予軍方。Bengio 教授認為,一切建構強 AI 産品的企業都應當注冊報備。

“政府需要跟蹤這些企業的活動,對工作内容展開審計,對 AI 産業起碼也要像飛機、汽車或制藥等領域一樣施加監管。”

“我們還需要推動 AI 相關人員的資質認證……包括道德教育訓練。大家可能不知道,計算機科學家很少能接觸到這方面知識。”

Geoffrey Hinton:曾表示痛悔畢生工作

另一位 AI“教父”Geoffrey Hinton 博士也簽署了 Bengio 教授參與的聲明。

本月月初,有外媒報道稱, Geoffrey Hinton 辭去了在谷歌的工作,并警告這一技術領域的持續發展或将帶來巨大風險。

Geoffrey Hinton 作為“三位 AI 教父”之一,與另外兩位合作夥伴共同獲得了 2018 年圖靈獎,旨在表彰他們為目前 AI 繁榮做出的基礎性貢獻。但如今的他卻對自己投入一生的研究感到遺憾。

根據《紐約時報》對他的采訪,Hinton 在辭去在谷歌的工作,也終于可以暢談 AI 技術背後的風險了。已經在谷歌工作十多年的 Hinton 表示,“我總在用這樣的借口安慰自己:哪怕我自己不做,其他人也會這樣做。但目前真的不知道要怎麼防止壞蛋利用 AI 來作惡。”

虛假資訊的傳播隻是 Hinton 眼下想要強調的風險之一。從長遠來看,他擔心 AI 會徹底消除一切需要大量記憶的工作,而随着其逐漸編寫并運作構成自身的代碼,AI 也許會最終取代人類。

Hinton 在采訪中指出,“其實不少人都相信,AI 實際上能夠變得比人類更聰明,但大多數人認為這還很遙遠。沒錯,我也曾經覺得還很遙遠,沒準要再過 30 年、50 年甚至更久。但現在,我顯然沒法再這麼想了。”

在接受 BBC 采訪時,他甚至提到 AI 聊天機器人已經構成“相當可怕”的威脅。 “據我所知,目前的 IT 還不比我們聰明,但我相信它們很快就會超越人類。”

不一樣的聲音:Yann LeCun 對 AI 發展比較樂觀

不過 AI 領域也有不一樣的聲音存在。

第三位“教父”Yann LeCun 與 Bengio 和 Hinton 共同憑借開創性貢獻獲得了圖靈獎,但他的态度比較樂觀,認為 AI 毀滅人類的警告有點言過其實。

還有人覺得在務虛讨論之前,應當先解決迫在眉睫的真問題。

AI 公司 Huggingface 研究科學家 Sasha Luccioni 博士認為,社會應該關注 AI 偏見、預測性執法和聊天機器人傳播錯誤資訊等問題,她覺得這些都是“非常具體的現實危害”。

“我們應當關注這些問題,而不是深陷 AI 可能毀滅人類的假想泥潭。”

除了風險,AI 也确實給人類社會帶來不少福祉。上周,AI 工具就發現了一種新型抗生素。而借助 AI 技術開發的微晶片,也讓一名癱瘓男子能在意念控制下正常行走。

但好消息再多,也無法抵消人們對 AI 沖擊各國經濟的深遠擔憂。衆多企業已經開始用 AI 工具取代人類員工,好萊塢編劇正就這個問題組織集體罷工。

Bengio 教授在談到 AI 現狀時認為,“亡羊補牢,為時未晚。這就像應對氣候變化問題一樣。我們向大氣排放了大量的碳,雖然不可能一夜之間就停止排放,但我們至少該認真想想當下能夠做點什麼。”

參考連結:

https://www.bbc.com/news/technology-65760449?at_medium=RSS&at_campaign=KARANGA

https://arstechnica.com/information-technology/2023/05/openai-execs-warn-of-risk-of-extinction-from-artificial-intelligence-in-new-open-letter/

https://www.infoq.cn/article/Y9rIogQk8Sjt33bLDMHk

本文轉載來源:

https://www.infoq.cn/article/ARJEOOh2M5oAmwRCpzfk

繼續閱讀