天天看點

霍金:人工智能可能是人類文明史的終結,除非學會如何避免風險

在GMIC 2017首日的領袖峰會上,史蒂芬·霍金談到了他對于目前人工智能技術發展的認識,他說“人工智能的成功有可能是人類文明史上最大的事件, 但是人工智能也有可能是人類文明史的終結,除非我們學會如何避免危險。”

霍金:人工智能可能是人類文明史的終結,除非學會如何避免風險

以下為史蒂芬·霍金演講實錄:

在我的一生中,我見證了社會深刻的變化。其中最深刻的,同時也是對人類影響與日俱增的變化,是人工智能的崛起。簡單來說,我認為強大的人工智能的崛起,要麼是人類曆史上最好的事,要麼是最糟的。我不得不說,是好是壞我們仍不确定。但我們應該竭盡所能,確定其未來發展對我們和我們的環境有利。我們别無選擇。我認為人工智能的發展,本身是一種存在着問題的趨勢,而這些問題必須在現在和将來得到解決。

人工智能的研究與開發正在迅速推進。也許我們所有人都應該暫停片刻,把我們的研究重複從提升人工智能能力轉移到最大化人工智能的社會效益上面。基于這樣的考慮,美國人工智能協會(AAAI)于2008至2009年,成立了人工智能長期未來總籌論壇,他們近期在目的導向的中性技術上投入了大量的關注。但我們的人工智能系統須要按照我們的意志工作。跨學科研究是一種可能的前進道路:從經濟、法律、哲學延伸至計算機安全、形式化方法,當然還有人工智能本身的各個分支。 文明所提産生的一切都是人類智能的産物,我相信生物大腦可以達到的和計算機可以達到的,沒有本質差別。是以,它遵循了“計算機在理論上可以模仿人類智能,然後超越”這一原則。但我們并不确定,是以我們無法知道我們将無限地得到人工智能的幫助,還是被藐視并被邊緣化,或者很可能被它毀滅。

的确,我們擔心聰明的機器将能夠代替人類正在從事的工作,并迅速地消滅數以百萬計的工作崗位。 在人工智能從原始形态不斷發展,并被證明非常有用的同時,我也在擔憂創造一個可以等同或超越人類的事物所導緻的結果:人工智能一旦脫離束縛,以不斷加速的狀态重新設計自身。人類由于受到漫長的生物進化的限制,無法與之競争,将被取代。這将給我們的經濟帶來極大的破壞。未來,人工智能可以發展出自我意志,一個與我們沖突的意志。盡管我對人類一貫持有樂觀的态度,但其他人認為,人類可以在相當長的時間裡控制技術的發展,這樣我們就能看到人工智能可以解決世界上大部分問題的潛力。但我并不确定.

2015年1月份,我和科技企業家埃隆·馬斯克,以及許多其他的人工智能專家簽署了一份關于人工智能的公開信,目的是提倡就人工智能對社會所造成的影響做認真的調研。在這之前,埃隆·馬斯克就警告過人們:超人類人工智能可能帶來不可估量的利益,但是如果部署不當,則可能給人類帶來相反的效果。我和他同在“生命未來研究所”的科學顧問委員會,這是一個為了緩解人類所面臨的存在風險的組織,而且之前提到的公開信也是由這個組織起草的。這個公開信号召展開可以阻止潛在問題的直接研究,同時也收獲人工智能帶給我們的潛在利益,同時緻力于讓人工智能的研發人員更關注人工智能安全。此外,對于決策者和普通大衆來說,這封公開信内容翔實,并非危言聳聽。人人都知道人工智能研究人員們在認真思索這些擔心和倫理問題,我們認為這一點非常重要。比如,人工智能是有根除疾患和貧困的潛力的,但是研究人員必須能夠創造出可控的人工智能。那封隻有四段文字,題目為《應優先研究強大而有益的人工智能》的公開信,在其附帶的十二頁檔案中對研究的優先次序作了詳細的安排。

在過去的20年裡,人工智能一直專注于圍繞建設智能代理所産生的問題,也就是在特定環境下可以感覺并行動的各種系統。在這種情況下,智能是一個與統計學和經濟學相關的理性概念。通俗地講,這是一種做出好的決定、計劃和推論的能力。基于這些工作,大量的整合和交叉孕育被應用在人工智能、機器學習、統計學、控制論、神經科學、以及其它領域。共享理論架構的建立,結合資料的供應和處理能力,在各種細分的領域取得了顯著的成功。例如語音識别、圖像分類、自動駕駛、機器翻譯、步态運動和問答系統。

随着這些領域的發展,從實驗室研究到有經濟價值的技術形成良性循環。哪怕很小的性能改進,都會帶來巨大的經濟效益,進而鼓勵更長期、更偉大的投入和研究。目前人們廣泛認同,人工智能的研究正在穩步發展,而它對社會的影響很可能擴大,潛在的好處是巨大的,既然文明所産生的一切,都是人類智能的産物;我們無法預測我們可能取得什麼成果,當這種智能是被人工智能工具放大過的。但是,正如我說過的,根除疾病和貧窮并不是完全不可能,由于人工智能的巨大潛力,研究如何(從人工智能)獲益并規避風險是非常重要的。

現在,關于人工智能的研究正在迅速發展。這一研究可以從短期和長期來讨論。一些短期的擔憂在無人駕駛方面,從民用無人機到自主駕駛汽車。比如說,在緊急情況下,一輛無人駕駛汽車不得不在小風險的大事故和大機率的小事故之間進行選擇。另一個擔憂在緻命性智能自主武器。他們是否該被禁止?如果是,那麼“自主”該如何精确定義。如果不是,任何使用不當和故障的過失應該如何問責。還有另外一些擔憂,由人工智能逐漸可以解讀大量監控資料引起的隐私和擔憂,以及如何管理因人工智能取代工作崗位帶來的經濟影響。

長期擔憂主要是人工智能系統失控的潛在風險,随着不遵循人類意願行事的超級智能的崛起,那個強大的系統威脅到人類。這樣錯位的結果是否有可能?如果是,這些情況是如何出現的?我們應該投入什麼樣的研究,以便更好的了解和解決危險的超級智能崛起的可能性,或智能爆發的出現?

目前控制人工智能技術的工具,例如強化學習,簡單實用的功能,還不足以解決這個問題。是以,我們需要進一步研究來找到和确認一個可靠的解決辦法來掌控這一問題。

近來的裡程碑,比如說之前提到的自主駕駛汽車,以及人工智能赢得圍棋比賽,都是未來趨勢的迹象。巨大的投入傾注到這項科技。我們目前所取得的成就,和未來幾十年後可能取得的成就相比,必然相形見绌。而且我們遠不能預測我們能取得什麼成就,當我們的頭腦被人工智能放大以後。也許在這種新技術革命的輔助下,我們可以解決一些工業化對自然界造成的損害。關乎到我們生活的各個方面都即将被改變。簡而言之,人工智能的成功有可能是人類文明史上最大的事件。

但是人工智能也有可能是人類文明史的終結,除非我們學會如何避免危險。我曾經說過,人工智能的全方位發展可能招緻人類的滅亡,比如最大化使用智能性自主武器。今年早些時候,我和一些來自世界各國的科學家共同在聯合國會議上支援其對于核武器的禁令。我們正在焦急的等待協商結果。目前,九個核大國可以控制大約一萬四千個核武器,它們中的任何一個都可以将城市夷為平地,放射性廢物會大面積污染農田,最可怕的危害是誘發核冬天,火和煙霧會導緻全球的小冰河期。這一結果使全球糧食體系崩塌,末日般動蕩,很可能導緻大部分人死亡。我們作為科學家,對核武器承擔着特殊的責任,因為正是科學家發明了它們,并發現它們的影響比最初預想的更加可怕。

現階段,我對災難的探讨可能驚吓到了在座的各位。很抱歉。但是作為今天的與會者,重要的是,你們要認清自己在影響目前技術的未來研發中的位置。我相信我們團結在一起,來呼籲國際條約的支援或者簽署呈交給各國政府的公開信,科技領袖和科學家正極盡所能避免不可控的人工智能的崛起。

去年10月,我在英國劍橋建立了一個新的機構,試圖解決一些在人工智能研究快速發展中出現的尚無定論的問題。“利弗休姆智能未來中心”是一個跨學科研究所,緻力于研究智能的未來,這對我們文明和物種的未來至關重要。我們花費大量時間學習曆史,深入去看——大多數是關于愚蠢的曆史。是以人們轉而研究智能的未來是令人欣喜的變化。雖然我們對潛在危險有所意識,但我内心仍秉持樂觀态度,我相信創造智能的潛在收益是巨大的。也許借助這項新技術革命的工具,我們将可以削減工業化對自然界造成的傷害。

我們生活的每一個方面都會被改變。我在研究所的同僚休·普林斯承認,“利弗休姆中心”能建立,部分是因為大學成立了“存在風險中心”。後者更加廣泛地審視了人類潛在問題,“利弗休姆中心”的重點研究範圍則相對狹窄。

人工智能的最新進展,包括歐洲議會呼籲起草一系列法規,以管理機器人和人工智能的創新。令人感到些許驚訝的是,這裡面涉及到了一種形式的電子人格,以確定最有能力和最先進的人工智能的權利和責任。歐洲議會發言人評論說,随着日常生活中越來越多的領域日益受到機器人的影響,我們需要確定機器人無論現在還是将來,都為人類而服務。向歐洲議會議員送出的報告,明确認為世界正處于新的工業機器人革命的前沿。報告中分析的是否給機器人提供作為電子人的權利,這等同于法人(的身份),也許有可能。報告強調,在任何時候,研究和設計人員都應確定每一個機器人設計都包含有終止開關。

在庫布裡克的電影《2001太空漫遊》中,出故障的超級電腦哈爾沒有讓科學家們進入太空艙,但那是科幻。我們要面對的則是事實。奧斯本·克拉克跨國律師事務所的合夥人,洛納·布拉澤爾在報告中說,我們不承認鲸魚和大猩猩有人格,是以也沒有必要急于接受一個機器人人格。但是擔憂一直存在。報告承認在幾十年的時間内,人工智能可能會超越人類智力範圍,人工智能可能會超越人類智力範圍,進而挑戰人機關系。報告最後呼籲成立歐洲機器人和人工智能機構,以提供技術、倫理和監管方面的專業知識。如果歐洲議會議員投票贊成立法,該報告将送出給歐盟委員會。它将在三個月的時間内決定要采取哪些立法步驟。

我們還應該扮演一個角色,確定下一代不僅僅有機會還要有決心,在早期階段充分參與科學研究,以便他們繼續發揮潛力,幫助人類創造一個更加美好的的世界。這就是我剛談到學習和教育的重要性時,所要表達的意思。我們需要跳出“事情應該如何”這樣的理論探讨,并且采取行動,以確定他們有機會參與進來。我們站在一個美麗新世界的入口。這是一個令人興奮的、同時充滿了不确定性的世界,而你們是先行者。我祝福你們。

謝謝

霍金教授,我們從您的洞見中學到了很多。接下來我将要問一些問題,來自于中國的科學家和企業家。

創新工場的CEO李開複:網際網路巨頭擁有巨量的資料,而這些資料會給他們各種以使用者隐私和利益換取暴利的機會。在巨大的利益誘惑下,他們是無法自律的。而且,這種行為也會導緻小公司和創業者更難創新。您常談到如何限制人工智能,但更難的是如何限制人本身。您認為我們應該如何限制這些巨頭?

據我了解,許多公司僅将這些資料用于統計分析,但任何涉及到私人資訊的使用都應該被禁止。會有助于隐私保護的是,如果網際網路上所有的資訊,均通過基于量子技術加密,這樣網際網路公司在一定時間内便無法破解。但安全服務會反對這個做法。

獵豹移動CEO傅盛:“靈魂會不會是量子的一種存在形态?或者是高維空間裡的另一個表現?”

我認為近來人工智能的發展,比如電腦在國際象棋和圍棋的比賽中戰勝人腦,都顯示出人腦和電腦并沒有本質差别。這點上我和我的同僚羅傑·彭羅斯正好相反。會有人認為電腦有靈魂嗎?對我而言,靈魂這個說法是一個基督教的概念,它和來世聯系在一起。我認為這是一個童話故事。

百度總裁張亞勤 :“人類觀察和抽象世界的方式不斷演進,從早期的觀察和估算,到牛頓定律和愛因斯坦方程式, 到今天資料驅動的計算和人工智能,下一個是什麼?”

我們需要一個新的量子理論,将重力和其他自然界的其它力量整合在一起。許多人聲稱這是弦理論,但我對此表示懷疑,目前唯一的推測是,時空有十個次元。

斯坦福大學實體學教授張首晟:“如果讓你告訴外星人我們人類取得的最高成就,寫在一張明信片的背面,您會寫什麼?”

告訴外星人關于美,或者任何可能代表最高藝術成就的藝術形式都是無益的,因為這是人類特有的。我會告訴他們哥德爾不完備定理和費馬大定理。這才是外星人能夠了解的事情。

微網誌使用者:“您認為一個人一生中最應當做的一件事和最不應當做的一件事是什麼?”

我們絕不應當放棄,我們都應當盡可能多的去了解(這個世界)。

微網誌使用者:“人類在漫漫的曆史長河中,重複着一次又一次的革命與運動。從石器、蒸汽、電氣……您認為下一次的革命會是由什麼驅動的?”

計算機科學的發展,包括人工智能和量子計算。科技已經成為我們生活中重要的一部分,但未來幾十年裡,它會逐漸滲透到社會的每一個方面,為我們提供智能地支援和建議,在醫療、工作、教育和科技等衆多領域。但是我們必須要確定是我們來掌控人工智能,而非它(掌控)我們。

音樂人、投資者胡海泉:“如果星際移民技術的成熟視窗期遲到,有沒有完全解決不了的内發災難導緻人類滅絕?抛開隕星撞地球這樣的外來災難。”

是的。人口過剩、疾病、戰争、饑荒、氣候變化和水資源匮乏, 人類有能力解決這些危機。但很可惜,這些危機還嚴重威脅着我們在地球上的生存,這些危機都是可以解決的,但目前還沒有。

原文釋出時間為:2017-7-14

本文作者:孫博

本文來自雲栖社群合作夥伴至頂網,了解相關資訊可以關注至頂網

繼續閱讀