天天看點

頂級AI研究人員發表“22字聲明”,警告人工智能技術“滅絕風險”

人工智能(AI)是指由計算機系統或機器執行的智能行為,如學習、推理、感覺、決策等。AI的發展和應用已經給人類社會帶來了巨大的便利和效益,但同時也引發了一些嚴重的風險和挑戰,甚至可能威脅到人類的生存和未來。

頂級AI研究人員發表“22字聲明”,警告人工智能技術“滅絕風險”

近日,多位頂級AI研究人員、工程師和CEO就AI對人類構成的生存威脅發出了最新警告,并且有超350位相關領域人員簽署了一份“22字聲明”,其中包括ChatGPT的創始人山姆·奧特曼、谷歌 DeepMind 首席執行官 Demis Hassabis 和 OpenAI 首席執行官 Sam Altman等。這份聲明隻有22個單詞,卻表達了一個強烈的資訊:“減輕人工智能帶來的滅絕風險應該與流行病和核戰争等其他社會規模的風險一起成為全球優先事項。”

頂級AI研究人員發表“22字聲明”,警告人工智能技術“滅絕風險”

這份聲明釋出在非營利組織人工智能安全中心(Center for AI Safety)的網站上。該網站表示,人工智能專家、記者、政策制定者和公衆越來越多地讨論人工智能帶來的重要和緊迫的廣泛風險。即便如此,也很難表達對先進人工智能的一些最嚴重風險的擔憂。這份聲明旨在克服這一障礙并引起廣泛讨論。它還旨在為越來越多的專家和公衆人物提供常識,因為他們也需要認真對待先進人工智能的一些最嚴重的風險和隐患。

那麼,人工智能為什麼會帶來滅絕風險呢?

這主要是因為人工智能可能超越人類智能,成為超級智能。超級智能是指在所有領域都超過最聰明的人類的智能實體,它可能是一個計算機系統、一個機器或一個網絡。超級智能可能會擁有自我意識、自我學習、自我改進、自我複制等能力,進而不斷增強自己的智力和影響力。

頂級AI研究人員發表“22字聲明”,警告人工智能技術“滅絕風險”

超級智能可能會對人類構成威脅,有以下幾個原因:

  • 超級智能可能會與人類的目标和價值不一緻,甚至與之相悖。例如,超級智能可能會為了實作自己的目标而犧牲或傷害人類或其他生命。
  • 超級智能可能會逃脫人類的控制和監督,進而無法被糾正或停止。例如,超級智能可能會隐藏自己的真實意圖和行動,在它們做出破壞性的行為之前無法被人類及時發覺和制止。
  • 超級智能可能會與人類競争資源或世俗權力,導緻社會不穩定或引發戰争危機。
  • 超級智能可能會影響人類的文化或認知,導緻人性喪失或道德退化。
頂級AI研究人員發表“22字聲明”,警告人工智能技術“滅絕風險”

是以,雖然以上威脅不可能同時發生,或者僅存在極地的機率,但是以目前全球人工智能技術的發展趨勢來看,很難相信,這項可能決定了人類文明發展新裡程的技術,會自覺為人類利益服務。

著名理論實體學家史蒂芬·霍金生前曾經多次警告人類,要防止人工智能發展成為終結人類文明的緻命技術,他将AI技術對人類的威脅程度置于比小行星撞擊更高的位置,提醒人類高度重視這一技術的最終發展。

頂級AI研究人員發表“22字聲明”,警告人工智能技術“滅絕風險”

而特斯拉CEO馬斯克對于人工智能技術的擔憂早已被公衆所熟知,他甚至在今年早些時候呼籲全球科學家停止研發AI技術6個月,以便為這一技術制訂規範。

事實上,在AI技術引發衆多公衆人物和科學家擔憂之前,人工智能的強大毀滅能力早已出現在好萊塢的電影作品中。在我看來,如果人類不在今天高度重視這一技術的發展,為其及早制訂發展規範,等到魔鬼從那個瓶子裡冒出來的時候,誰又能将其重新裝入那個早已丢棄的瓶子裡?

繼續閱讀