天天看點

300多位科技專家發出警告 人工智能風險應與流行病和核戰同等重視

作者:TechMind

科技專家和計算機科學專家警告稱,人工智能對人類生存的威脅與核戰争和全球流行病一樣嚴重,即使是推動人工智能發展的商業領袖也對該技術的存在風險提出警告。

ChatGPT的創造者OpenAI的首席執行官Sam Altman是周一由非營利研究機構A.I.安全中心釋出的公開“人工智能風險聲明”的300多位簽署者之一。這封信是一份簡短的聲明,旨在概括與人工智能相關的風險:

“減輕人工智能對人類滅絕的風險應該與流行病和核戰争等其他社會規模的風險一樣成為全球優先事項。”

300多位科技專家發出警告 人工智能風險應與流行病和核戰同等重視

信的序言稱,這個聲明旨在“開啟讨論”,探讨如何應對人工智能可能導緻世界末日的能力。其他簽署者包括前谷歌工程師Geoffrey Hinton和蒙特利爾大學計算機科學家Yoshua Bengio,他們因對現代計算機科學的貢獻而被稱為“人工智能教父”之一。最近幾周,Bengio和Hinton都發出了多個警告,警示人工智能未來可能産生的危險能力。Hinton最近離開谷歌,以便能夠更加公開地讨論人工智能的風險。

300多位科技專家發出警告 人工智能風險應與流行病和核戰同等重視

這不是第一封呼籲更加關注進階人工智能研究可能帶來災難性後果的信件。今年3月,埃隆·馬斯克(Elon Musk)是超過1,000名技術專家中的一員,呼籲暫停進階人工智能研究六個月,理由是該技術具有破壞性的潛力。

300多位科技專家發出警告 人工智能風險應與流行病和核戰同等重視

Altman本月警告國會,在技術快速發展的同時,已經存在不足的監管。

Altman最近簽署的這份備忘錄沒有像之前的信件一樣提出具體目标,除了促進讨論。Hinton本月早些時候在接受CNN采訪時表示,他沒有簽署3月份的信件,他說暫停人工智能研究是不現實的,因為該技術已經成為美國和中國之間的競争領域。

他說:“我認為我們不能阻止進展。我沒有簽署停止研究人工智能的請願書盡管領先人工智能開發商包括OpenAI和谷歌的高管呼籲政府加快對人工智能的監管,但一些專家警告說,當其目前存在的問題,包括資訊誤導和潛在偏見,已經造成嚴重破壞時,讨論該技術未來的存在風險是适得其反的。還有人甚至認為,通過公開讨論人工智能的存在風險,像Altman這樣的首席執行官試圖轉移對該技術目前問題的注意力,這些問題已經在關鍵的選舉年中造成了問題,包括促進虛假新聞的傳播。

300多位科技專家發出警告 人工智能風險應與流行病和核戰同等重視

但人工智能的末日預言者也警告說,該技術的發展速度足夠快,以至于存在風險可能比人類跟上的速度更快。社群中的擔憂越來越大,即超智能人工智能,即能夠自主思考和推理的人工智能,離我們比許多人認為的更近,一些專家警告稱,目前的技術并沒有與人類的利益和福祉相一緻。

Hinton本月在接受《華盛頓郵報》采訪時表示,超智能人工智能的時代正在迅速到來,可能隻有20年的時間,現在是讨論進階人工智能風險的時候了。

他說:“這不是科幻小說。”

繼續閱讀