天天看點

即将出版的新書闡述AI的潛在風險:目前沒有證據表明其可以被安全控制

作者:cnBeta

一位研究人員警告說,根據一項廣泛的審查,目前還沒有證據表明人工智能可以被安全控制。Roman V. Yampolskiy 博士解釋說,盡管人們認識到人工智能控制問題可能是人類面臨的最重要問題之一,但對這個問題的了解、定義和研究仍然不足。在他即将出版的新書《人工智能:無法解釋、無法預測、無法控制》中,人工智能安全專家揚波爾斯基博士探讨了人工智能有可能極大地重塑社會的方式,但并不總是對我們有利。

他解釋說"我們正面臨着一個幾乎必然發生的事件,它有可能造成生存災難。難怪許多人認為這是人類有史以來面臨的最重要的問題。結果可能是繁榮,也可能是滅亡,宇宙的命運岌岌可危"。

無法控制的超級智能

揚波爾斯基博士對人工智能科學文獻進行了廣泛的研究,并表示他沒有發現任何證據可以證明人工智能是可以安全控制的--即使有一些部分控制,也是不夠的。

他解釋道:"為什麼這麼多研究人員都認為人工智能控制問題是可以解決的?據我們所知,沒有任何證據可以證明這一點。在開始探索建立受控人工智能之前,必須證明這個問題是可以解決的。這一點,再加上統計資料顯示人工智能超級智能的發展幾乎是一個必然事件,表明我們應該支援人工智能安全方面的重大努力。"

他認為,我們生産智能軟體的能力遠遠超過了我們控制甚至驗證軟體的能力。經過全面的文獻綜述,他認為先進的智能系統永遠不可能完全可控,是以無論能帶來什麼好處,都會有一定程度的風險,人工智能界的目标應該是最大限度地降低這種風險,同時最大限度地提高潛在效益。

有哪些障礙?

人工智能(和超級智能)與其他程式的不同之處在于,它能夠學習新的行為,調整自己的表現,并在新情況下半自動地行動。

讓人工智能變得"安全"的一個問題是,随着能力的增強,超級智能生物可能做出的決定和出現的失誤是無限的,是以存在無限多的安全問題。僅僅預測不可能出現的問題并在安全更新檔中加以緩解可能還不夠。

同時,揚波爾斯基解釋說,人工智能無法解釋它所做出的決定,和/或我們無法了解所給出的解釋,因為人類不夠聰明,無法了解所實施的概念。如果我們無法了解人工智能的決定,而我們隻有一個"黑盒子",那麼我們就無法了解問題,也無法降低未來發生事故的可能性。

例如,人工智能系統已經開始負責在醫療保健、投資、就業、銀行和安全等領域做出決策。這些系統應該能夠解釋它們是如何做出決定的,特别是要證明它們沒有偏見。"如果我們習慣于不加解釋地接受人工智能的答案,基本上把它當作一個甲骨文系統,那麼我們就無法判斷它是否開始提供錯誤或操縱性的答案"。

控制不可控因素

揚波爾斯基解釋說,随着人工智能能力的增強,它的自主性也在增強,但我們對它的控制卻在減少,而自主性的增強就是安全性降低的同義詞。

例如,為了避免擷取不準确的知識,消除程式員的偏見,超級智能可以忽略所有這些知識,從頭開始重新發現/驗證一切,但這也會消除任何有利于人類的偏見。

"智能較低的代理(人)無法永久控制智能較高的代理(人工智能)。這并不是因為我們可能無法在所有可能設計的廣闊空間中找到超級智能的安全設計,而是因為不可能有這樣的設計,它根本不存在。"他解釋說:"超級智能不是在反抗,而是一開始就無法控制。人類正面臨着一個選擇,我們是要像嬰兒一樣,被照顧但無法掌控,還是要拒絕有一個有用的監護人,但保持掌控和自由"。

他認為可以找到一個平衡點,在這個平衡點上,我們可以犧牲一些能力來換取一些控制權,但代價是為系統提供一定程度的自主權。

統一人類價值觀

一種控制建議是設計一種能精确執行人類指令的機器,但揚波斯基指出,這種機器有可能出現指令沖突、誤解或惡意使用的情況。

他解釋說"人類控制可能會導緻沖突或明顯的惡意指令,而人工智能控制則意味着人類不控制"。

如果人工智能更多地充當顧問的角色,它就可以避免誤解直接指令和潛在惡意指令的問題,但作者認為,要讓人工智能成為有用的顧問,它必須有自己的優越價值觀。

"大多數人工智能安全研究人員都在尋找一種方法,讓未來的超級智能與人類的價值觀保持一緻。價值對齊的人工智能顧名思義會有偏差,親人類的偏差,無論好壞仍然是一種偏差。價值對齊型人工智能的悖論在于,一個人明确指令人工智能系統去做某件事情,可能會得到"不"的答複,而人工智能系統則會努力去做這個人真正想要做的事情人性要麼得到保護,要麼得到尊重,但兩者不可兼得。"

将風險降至最低

為了最大限度地降低人工智能的風險,人工智能必須具有"撤消"選項、可修改性、透明性,并易于用人類語言了解。揚波爾斯基建議,所有人工智能都應分為可控和不可控兩類,任何東西都不應被排除在外,并應考慮有限度地暫停,甚至部分禁止某些類型的人工智能技術。

"這反而是一個理由,讓更多的人去深入挖掘,加大力度,為人工智能安全和保安研究提供資金。我們可能永遠無法實作百分之百安全的人工智能,但我們可以通過努力使人工智能變得更加安全,這比什麼都不做要好得多。我們需要明智地利用這個機會。"

編譯來源:ScitechDaily