天天看點

不造AI殺人武器當然好,但牛津學者覺得馬斯克們忽略了重點

上個星期,馬斯克 (Elon Musk) 剛剛帶領一衆AI專家,簽訂了一份承諾書。

内容是,永不開發自主殺人武器 (Lethal Autonomous Weapon Systems)。

理由有二。一,不該把生殺大權交給機器。二,緻命AI武器的存在,會讓國家和個人承受危險的動蕩。

不造AI殺人武器當然好,但牛津學者覺得馬斯克們忽略了重點

意圖自然是好的,但牛津大學的學者Mariarosaria Taddeo (簡稱瑪利亞) 說,他們忽略了一個重點。

而且,把萬衆目光集中在“AI殺手”上,人們就更難注意到那個重點了。

表面“靜止”

智能機器人統治世界,支配人類,這樣的極端場景,的确非常吸引眼球。

但那并不是AI技術唯一的隐患。

美軍曾經把AI分成兩種:一是移動的 (AI in Motion) ,二是靜止的 (AI at Rest) 。

前者表示依托于實體機器人的AI,後者表示僅僅存在于軟體系統的AI。

美國海軍有自動駕駛的軍艦,以色列有自主識别、打自主擊目标的無人機,這些軍用裝置裡的AI,是移動型。

但戰争并非隻有硬碰硬,比如,網絡世界 (Cyber Space) 就從不和平。

瑪利亞覺得,後者才更需要重視,“靜止”也不代表不危險。

暗潮洶湧

網絡世界裡,大大小小的國際争端,可能每天都在發生。

今年3月,美國譴責了俄羅斯,說對方幾個月來,一直攻擊美國關鍵的基礎設施。

這樣的話,事情就不像WannaCry搶比特币那樣簡單。

如果,有人能利用AI,造成全國範圍的停電,或者供暖系統癱瘓,就可能導緻非常嚴重的後果。

不造AI殺人武器當然好,但牛津學者覺得馬斯克們忽略了重點

△停電不是小事

雖然,還沒有發現AI直接造成實體傷害的事件,但不代表以後也不會有。畢竟,AI正在飛速普及。

瑪利亞說,社會的運轉越依賴AI,系統之間的沖突越可能帶來實體傷害。

AI與AI之間,有了自主打擊、自主防禦行為,就算沒有實體機器人,局面還是可能失控。

一線之隔

現在,許多國家都在建立自己的AI網絡防線。

瑪利亞說,“網絡軍備競賽 (Cyber Arms Race) ”可能就要開始了。

可是,防禦與攻擊,僅一線之隔。

不造AI殺人武器當然好,但牛津學者覺得馬斯克們忽略了重點

現在,國際上依然沒有法規,能夠規範網絡防禦 (Cyberdefence) 行為。

早在2004年,聯合國就成立了資訊安全政府專家組 (Group of Governmental Experts on Information Security) ,目的便是達成共識,用統一的法條來規範各國在網絡空間裡的行為。

然而,會開了很多次,共識到今天都沒有達成。

不造AI殺人武器當然好,但牛津學者覺得馬斯克們忽略了重點

今年4月,瑪利亞的一篇文章在Nature上發表。她寫道,網絡防禦要三步走——

第一步,劃定法律界限。

第二步,在友好邦國之間,測試防禦政策。

第三步,建立監管機制,強化法規執行。

她給每一步,都描繪了一些合理的設想。

不造AI殺人武器當然好,但牛津學者覺得馬斯克們忽略了重點

不過,還不知道這個世界,哪天能走出第一步。

Nature文章傳送門:

https://www.nature.com/magazine-assets/d41586-018-04602-6/d41586-018-04602-6.pdf

原文釋出時間為:2018-07-24

本文來自雲栖社群合作夥伴“

量子位

”,了解相關資訊可以關注“

”。

繼續閱讀