天天看點

從達拉斯事件看機器人武器的倫理困境:我們恐懼的到底是什麼?

當地時間 7 月 7 日,大批群眾聚集在達拉斯市中心,為在明尼蘇達州和路易斯安那州發生的兩起非裔男子被警察槍殺的案件「Black Lives Matter」遊行抗議。20 時 45 分左右,遊行隊伍行進至 Lamar 大街和 Main 大道時突發槍擊,人群立刻分散各處尋找掩護,場面一度混亂。現場警車與直升機轟鳴,全副武裝的執法人員在現場。有群眾表示,至少聽到 30 聲槍響。

這一針對警方的暴力事件導緻 5 名警察死亡、7 名警察受傷。當地警方稱,槍手 Micah Xavier Johnson 今年 25 歲,是一名榮民,作案動機很可能是因為對「警方對黑人的暴力執法」不滿。

這一事件過程中,槍手和警方進行了數小時的對峙。最終,達拉斯警方将 1 磅 C4 炸藥安裝在機器人的機器臂上,然後通過遠端控制的方式讓機器人接近嫌犯後引爆了炸彈,炸死了嫌犯。

從達拉斯事件看機器人武器的倫理困境:我們恐懼的到底是什麼?

所謂的「警察使用機器人殺人事件」迅速引發各大媒體關注。大衆态度可謂喜憂參半。

大多數人表示,警方及時止損,成功防止了更大悲劇的發生。「我認為,我們所有人在第一時間裡應該感到如釋重負,」美國科學技術中心主管 Michael Kalichman 說,「......我們能夠确定的是這次行動讓一個原本會造成更大損失的悲劇提前結束了。......」也有達拉斯人在 Medium 上撰文表示,達拉斯警方處理得當。

不過,慶幸成功避免更大悲劇的同時,隐憂和質疑也如影相随。警方的做法是否合理?是否意味着警察軍隊化的開始?

是否合法合理?

美國警方使用機器人已經有很長時間了。大衆之是以會有這樣的疑問,原因在于這次使用機器人的行為與以往經驗不同。

過去,警方主要讓機器人從事相對中立(中性)行為,比如,給嫌疑犯、人質或其他人員傳遞物品,或者用于分散對方注意力,與嫌疑犯交流等。去年,一把持有匕首的嫌疑犯威脅要跳下大橋(位于加州聖何塞),警方通過機器人給對方送去手機和匹薩,讓其冷靜下來,随後成功将其拘捕。2014年12月,阿爾伯克基警方使用機器人部在一間汽車旅館的房間裡部署化學武器,房間裡持有槍支的嫌疑人最後繳械投降。

但在這次事件中,機器人被直接用于剝奪對方生命,也是美國警方首次使用機器人載爆炸物,開了「先例」。人們自然而然會擔憂,其他警察局會否效法這種行為?正如 Michael Kalichman 所言,「我們還是不得不思考這種事情會不會在别的地方再次發生。」

不過,無論是警方還是刑事法律專家、機器人技術專家都認為,警方行為合法。關鍵理由:人類始終牢牢支配着機器人,或者說,這個機器人載爆炸物并非自主型武器。

新南威爾士大學的人工智能教授 Toby Walsh 反對将這次事件視為科幻小說噩夢般場景的實作,他說:很簡單,機器人仍然是受人類遠端控制的。這和遠端遙控飛行在伊拉克、巴基斯坦或其他地區上空的殺人無人機沒什麼兩樣。「人類仍然掌控着機器人,這是件好事。」

卡耐基梅隆大學的機器人技術教授 Red Whittaker 認為,事實上,機器人不過一個工具而已。具備這些功能的工具已經存在好多年了。遠端控制——無異于扣動扳機或者扔手榴彈或者其他可能的行為。

與學界觀點稍有不同,警方更多強調對警員安全的維護:面對緻命危險,警察沒有義務将自身置于險境。本質上,這和讓狙擊手從遠處射擊并無不同。

「我們沒有其它選擇,隻能使用我們的炸彈機器人,我們将一個裝置放在了它的擴充部分,然後在目标位置引爆。」達拉斯警察局長 David Brown 在事件後一天的新聞釋出會上說,「其它選擇會将我們的警員暴露在緻命的危險中。」

達拉斯市長 Mike Rawlings 在上周五告訴記者,他知道未來再次遇到這種情況時警方還是會采取這種措施,但是它隻能被當做「最終手段」。「關鍵是讓警察從傷害中脫離出來,」他說。

之後在接受 CNN 采訪時他又表示槍手—— 25 歲的前陸軍預備役士兵 Micah Xavier Johnson 有「聰明的頭腦,下定決心要傷害更多警員。如果沒有我們的行動,他就會傷害更多警員。是以,在我看來,我們别無選擇,隻能使用所有必要的工具來終止這場對峙。」

警方軍隊化?執法還是戰争?

有觀點表示,警方的任務是執法,不是宣戰,是否需要這種軍隊化的裝備?或許,這個問題應該置換成:如果犯罪嫌疑人的攻擊力越來越強,執法手段是不是也應該與時俱進?

據報道,這個機器人由軍火商諾斯洛普·格魯門公司制造,常被警察、軍隊和世界各地的緊急事件處理人員用來處理遠端拆彈等任務。該機器人使用輪子前進,重量大約為 220 千克,配備了多種傳感器和一個帶吸盤的機器臂。其型号為 Remotec F5。類似的遙控四輪驅動機器人早就被美軍和美國警察部隊廣泛改裝并用于拆彈任務或其他維持和平的任務。

警方的裝備更新淵源,可溯及上世紀 80 年代。當時,由于美國毒品犯罪猖獗,毒枭火力強悍,美國國會通過了一個「美軍 1033 計劃」,授權美國警察部隊向美國軍隊購買多餘的武器。是以,達拉斯警察依據該法案向軍方購買了 Remotec F5、MARCbot IV 等多款爆炸拆除機器人。

稍作深入思考,我們不難了解上述現象:驅動軍事技術演化的首要因素就是救命,或者說,風險減少。讓機器為人類上刀山、下火海,将傷亡降至最低,這裡的風險可以延伸至來自犯罪嫌疑人的緻命攻擊。達拉斯警方購買、使用裝備的行為,不僅合法,也是軍事技術演進使然。

曾擔任 LAPD SWAT 助理指揮官(assistant unit commander)長達十三年的退休警官 Ron McCarthy  坦言,這些機器很友善很有用,在這次事件中使用這些武器很完美。如果有人威脅到公民或者警方,我們不會讓警員冒生命危險。

密蘇裡-聖路易斯大學的犯罪學家  David Klinger 分析地很清楚,「法律并不區分各種傳遞緻命武器的系統種類。如果警員可以射擊犯罪嫌疑人,他們就可以使用其它任何緻命武器,這是合理的。如果你能射擊某人,或者可以碾過嫌疑人,我留意過有幾次警方還使用了燃燒彈,為什麼不能合法使用爆炸裝置?」

真正的難題:自主型系統

從達拉斯事件看機器人武器的倫理困境:我們恐懼的到底是什麼?

這次事件的發酵與奪人眼球,主要源自美國由來已久的沖突(白人警察與黑人平民),或者說,更多的是一個社會文化問題。

達拉斯市所面臨的種族問題卻無可回避。作家 Albert Samaha 在 BuzzFeed 上寫道:

這座城市……涉及警方的槍擊事件已經減少了。從 2010 年到 2014 年,達拉斯警方共射殺了 34 人——其中超過一半是黑人——人均比率比休士頓、芝加哥、洛杉矶和紐約都高。

目前的報道并沒有增進我們對基于人工智能的自主型系統(包括武器)難題的思考。比如:

1.失靈。自主機器決策導緻相關死亡事件。今年 5 月份,佛羅裡達一位特斯拉 Model S 車主在使用「Autopilot」自動駕駛功能時發生事故死亡。特斯拉公司在調查原因後在部落格寫道:「在光線過于強烈的環境下,無論是自動駕駛系統還是駕駛員都未能及時察覺前方拖車的邊緣,是以未能施加制動。在極為罕見的情況下,拖車高度與其在馬路當中的位置造成特斯拉 Model S 直接撞進了拖車底部。」

2.道德兩難。自動駕駛系統是否應該不惜一切代價來保護它們的乘客?還是應該通過程式設計選擇犧牲乘客,進而保護他人?近期《科學》雜志網絡版報告指出,盡管一些人争論道,自動駕駛汽車控制的道路會更安全,但提供這種安全性的特有程式設計也許會阻止它們最終上路。

3.濫用。2015年,科技媒體 The Intecept 刊登了一份檔案,詳述了NSA的天網計劃(SKYNET programme)。根據檔案顯示,這項計劃旨在大規模監控巴基斯坦行動電話網絡,然後使用機器學習算法分析5500萬使用者移動網絡中繼資料,并試圖評估每個人成為恐怖分子的可能性。然而,根據這種機器學習程式,最高得分目标是 Ahmad Zaidan,他長期擔任半島電視台駐伊斯蘭堡的總編輯。

4.歧視。算法和資料驅動的産品總會反映設計者本身的設計選擇,假設這些歧視不存在是不負責任的行為。有證據表明線上購物,以及預設為由中立算法驅動的定價政策中都存在歧視。另外一項研究中,哈佛教授 Latanya Sweeney 分别搜尋了白色人種兒童(Geoffrey, Jill, Emma)和黑色人種兒童(DeShawn, Darnell, Jermaine)的常用名字,她發現,80%的「黑色」姓名搜尋旁邊推送的 Google AdSense  廣告會出現「逮捕」字樣,而「白色」姓名搜尋中該資料低于30%。

5.控制。随着技術的進步,自動化程度更高的機器人也出現了。自主殺人機器人的正式稱呼是「緻命自主武器系統(LAWS)」。從已經公開的消息看,至少中國、美國和俄羅斯已經在從事這方面的研究了。比如,美國海軍艦載的「密集近防禦系統」(Phalanx)。前段時間,

美國的一款人工智能系統甚至在模拟空戰中擊敗了人類戰術專家

。而環球網也曾報道:

中國、俄羅斯和美國正緻力于可以獨立執行軍事行動的自動化機器人。美國國防部常務副部長羅伯特•沃克發表聲明稱,五角大樓有落後的危險。他稱:「我們知道中國已經在機器人和自動化領域進行了巨大投資。」俄羅斯國防部第一副部長兼武裝力量總參謀長格拉西莫夫大将稱:俄羅斯也将打機器人戰,在不久的将來,俄羅斯有可能開發出完全機器人化的部隊獨立完成軍事任務。

誰該為這些自主系統的行為負責?如何給自動化程度更高的人工智能系統安置一個「紅色按鈕」?

6.劃分防禦/攻擊。最近,軍火商開發出了首個攻擊性自助武器。以色列航空工業公司的「哈比和哈洛普」無人機可自動追蹤敵方航空系統的無線電發射,并通過撞擊摧毀目标,該公司表示,無人機「已經銷往世界各地。」

問題是,如果使用智能武器,那麼,傳統的自衛與侵犯之間的界限也将難以維系。

加利福尼亞大學伯克利分校的的人工智能專家 Stuart J. Russell 是禁止自主化武器運動的領袖,他說,人們需要搞清楚界限劃在哪裡,我們應該站在這條界線的正确一邊。「總的說來,清晰界分進攻和防衛性武器,對此,我沒有信心。」

華盛頓的政策組織、新美國安全中心(New American Security)的武器分析員Paul Scharre 說,「如果界限很容易劃清,國家早就同意研發『防禦型』武器了。」

回避不了的難題

《華盛頓時報》報道,達拉斯警察局局長 David Brown 在上周日為其使用緻命機器人殺死槍殺警察的犯罪分子的決定進行了辯解,他說下一次遇到這種充滿不确定性的危險情況時還會使用類似的緻命機器人。「是我下的決定。在相同的情況下我還會作出此決定,」Brown 局長對 CNN 說。

達拉斯市長 Mike Rawlings 也對警方的行動表示了支援,他說他為警方感到「驕傲」。

不過,減少風險的人類本能(想想霍布斯吧)和軍事經費不僅會繼續推動軍事技術的演化,也會推動軍事技術向執法機構流動。總有一天,上面所有自主型武器問題,也是警方需要面對的難題。 「驕傲」、「在相同的情況下我還會作出此決定」這樣的回答也不再能滿足大衆的要求。

繼續閱讀