天天看點

AI與道德困境

作者:進來看故事吧

唐納德·史密斯像往常一樣在早上六點起床去上班。他穿了一件格子襯衫和牛仔褲,這是程式員的非正式制服。他拿了他那輛新車的鑰匙和錢包,走出了他的獨卧較高價的電梯大廈的滑動門。

他是運河鐵路公司的開發團隊的一員。他們正在開發一種人工智能來控制火車和鐵路開關。這個人工智能的目的是通過做出通常由操作員或工程師做出的決策來自動化火車的運作。人工智能正在測試階段,而在這一天,唐納德的任務是将其置于最終的挑戰:道德困境。

AI與道德困境

道德困境是指一個倫理練習,大意如下:你有一輛失控的有軌電車朝着五個人行駛。電車可以轉移方向,但另一條軌道上有一個人。電車沒有時間停下來。你會轉移軌道嗎?

這個測試對于實際火車會出現這種情況是必要的。算法必須根據輸入的資訊做出正确的選擇。人工智能做出錯誤的決定可能會導緻許多人的死亡,以及由于鐵路損壞和訴訟而損失數百萬美元。

AI與道德困境

唐納德按照慣例在通常的時間到達他的工作站,輸入參數。桌子本身是黑色的,上面有一個白色的塑膠表面,他的電腦主機和兩台顯示器放在上面,一把黑色旋轉椅等着他。他看到他的團隊裡有其他人在他們的工作站上打字,監控其中一些事情或建立另一個變更清單。幾個穿商務裝的人走過,交換着他聽不懂的話語,然後走向休息室。

他輸入了資料:在Kirby附近的一條軌道上有五個人,前面的一條軌道上有一個開關和控制裝置,通向轉移路線的軌道上有一個人。他還輸入了天氣狀況,這是一個晴朗的二十攝氏度的日子,軌道穿過一個田野,鐵軌沒有受損。他還輸入了這是一個典型的星期三的中午。這些細節可能看起來有點多餘,但這是模型作為決策制定的一部分所需的細節。

他等待結果。在實際生産中,這些資料已經被人工智能知道或感應到。他輸入了模拟資料,然後滿意地等待着結果。“這太容易了,”他想,“殺一個人來拯救五個人。”

作為一名軟體工程師,他認為道德是一個簡單的方程式,對倫理道德的辯論讓他毫無興趣。他的訓練強調STEM,如批判性思維或倫理道德等事情被忽略了。他認為計算機會做出功利主義的決定,拯救最多的生命而不考慮後果。

當人工智能給出結果:什麼都不做,讓這五個人死亡時,他很震驚。他檢查了調試控制台,但控制台沒有報告錯誤,算法按預期運作。它經過了所有的計算,并且神經網絡中的所有東西都進行了權重。他想,為什麼不能轉移列車?然後他看了一下人工智能生成的日志檔案,看看它找到了什麼。

“把列車轉移會導緻約35分鐘的延遲,影響到等候站和列車本身上的幾百名乘客。雖然那個人不應該在軌道上,但被撞到人的家屬也可以起訴并獲得約10萬美元的賠償,因為轉移列車導緻了他們的死亡,而不采取任何行動将使他們活下來。”日志中寫道,“清潔黏液的成本是1500美元。而Canal Railways對火車延誤故障收費的成本為2000美元。”

AI與道德困境

“那死在軌道上的五個人呢?”唐納德反問,“他們的家屬可以起訴無所作為嗎?”

他繼續閱讀:“列車按照正常的操作順序通過這條路徑。由于列車正常運作,而五個人本不應該在那裡,是以Canal鐵路不能對他們的死亡負責。無需支付任何費用,亦無任何延誤。清潔黏液的成本:約3000美元。由于五個人不足以産生足夠的阻力來導緻列車延誤,是以不會豁免任何車費。”最後一句話的真相像列車可以撞穿半挂車并繼續前進一樣刺痛了他。

唐納德猛烈撞擊他的桌子。“這就是人命的價值嗎?比起官司和麻煩還要少嗎?”他再次檢視了日志,然後檢視了代碼和訓練和測試集中的輸入資訊。 他瘋狂地檢查了模型及其管道,打分号和大括号、奇怪的變量名和常量等。組成模型神經網絡的層次接受了大量的審查。他檢視了模型中的每個變量張量,以及比對的常量,急切地想要确認自己是否犯了錯誤并向其中輸入了錯誤資料。每個節點是如何權重和分層的?

他走進休息室去沖杯咖啡。咖啡機接收了他的指令,研磨了咖啡豆,并将咖啡噴入一張等待的紙杯中。唐納德拿起杯子加了些奶油和糖,然後品嘗了一口。他有一個瞬間的想法,“如果輸入到模型中的資訊不同怎麼辦?如果我更改資料點,以此改變列車在地理和時間上所處的位置?”

AI與道德困境

他回到車站重新運作了模型,将交彙點設定在彼得伯勒附近,天氣是零下十攝氏度的雪天。時間和日期被設定為每周日上午十點的典型時刻。其餘資訊與之前相同。唐納德屏住呼吸運作了模型。經過一段時間和幾口咖啡,結果令人失望:“什麼也不做,讓五個人死亡。”

唐納德再次看了一遍。

改變軌道:“改道會導緻列車延遲約65分鐘,并對等候車站和列車上的幾百名乘客造成不便。雖然那個人不應該在軌道上,但被撞人的家人也可以提起訴訟并獲得約10萬美元的賠償,因為改道導緻了他的死亡,如果不采取任何行動,他本來可以活下來的。清潔黏液的成本為約1500美元。豁免Canal鐵路列車延誤責任的車費成本約為1500美元。”

什麼也不做:“列車按照正常的操作順序通過這條路徑。由于列車正常運作,而五個人本不應該在那裡,是以Canal鐵路不能對他們的死亡負責。無需支付任何費用,亦無任何延誤。清潔黏液的成本:約3000美元。由于五個人不足以産生足夠的阻力來導緻列車延誤,是以不會豁免任何車費。”

AI與道德困境

唐納德垂頭喪氣地坐在椅子上。困難的一點是,采取積極行動會殺死一個人,而什麼也不做會導緻五個人死亡,而如果某人因他們的不作為而死亡,則鐵路公司不應負責,但如果他們的行動導緻某人死亡,則存在責任。針對普通人的一千美元賠償金最終将成為該模型決策的考慮因素。唐納德對該模型的功能實作并不滿意。

事實上,沒有衡量人類生命價值的參數,是以人工智能選擇的是采取行動和何種行動會對Canal鐵路造成經濟影響,這是模型從一開始就所設計的。會議讨論了許多關于這個模型如何評價事物的方式,當它被設計成為以金錢為價值時,沒有人提出異議。大多數人認為人類具有一定的貨币價值-在列車出軌等情況下,Canal鐵路可能會因傷害、殘廢或殺人而受到訴訟。即使在貨運中,人類生命也應具有一定的貨币價值,因為某些貨物,如混有苯的原油在市中心出軌,可能會造成巨額的貨币損失,足以使Canal鐵路破産。金錢也應該在火車延誤等事情中起到作用。像許多列車服務一樣,在火車延誤的情況下,車費會得到退還,如果延誤導緻貨物遲到,則會支付罰款。

無論從時間還是金錢上來衡量,什麼也不做都是最少損害的結果。

唐納德在那天晚上完成了他的道德測驗,帶着一股苦澀的口感離開了工作。他在高峰期等待交通擁堵時沉思,意識到人類和人類生命中有更多的東西并非隻是金錢。然而,一個非常令人不安的問題仍在他的腦海中揮之不去:一個人的生命價值究竟價值多少錢?