天天看點

什麼是AI透明度,為什麼我們需要它?

什麼是AI透明度,為什麼我們需要它?

雖然雖然越老越多的企業組織在使用AI技術,但許多企業對它的工作方式尚無清晰的了解。本文中,我們探讨了AI缺乏透明性的利弊。

當基于規則的軟體程式設計不再能夠解決計算世界想要解決的問題時,現代AI誕生了。我們不可能對程式必須測量的所有條件進行編碼,是以計算專家設計了模仿人類思維方式的機器,進而使AI能夠通過觀察資料自行學習。這種稱為神經網絡的方法催生了AI技術,例如人臉識别程式、癌症檢測算法和自動駕駛汽車。

但是神經網絡帶有一個折衷之處:我們無法了解系統的工作方式,AI模型缺乏透明度。這種現象被稱為黑匣子AI,事實證明這是個問題,而且可能是嚴重的問題。

黑盒AI的權衡

AI通常以準确性百分比來衡量,即系統在多大程度上能夠給出正确答案。根據手頭的任務,所需的最低精度可能會有所不同,但是即使是99%的精度也不能成為AI值的唯一度量。我們還必須考慮到AI的主要缺點,尤其是在将AI應用于商業中時:具有近乎完美準确性的AI模型也可能會出現問題。

随着模型準确性的提高,人工智能解釋其得出某個答案的原因的能力下降,這使企業必須面對的一個問題是:缺乏模型的AI透明度,是以,我們人類無法信任其結果。因為,我們可能完全不知道到最終算法底會進化成什麼樣,是否會造成嚴重的後果,一切皆有可能。

黑盒問題在AI技術的早期階段可以接受,但是當發現算法偏差時就失去了它的優點。例如,經過開發的AI可以根據種族對喪失工作能力的人進行分類,而用于銀行業務AI根據性别篩選不合格貸款申請者。 AI接受訓練的資料并不平衡,無法包含各種人的足夠資料,人類決策中存在的曆史偏見也傳遞到了AI算法模型中。

AI還表明,近乎完美的模型仍可能犯下令人震驚的錯誤。精度為99%的AI模型可能會為剩餘的1%産生誤差,例如将停車标志分類為限速标志。猶如,千萬人級别人口的大城市,1%的數量也不容小觑。

盡管這是錯誤分類或資料量不足的一些最極端情況,但它們仍然突顯了AI算法存在缺陷的可能性。人工智能遵循一種模式來得出答案,其神奇之處在于,它在超越人力的情況下表現出色。出于相同的原因,模式中的異常更改使模型容易受到攻擊,這也是我們需要AI透明度的原因,我們需要知道AI如何得出結論。

特别是,當使用AI進行關鍵決策時,必須了解算法的推理過程與邏輯關系。旨在檢測癌症的AI模型(即使錯誤率僅為1%)也可能威脅生命。在這種情況下,人工智能和人類需要一起協同工作,并且當人工智能模型可以解釋其如何達成某個決定時,任務将變得更加容易。 AI的透明度使其成為團隊合作者。

從法律的角度來看,有時透明是必要的步驟。

資料分析行業思想上司者Piyanka Jain說:“一些受監管的行業,例如銀行,都将模型的可解釋性作為在模型投入生産之前獲得合規和法律準許的必要步驟。”

其他案例涉及GDPR或《加利福尼亞消費者隐私法》,其中AI處理私人資訊。AI軟體公司 Stradigi AI首席科學官兼聯合創始人Carolina Bessega說:“ GDPR的一個方面是,當使用個人私人資料的算法做出決定時,人類有權提出該決定背後的原因。”

看來AI透明性有很多好處,但是為什麼所有的算法都不透明?

人工智能透明度不足

就像可以解釋如何實作某個決策的算法一樣,它也可以按比例變得更容易被黑客入侵。

通過了解AI的推理,黑客将可以更輕松地欺騙算法。 “在欺詐檢測中不鼓勵AI透明,” Jain解釋說。 “我們希望更少的人知道我們如何抓到欺詐行為-網絡安全方面也是如此。總的來說,當我們試圖使用AI來抓捕壞人時,我們希望更少的人知道潛在的邏輯,而AI很适合那。”

AI透明度的另一個問題是專有算法的保護,因為研究人員已證明,僅通過檢視其解釋即可盜竊整個算法。

最後,透明算法更難設計,至少暫時而言,它們隻能應用于更簡單的模型。如果必須要具有透明度,那麼它可能會迫使企業群組織使用不太複雜的算法。

如何達到平衡

與其他任何計算機程式一樣,人工智能需要優化。為此,我們要檢視特定問題的特定需求,然後調整通用模型以最适合這些需求。

實施AI時,組織必須注意以下四個因素:

法律需求:如果工作需要從法律和法規的角度進行解釋,那麼除了提供透明度之外别無選擇。為此,組織可能必須訴諸更簡單但可解釋的算法。

嚴重程度:如果要在生命攸關的任務中使用AI,則必須做到透明。這樣的任務很可能不僅僅依賴于AI,是以擁有推理機制可以改善與操作員的團隊合作。如果AI影響某人的生活,例如用于工作應用程式的算法,則同樣适用。

另一方面,如果AI的任務不是很關鍵,那麼不透明的模型就足夠了。考慮一種算法,該算法建議下一個潛在客戶接觸具有數千個潛在客戶的資料庫,交叉檢查AI的決定根本不值得。

通路權限:根據誰可以通路AI模型,組織可能希望保護算法免受不必要的影響。如果可解釋性可以幫助專家得出更好的結論,那麼即使在網絡安全領域,它也可以是很好的。但是,如果局外人可以通路同一資源并了解該算法的工作原理,則最好使用不透明的模型。

資料集:無論何種情況,組織都必須始終努力擁有最好來自盡可能多的來源的多樣化且平衡的資料集。最終,我們将盡可能多地依賴于AI,并且AI僅像訓練過的資料一樣智能。通過清理訓練資料,消除噪聲并平衡輸入,我們可以幫助減少偏差并提高模型的準确性。

原文連結:

http://ai.qianjia.com/html/2020-09/17_370882.html

本文轉載自千家網,本文一切觀點和機器智能技術圈子無關

什麼是AI透明度,為什麼我們需要它?