天天看點

無代碼AI開發平台真香?AI研究員指責訓練模型存在偏見

無代碼AI開發平台真香?AI研究員指責訓練模型存在偏見

新智元報道

編輯:LRS

【新智元導讀】無代碼AI開發平台,一行代碼都不用寫就能訓AI模型!但倫敦瑪麗女王大學的AI研究員卻警告到:這類平台可能會讓訓練後的模型産生偏見,而使用者可能完全不知道。開發商對此番言論表示很有意見:使用者資料的鍋,我們不背!

随着人工智能技術的不斷發展,AI在各大公司内部也開始掀起一場技術革命。

AI Journal的報告指出,各大公司的高管普遍認為AI能夠讓業務流程更加高效,并且有助于建立新的業務模式和産品,例如在普華永道,86%的上層決策者認為AI在公司内部已經算是主流技術了。

各個公司都需要資料科學的相關專家人才分析資料,但AI驅動的技術趨勢來的太快,導緻市場還沒跟上這波節奏。

無代碼AI開發平台真香?AI研究員指責訓練模型存在偏見

是以無代碼的AI開發平台應運而生。

顧名思義,無代碼AI開發,就是不用寫代碼也能開發AI應用程式。這類工具能夠抽象出建構一個完善的AI系統所需要的各種複雜子產品,然後通過可視化的方式,讓非資料科學的專家也能夠根據不同的市場需求開發出一個機器學習模型。

實際上不光是無代碼AI開發,正常的應用程式開發趨勢也是無代碼開發,著名的IT咨詢公司高德納(Gartner)預測,到2024年,65%的AI應用開發都将采用無代碼或低代碼的開發方式。

但是将資料科學工作抽象出來實際上是有風險的,因為非專家并不清楚模型的底層運作邏輯,是以模型能做什麼、不能做什麼、存在哪些缺陷都容易在無代碼開發的過程中被忽略掉。

無代碼AI開發平台

比較有名的無代碼人AI開發平台包括 DataRobot、谷歌 AutoML、Lobe(微軟于 2018 年收購)和 Amazon SageMaker 等,這些工具為最終客戶提供的模型類型各不相同,但有一點是相同的,那就是提供拖放式的儀表盤,允許使用者上傳或者導入資料來訓練或者微調模型,并且能夠自動對資料進行分類和歸一化,平台也可以根據客戶提供的資料和預測來自動找到一個最佳的模型來适配這些任務。

無代碼AI開發平台真香?AI研究員指責訓練模型存在偏見

預處理資料、尋找模型等任務在傳統意義上都需要由資料科學家進行指導才能完成的,但如果把這些子產品抽象出來,然後通過各種方式自動尋找最佳方案,那就可以大大減輕公司對專業資料科學家的需求。

通過使用無代碼 AI 平台,使用者可以将資料電子表格上傳到界面,從菜單中進行選擇,然後啟動模型建立(model creation)。

平台會根據上傳的資料,訓練不同的模型發現文本、音頻、圖像、視訊中的模式(pattern),一個公司内部的常見的任務就是分析銷售記錄和營銷資料,對未來的銷售情況進行預測。

這麼一看,無代碼開發工具簡直是太友善了!相比程式員在電腦面前頭秃改bug,無代碼開發在可通路性、可用性、速度、成本和可擴充性方面明顯的優勢。你需要的東西,資料專家已經幫你封包完成,剩下的就是根據具體的應用場景來訓練模型進行預測。

但天下沒有免費的午餐,所有的捷徑在暗中都标注好了價格。

倫敦瑪麗女王大學(Queen Mary University of London)的人工智能研究員 Mike Cook 指出,雖然大多數平台都在「暗示」客戶應對其模型中的預測錯誤負責,但這些工具在宣傳上可不是這麼說的!

他們一直在強調自己有多麼智能,可能會導緻人們不再關注調試和審計模型的重要性。

無代碼AI開發平台真香?AI研究員指責訓練模型存在偏見

「這類AI工具都有一個共同點,就像與人工智能熱潮有關的所有事情一樣,它們看起來和聽起來都很嚴肅、官方和安全。是以,如果他們告訴你使用這種新模型,你的預測準确率可以提高20%,那麼除非他們告訴你,否則你可能不會去問為什麼模型性能提高了。這并不是說你更有可能建立有偏見的模型(biased models),而是說你可能根本沒意識到模型存在這類問題,而這個問題在實際應用中可能很重要。」

這一現象就是所謂的自動化偏見(automation bias),人們傾向于信任自動化決策系統的預測結果。

2018年微軟研究院的一項研究結果表明,如果機器學習模型的内部實作原理對于使用者來說是過于透明的,那對于AI模型的「迷之自信」可能會适得其反。

無代碼AI開發平台真香?AI研究員指責訓練模型存在偏見

2020年,密歇根大學和微軟研究院又發表了一篇論文,表明即便是專家也傾向于過度信任可視化後的模型概述,即便這種圖表可視化可能是毫無數學意義的。

無代碼AI開發平台真香?AI研究員指責訓練模型存在偏見

其實想想也正常,誰不愛看論文裡的圖呢?如果你畫了一個精美的圖,那你的結果可信度也會直線上升。

圖像的偏見問題在計算機視覺領域中尤其嚴重,CV模型在接收訓練圖像的過程中極易受到偏差的影響,即使背景的變化也會影響模型的準确性,甚至不同相機拍出來的照片對準确率也有影響。如果資料集類别不平衡的話,那偏見影響可能會更嚴重。

自然語言模型也已被證明存在偏見,如果訓練語料來自Reddit的文章内容,那訓練後的模型對種族、民族、宗教和性别方面的偏見将更嚴重,例如黑人可能與負面情緒的相關性更大。

開發商怎麼說?

雖然模型的偏見是事實存在的,但供應商對此的感覺和研究人員卻大有不同。

無代碼AI平台Akkio的聯合創始人Jonathon Reilly表示,任何建立模型的人都應該懂得一個道理:輸入的資料品質越好,模型的預測效果就越好。

雖然他承認無代碼AI開發平台有責任讓使用者了解模型是如何做出決策的,但他認為資料的偏見問題則是使用者的責任。

無代碼AI開發平台真香?AI研究員指責訓練模型存在偏見

「消除模型預測中偏見的最好方式就是在輸入資料中消除偏見,這樣模型就不會從資料中學到不需要的資料模式了。消除資料偏見的最佳人選通常是主題專家(topic-matter expert),而非資料科學家。」

無代碼計算機視覺初創公司Cogniac創始人Bill Kish同樣認為,偏見是資料集問題而非工具問題。偏見通常反映了現有的人類觀念問題,平台可以減輕偏見但沒有責任完全消除資料中的偏見。

「計算機視覺系統中的偏見問題是由于人類管理的基本事實(ground truth)資料本身就存在偏見。Cogniac可以充當管理視覺資料資産的記錄系統,可以輔助專家來找到資料中存在的偏見問題,并通過互動方案來解決。」

考慮到使用者訓練模型的資料通常都是自己提供的,Bill認為是以把鍋完全甩給開發商,我們是不認的。

還有一個事實是模型偏見不僅僅來自訓練資料集。

2019 MIT Tech Review中指出,一些公司采用的AI模型可能在一些應用場景(例如信用評估)上存在潛在的不公平、歧視問題,在資料準備或者模型選擇階段都可能引入這種偏差,進而影響預測準确率。

無代碼AI開發平台真香?AI研究員指責訓練模型存在偏見

無代碼平台的開發商目前已經開始着手解決模型偏見問題。

DataRobot 有一個謙遜度(Humility)設定,能夠在模型性能好到「不可思議」的程度時,提醒使用者是不是資料出了問題,及時采取糾正措施,例如指定一個預測範圍,超出範圍就給截斷等。

但目前來說,這些去偏見(debiasing)的工具和技術能力仍然是十分有限的,如果不了解偏見産生的可能性和原因,模型中出現問題的可能性就會增加。

Reilly 認為,開發商的應該做的事就是提高使用者認知、模型透明度和可通路性,同時推動一個明确的監管架構(regulatory frameworks)。使用AI模型的企業應該能夠很容易地指出模型是如何通過AI開發平台的支援證據做出決策的,讓使用者對訓練好的模型的道德和法律影響充滿信心。

一個模型需要達到多好的程度在現實世界中才有應用的價值取決于「具體的任務」,是以不必盲目追求準确率而引入資料偏見。

參考資料:

https://shimo.im/docs/XKgDJGwVx6dHgvvQ

繼續閱讀