天天看點

福布斯技術委員會:如何「負責任的」搭建人工智能系統

作者:新浪VR

自AI蓄勢爆發以來,人工智能(AI)正在改變商業格局。有資料表明,越來越多的風險投資正在向生成式人工智能項目注入資金,企業對人工智能的投資也達到曆史最高水準。Forrester曾在2022年預測,未來兩年人工智能軟體市場的增長速度将比整體軟體市場快50%。然而,這種炒作與對人工智能對人類潛在風險的嚴重擔憂密切相關。

人工智能‘狂野西部時代’終結的起點

盡管OpenAI的ChatGPT的興起引發了人們對使用和投資生成式AI的興趣,但這一現象背後也并非沒有謹慎和警告。人工智能已經從之前的重大技術進步中脫穎而出——與同樣得到廣泛投資和采用的雲計算、VR、AR、移動和5G技術不同,人工智能為各公司和行業提供了無數的用例和無限的可能性。但這使得預測和管理其帶來的大量風險及其對個人、公司和社會的潛在影響變得困難,比如最近影響了好萊塢的罷工事件,其中不乏AI所帶來的問題的影響。

福布斯技術委員會:如何「負責任的」搭建人工智能系統

針對此類問題的解決方案是創造行業内共同認知并規範人工智能,尤其對人工智能系統的道德、透明和值得信賴的開發部署加以規範——馬斯克的xAI似乎正準備把這一目的當成其AI系統的準則。當然,理想的情況下,負責任的人工智能有助于提高可信度,使得人們在日常生活中與之互動的人工智能不會永久存在偏見和“政治正确”,算法會在人類監督下定期進行稽核,并且這一設計和實施方式應當易于了解。然而,現實情況是,對于這種看似完美的解決方案,人們可能很難知道從哪裡着手開始進行。

應對複雜的人工智能風險形勢

在以負責任和道德的方式開發和部署人工智能之前,了解人工智能開發不同類型的風險,以及如何解決這些風險是非常重要的,針對AI系統,福布斯技術委員會提出了以下幾種需要注意的風險類型。

隐私風險。人工智能需要通路大量資料來學習和提高其性能,其中可能包括個人資訊和敏感資訊。個人資料的濫用或處理不當可能會導緻資料洩露、身份盜竊和其他損害——侵犯隐私權。

道德風險。道德問題圍繞偏見和歧視、透明度和問責制以及人工智能對就業和社會的影響。随着人工智能越來越多地用于決策,確定結果公平和準确的風險變得越來越大。

福布斯技術委員會:如何「負責任的」搭建人工智能系統

合規風險。全球範圍内正在提出一些新的法規,例如歐盟的人工智能法案,該法案将要求組織披露他們如何使用、治理和管理人工智能。組織需要對模型的使用方式、模型的訓練方式、使用的資料等的整個流程進行密切的管理和記錄。

透明度和信任風險。人工智能模型可能很複雜且難以了解,是以很難了解它們如何做出某些決策或預測。随着人工智能采用率的飙升,算法将在人們的生活中發揮強大的(并且可能有害或有偏見的)作用。透明度(或缺乏透明度)将極大地影響人們對人工智能公司和行業的信任程度。

操作風險。使用人工智能可以産生新的依賴關系,嚴重依賴人工智能系統的企業,在沒有人工智能系統的情況下可能缺乏有效營運的能力。如果人工智能系統發生故障或受到損害,或者監管變化認為該系統無法使用,這可能會引發重大的業務連續性風險。

建構信任和安全層

為了安全、負責任地使用人工智能,首先要從文化入手。

一旦組織了解了與人工智能相關的不同風險,他們就可以制定和實施全面的人工智能戰略,和負責任的人工智能架構。團隊和利益相關者之間的協作和開放溝通是組織内負責任地采用人工智能的關鍵。

而為了確定對整個組織的有效支援,利益相關者需要從教育和提升最高管理層的人工智能素養開始。

福布斯技術委員會認為,主要利益相關者、董事會成員和高管都應參與開發負責任的人工智能方法,以滿足業務創新、規模化和展示影響力的需求,同時支援內建隐私、道德、營運、透明度和合規性考慮因素的強大的負責任的人工智能架構。

福布斯技術委員會:如何「負責任的」搭建人工智能系統

同時,有效管理人工智能風險需要的不僅僅是文化認同;組織需要確定全新的可見性水準,涵蓋人工智能可能在整個業務中使用的許多不同領域。除非組織能夠識别人工智能在其業務中的每一個應用,否則負責任的人工智能就無法完全實作。

将人工智能內建到現有的資料管理計劃中。

資料既可以是組織最大的資産,也可以是最大的威脅,這一觀點往往側重于,不負責任地使用資料時,所産生的潛在隐私和安全風險。對于人工智能來說尤其如此,因為組織利用人工智能實作差異化的能力取決于資料集的品質。

同樣,如果機器學習平台中使用的資料是個人資料或敏感資料、未經同意使用或可能産生偏見,公司将面臨一系列隐私、道德或合規風險。

這就是為什麼,公司必須確定将其人工智能計劃中使用的資料內建到其現有的資料治理和風險管理計劃中,這一點至關重要。通常,人工智能的資料并不隻屬于一個團隊,相同的資料正在整個企業的其他地方使用。然而,人工智能程式往往存在于“孤島”中。

福布斯技術委員會指出,通過将負責任的人工智能程式內建到現有的大型資料管理計劃中,組織可以確定将正确的隐私和安全政策,以及安全和控制措施應用于人工智能資料集和模型。随着人工智能成為戰略重點,這種做法也增強了關鍵隐私、安全、資料科學和MLOps團隊對人工智能的廣泛認識。

而通過将人工智能納入更廣泛的資料管理計劃中,組織可以有效地管理風險、并確定人工智能的使用符合道德規範和必要的标準和法規。

繼續閱讀