天天看點

監管号角吹響,AI大模型資料安全問題何解?

作者:21世紀經濟報道

南方财經全媒體記者 馮戀閣 廣州報道

今日(4月11日),國家網際網路資訊辦公室釋出《生成式人工智能服務管理辦法(征求意見稿)》(以下簡稱“《征求意見稿》”)對生成式人工智能服務提供者及其産品提出了多項規制。

一天前,中國支付清算協會釋出《關于支付行業從業人員謹慎使用ChatGPT等工具的倡議》(以下簡稱“《倡議》”),倡議相關機關不上傳關鍵敏感資訊,包括國家及金融行業涉密檔案及資料、公司非公開的材料及資料、客戶資料、支付清算基礎設施或系統的核心代碼等。

此前,全球範圍内發生了多起因使用ChatGPT導緻的資料洩露事件。意大利、加拿大等國監管機構先後宣布将關注ChatGPT及其背後公司OpenAI帶來的資料安全風險,并将開啟監管調查。

對于近期生成式人工智能引發的資料安全問題,受訪專家建議,應關注人工智能領域的新興監管工具;同時,可以考慮将代表性人工智能公司納入治理體系,同監管機關合作開發與技術發展和市場競争相适應的監管架構。

監管号角吹響

生成式人工智能監管治理的提上日程。

“生成式人工智能服務提供者應對使用者的輸入資訊和使用記錄承擔保護義務。”在今天釋出的《征求意見稿》中,服務提供者的資料保護責任得到了明确。

事實上,在《征求意見稿》釋出前,近期已有多國監管部門表示密切關注 ChatGPT 的引發的資料安全問題。

加拿大隐私專員辦公室(Office of the Privacy Commissioner of Canada,OPC)近日宣布開始調查ChatGPT背後的公司OpenAI,目的是回應一項針對該公司“未經同意收集、使用和披露個人資訊”的投訴。根據公告,由于相關調查仍在進行中,是以目前無法公開更多資訊。

在ChatGPT被接連發現意外洩露使用者聊天記錄後,意大利資料保護局(Garante per la Protezione dei Dati Personali)于3月底宣布将暫時禁用ChatGPT并對該工具涉嫌違反隐私規則展開調查。

随後,法國和愛爾蘭的隐私監管機構表示已經與意大利取得聯系,以了解更多有關該禁令的依據。德國資料保護專員則指出,考慮到資料保護,原則上不排除暫停ChatGPT在德國的使用。西班牙的監管機構也宣稱,雖然暫未收到任何關于ChatGPT的投訴,但不排除未來會進行調查。不過,瑞典的隐私監管機構則表示,沒有計劃禁止ChatGPT,也沒有與意大利的監管機構聯絡。

在對外經濟貿易大學數字經濟與法律創新研究中心執行主任張欣看來,各國不同的監管狀态反映出的是人們對ChatGPT為代表的生成式人工智能,以及未來可能出現的通用人工智能技術伴随風險的擔憂和關注。“風險與潛力并存于人工智能技術之中,雖然技術已經展現出多種強大能力,但其陰暗面的仍有諸多安全難題待解。”她直言。

3月,有ChatGPT使用者宣稱在自己的曆史對話中看到了他人與ChatGPT的聊天内容。OpenAI在幾天後發表聲明向ChatGPT漏洞緻部分使用者資訊洩露道歉,并短暫下線了應用進行漏洞修複。

而近日,據媒體報道,三星公司内部發生了多起ChatGPT引發的資料安全事件。

該公司一名員工将要求ChatGPT幫助自己完成會議記錄,還有員工直接将代碼輸入ChatGPT要求優化,甚至将軟體源代碼粘貼到ChatGPT中,并要求其找到問題的解決方案。這些行為都有可能導緻源代碼和相關敏感資訊進入ChatGPT的訓練資料庫。

據悉,三星已将 ChatGPT 上傳容量限制為每人1024 位元組,并正在調查涉及洩密事件的人員。它還在考慮建構自己的内部人工智能聊天機器人,以防止未來出現類似的資料安全事故。

張欣提醒道,除了不當使用導緻的資料洩露,類ChatGPT應用還面臨着提示語注入攻擊等資料安全風險。簡單來說,就是通過向ChatGPT輸入特定的内容,誘導其輸出本不應該出現的違法或惡意内容,甚至如果能夠找到特定的提示語,還可能回溯大型語言模型訓練集中的資料,進而得到敏感資訊。“坦率說,目前業内也還在研究和探索如何通過技術手段上防止出現這類資料安全風險。”她說。

如何走好安全之路?

“目前,類ChatGPT産品自身缺乏可信技術的支撐,整體的治理架構也還需一段時間的調整才能夠比對技術的發展和範式的變化。”張欣指出,目前的當務之急是順應變化,加快研究更新的腳步。

大陸《征求意見稿》中明确提到,國家支援人工智能算法、架構等基礎技術的自主創新、推廣應用、國際合作,鼓勵優先采用安全可信的軟體、工具、計算和資料資源。

“像任何技術一樣,這些工具也帶來了真正的風險,是以我們緻力于確定安全措施在我們的系統中得到充分應用。”4月6日,OpenAI釋出《我們邁向人工智能安全的路徑》,回應這些日子以來的種種質疑。文章詳細闡述了他們在安全工作付出的努力,并從建立日益安全的人工智能系統、從實際應用中學習,以改進保障措施、保護兒童、尊重隐私、改善事實準确性、持續研究和合作七個方面做出了保證。

對于隐私安全的質疑,OpenAI表示,收集的資料将不會用以營利,隻會用于訓練模型。不過,公司也将從訓練資料集中删除個人資訊,并逐漸調整模型以拒絕私人個體的個人資訊請求,以減小ChatGPT回複中出現個人資訊的可能性。4月7日,OpenAI對隐私協定進行了更新。

在人工智能技術的發展、落地和應用場景擴散的趨勢不斷擴大的當下,各方應如何協作維護資料安全?

張欣指出,人工智能領域的新興監管工具值得關注。在監管層面,可以靈活運用算法風險分級、算法影響評估、算法審計、算法認證等治理方法和監管沙箱等制度工具,在産品落地階段,則可以考慮灰階測試和A/B test,通過小範圍、漸進的測試逐漸優化産品的資料安全保護機制。

“未來,也可以考慮将以Open AI為代表的人工智能公司納入治理體系,同監管機關合作開發與技術發展和市場競争相适應的監管架構。”她表示。

“我們認為,強大的人工智能系統應該接受嚴格的安全評估。”OpenAI在官網公告中明确,願意配合政府的監管行動,并共同确定監管的最佳形式。

更多内容請下載下傳21财經APP

繼續閱讀