天天看點

人工智能模型與删除權的複雜舞蹈:難題還是催化劑?

作者:知兼
人工智能模型與删除權的複雜舞蹈:難題還是催化劑?

被遺忘權(The Right to be ForgottenRTBF)的概念,也稱為歐洲《通用資料保護條例》(GDPR)下的删除權,賦予個人要求技術公司永久删除其個人資料的權力。這項法律強調了個人的基本隐私權。然而,随着大型語言模型(LLM)和人工智能聊天機器人等新興技術變得司空見慣,這些技術如何實作這一權利還不明确。值得注意的是,人工智能尚未提供直接的資料删除或遺忘機制,使尋求删除其數字足迹的個人陷入困境。

澳洲國家科學局專門從事人工智能、機器人和網絡安全的部門Data61業務部門的研究人員最近進行的一項研究探讨了這些影響。該研究強調,技術的進步已經超出了旨在保護個人隐私的現有法律架構。

人工智能模型與删除權的複雜舞蹈:難題還是催化劑?

RTBF不是歐洲GDPR的專屬機制,加拿大的《加州消費者隐私法》(CCPA)、《日本個人資訊保護法》(APPI)等各個司法管轄區都存在類似的規定。大陸自2021年11月1日起生效的《中華人民共和國個人資訊保護法》(PIPL)規定了在某些情況下的删除權,類似于“被遺忘權”。

最初,RTBF條款的設計考慮到了網際網路搜尋引擎,使谷歌、微軟等公司能夠識别并從其索引中删除特定資料。然而,LLM和AI聊天機器人的操作使得情況變得非常複雜。

人工智能模型與删除權的複雜舞蹈:難題還是催化劑?

據澳洲研究人員稱,基于機器學習的算法的功能與搜尋引擎不同,這使得識别和擦除個人資料的過程更加複雜。此外,了解哪些個人資料有助于人工智能模型的訓練,并将這些資料歸因于特定個人,這極具挑戰性。

在這些複雜的模型中,隻有通過檢查原始訓練資料集或提示模型,才能深入了解特定的個人資料。然而,管理這些人工智能服務的公司可能會選擇不披露他們的教育訓練資料集。此外,與聊天機器人互動并不能保證它能提供使用者尋求的準确資訊,因為這些系統可以産生虛構的響應,稱為“幻覺”。

人工智能行業對RTBF的獨特挑戰為創新和發展提供了一個平台。研究人員提出了從人工智能訓練模型中删除資料的各種方法。這些包括“機器取消學習”技術,如SISA方法、歸納圖取消學習和近似資料删除等。

這種進步,盡管最初是由法律要求觸發的,但可以導緻更高效的模型,為資料使用提供更好的控制和透明度。這最終可以提高使用者的信任度,并增加人工智能服務的應用範圍。

人工智能模型與删除權的複雜舞蹈:難題還是催化劑?

LLM行業的主要參與者,如OpenAI,也在積極尋求RTBF合規性的解決方案。例如,OpenAI提供了一個表單,供使用者請求從ChatGPT輸出中删除其個人資料。然而,如何處理這些請求的細節仍未披露。

立法者和人工智能從業者進行合作為人工智能系統制定新的指導方針以滿足隐私要求至關重要。這将需要微妙的平衡,確定隐私權得到保護,而不會扼殺創新。

繼續閱讀