天天看點

加拿大釋出AIGC原則回應隐私保護,涉知情同意、權利行使

作者:南方都市報

近期,加拿大隐私專員辦公室(The Office of the Privacy Commissioner of Canada,OPC)釋出了針對生成式人工智能技術的規制檔案《生成式人工智能技術的基本原則:負責任、可信和隐私保護》(下稱《基本原則》),重點就使用該技術過程中的個人資訊保護等問題作出回應。

加拿大釋出AIGC原則回應隐私保護,涉知情同意、權利行使

OPC官網

經南都記者梳理,《基本原則》共九大條,幾乎每條原則都分别針對各方、生成式人工智能系統的開發者和提供者、生成式人工智能系統的使用組織提出不同的隐私保護要求。同時,《基本原則》提出應重點考慮該技術對兒童等弱勢群體造成的特殊影響,要求對他們采取更多隐私保護措施。

避免欺騙獲得知情同意,明确禁止三方面行為

人工智能技術飛速發展的同時,其帶來的隐私安全擔憂從未止歇。目前,如何負責任地使用并治理人工智能已成為國際社會的讨論焦點,各國紛紛加緊制定相關法律法規。在推出《基本原則》之前,OPC及其在不列颠哥倫比亞省、魁北克省和阿爾伯塔省的相關監管機構對生成式人工智能服務進行了公開調查。

“雖然生成式人工智能技術可能會給隐私帶來新的風險,并在個人資訊的收集、使用和披露方面引發新的問題和擔憂,但它們并不在現行法律架構之外。”《基本原則》在介紹其出台背景時寫道,開發、提供或使用生成式人工智能技術的組織有義務確定其活動符合加拿大适用的相關隐私法律法規。

《基本原則》的九大原則包括法律授權和同意,收集、使用和披露個人資訊的必要性、恰當性、開放性,個人資訊主體權利、隐私安全保護措施等。同時,《基本原則》還明确了目前背景下,某些尚未得到加拿大相關法律法規的明确限制,但因可能産生不良後果和影響進而被嚴格禁止的行為“禁區”。

具體而言,“禁區”主要包括三個方面。一是出于惡意目的利用人工智能生成相關内容,例如避開身份驗證系統或未經本人同意時生成可識别的個人私密圖像;二是通過對話故意誘導人工智能洩露更多個人資訊及敏感個人資訊;三是生成和釋出關于個人的虛假或诽謗資訊。

知情同意是收集和使用個人資訊的法律依據。《基本原則》規定,應確定以同意作為收集、使用和披露個人資訊的合法性基礎時,這份同意有效且有意義; 同意應盡可能具體,且避免通過欺騙性的方式獲得;當個人資訊來源于第三方時,應確定第三方系合法收集且有權進行共享。涉及收集和使用敏感個人資訊時,比如醫療保健資訊,應取得單獨同意。

在目的方面,應確定與生成式人工智能系統相關的任何個人資訊收集、使用和披露行為都是基于适當目的,且收集、使用和披露方式合法。

針對不同主體,開發者和提供者應不開發或使用涉及“禁區”的生成式人工智能系統,如發現潛在的、非預期的不當使用情況,應采取措施降低風險——這可能需要通過采取相關技術措施,提前制定使用規範來實作。生成式人工智能系統的使用組織則應避免促使該系統重新識别任何此前已去除身份辨別的資料。

開展隐私算法影響評估,重視兒童保護

《基本原則》明确,收集和使用個人資訊應遵循必要性、開放性等原則。在必要性方面,如果不是為實作适當目的所必需,各方都應使用經匿名化、合成或去辨別處理的資料,而非個人資訊。使用組織應評估生成式人工智能系統用于預期目的有效性和可靠性,確定其在不同使用場景下也做到準确無誤。

開放性指在個人資訊的收集、使用和披露以及個人隐私的潛在風險方面實作公開透明。《基本原則》提出,在生成式人工智能系統生命周期的任何階段,如開發、訓練和運作等,需明确告知收集、使用和披露個人資訊的内容、方式、時間以及原因,確定可能對個人或群體産生重大影響的輸出内容能夠被識别為由生成式人工智能技術所生成。

開發者和提供者應確定使用生成式人工智能系統的組織了解相關任何已知或可能的風險,包括已知或合理預期的故障情況,如可能輸入錯誤資訊等。維護并釋出用于開發或訓練生成式人工智能資料集的相關文檔,包括資料集的來源,收集和使用資料集的法律依據,是否有相關許可證明或對資料集使用目的的其他限制,以及對資料集進行任何修改、優化的記錄等。

使用組織應公開的資訊包括數個方面。首先,應向各方明示是否在決策過程中使用生成式人工智能系統,如果是,需明确以何種身份使用,采取哪些保障措施,受影響方可保留哪些選擇或追索權。其次,需明示使用了哪些個人資訊訓練和改進系統以滿足其特定用途。此外,應確定與生成式人工智能系統互動的個人在使用時了解對方身份、相關隐私風險以及可用的救濟措施。

除了對系統開發者、提供者、使用組織的行為進行規制,《基本原則》還對行使個人資訊權利作出明确。

具體來說,應制定相關流程,使個人能在使用生成式人工智能系統的過程中對其相關個人資訊進行通路和更正。各方應明示個人資訊存儲時限,及時清除不再需要保留的資訊;確定個人在資訊保留時限内行使擷取資訊的權利。

在隐私安全保障措施方面,《基本原則》提出,需在生成式人工智能系統運作的整個生命周期内采取與被處理資訊敏感度相稱的保護措施,使用時持續了解和防範重大隐患,比如蓄意避開驗證步驟或使系統執行非預期操作的行為,大模型訓練資料中包含的個人資訊被洩露等。

開發者和提供者應防止不當使用系統,進而生成不公平、不道德或帶有歧視性等非法或有害内容,持續監控系統的運作情況,及時糾正不當使用行為。使用組織應確定在使用系統控制資料的過程中,不會對其安全保護措施造成負面影響。

為了強化責任追究,限制不作為等,《基本原則》還提出了針對隐私保護的問責機制。建立明确的隐私合規内部治理架構,明确各方職責和義務;建立回報和投訴機制,對生成式人工智能系統的開發使用開展隐私影響評估、算法影響評估等,明确潛在安全隐患。

具體到各方,開發者和提供者應對系統進行獨立審計,評估其有效性和可靠性,确認是否符合相關隐私法規,測試輸出結果是否存在不準确性和偏差。此外,鼓勵開發者和提供者允許獨立研究人員、資料保護機構和其他相關監督機構對系統或大模型的潛在風險進行評估和審計。

“使用組織應當了解決策的責任在于組織,而不是用于支援決策過程的任何自動化系統。”《基本原則》明确,要為受影響的個人提供有效的質詢機制,為其提供足夠的決策形成相關資訊,允許要求開展人工審查和二次決策。

值得一提的是,《基本原則》還強調了生成式人工智能技術對兒童等弱勢群體造成的特殊影響。在開發生成式人工智能系統時,要對訓練資料集進行評估,以確定不會複制、固化、放大曆史或目前的偏見,以及引入新的偏見;在使用此類系統時,應對輸出結果進行額外的監督和審查,加強對潛在不利影響的監測。

采寫/編譯:南都記者 樊文揚

繼續閱讀