天天看點

生成式大模型安全與隐私白皮書(2023)

作者:AI自智體

知未知.領未來 知領

❑ 導 讀

如何應對生成式大模型“雙刃劍”?

生成式大模型安全與隐私白皮書(2023)

目前,生成式大模型已經為學術研究甚至是社會生活帶來了深刻的變革,以 ChatGPT 為代表,生成式大模型的能力已經顯示了邁向通用人工智能的可能性。但同時,研究者們也開始意識到 ChatGPT 等生成式大模型面臨着資料和模型方面的安全隐患。

今年 5 月初,美國白宮與谷歌、微軟、OpenAI、Anthropic 等 AI 公司的 CEO 們召開集體會議,針對 AI 生成技術的爆發,讨論技術背後隐藏的風險、如何負責任地開發人工智能系統,以及制定有效的監管措施。國内的生成式大模型技術也正在發展之中,但是同時也需要先對安全問題進行相應的分析以便雙管齊下,避免生成式大模型這把雙刃劍帶來的隐藏危害。

為此,之江實驗室基礎理論研究院人工智能與安全團隊首次全面總結了 ChatGPT 為代表的生成式大模型的安全與隐私問題白皮書,希望能夠為從事安全問題研究的技術人員指明方向,同時也為 AI 相關政策的制定者提供依據。

生成式大模型安全與隐私白皮書(2023)

生成式大模型的發展與重要應用

這份白皮書首先總結了 ChatGPT 與 GPT4 等生成式大模型的發展曆程,以及其帶來的各種令人驚歎的能力和社會變革、社會應用等。作者列舉了 ChatGPT 和 GPT4 出現之前的 GPT-1、GPT-2、GPT-3、Google Bert 等模型的特點以及缺點,這些缺點與 ChatGPT 和 GPT4 的強大能力形成了對比;并且,ChatGPT 和 GPT4 之後又湧現了一大批的模型,包括 LLaMa、Alpaca、文心一言、通義千問等,它們的出現使得在人機互動、資源管理、科學研究、内容創作等應用領域出現了新的、強有力的工具。但同時也出現了包括資料安全,使用規範、可信倫理、知識産權以及模型安全方面的問題。

生成式大模型安全與隐私白皮書(2023)

資料安全問題

白皮書提出,資料的安全和隐私是 ChatGPT 及 GPT4 等生成式大模型使用和研發過程中一個極為重要的問題,并從「顯式」和「隐式」兩個方面對其進行了分析。

在顯式的資訊洩漏中,首先,ChatGPT 等生成式大模型的訓練資料在不經意間被轉換成了生成内容,其中就包括了敏感和隐私的個人資訊如銀行卡賬号、病例資訊等。此外,ChatGPT 的資料安全和隐私隐患還展現在它對于對話框内容的存儲,當使用者在和 ChatGPT 互動時,他們的資訊會以某些形式被記錄和存儲下來。

白皮書還提出了之前被大家忽略的隐式資訊洩漏問題。首先,ChatGPT 展現出的資料安全和隐私的隐患是它可能通過對對話框資料的收集進行廣告推薦,以及收集對話框資料進行推薦或者其他的下遊機器學習任務,且 ChatGPT 有時候可能也會生成虛假的資訊,以此來誘導使用者洩漏一系列的資料。

具體内容如下

生成式大模型安全與隐私白皮書(2023)
生成式大模型安全與隐私白皮書(2023)
生成式大模型安全與隐私白皮書(2023)
生成式大模型安全與隐私白皮書(2023)
生成式大模型安全與隐私白皮書(2023)
生成式大模型安全與隐私白皮書(2023)
生成式大模型安全與隐私白皮書(2023)
生成式大模型安全與隐私白皮書(2023)
生成式大模型安全與隐私白皮書(2023)
生成式大模型安全與隐私白皮書(2023)
生成式大模型安全與隐私白皮書(2023)
生成式大模型安全與隐私白皮書(2023)
生成式大模型安全與隐私白皮書(2023)
生成式大模型安全與隐私白皮書(2023)
生成式大模型安全與隐私白皮書(2023)
生成式大模型安全與隐私白皮書(2023)
生成式大模型安全與隐私白皮書(2023)
生成式大模型安全與隐私白皮書(2023)
生成式大模型安全與隐私白皮書(2023)
生成式大模型安全與隐私白皮書(2023)
生成式大模型安全與隐私白皮書(2023)
生成式大模型安全與隐私白皮書(2023)
生成式大模型安全與隐私白皮書(2023)
生成式大模型安全與隐私白皮書(2023)
生成式大模型安全與隐私白皮書(2023)
生成式大模型安全與隐私白皮書(2023)
生成式大模型安全與隐私白皮書(2023)
生成式大模型安全與隐私白皮書(2023)
生成式大模型安全與隐私白皮書(2023)
生成式大模型安全與隐私白皮書(2023)
生成式大模型安全與隐私白皮書(2023)
生成式大模型安全與隐私白皮書(2023)
生成式大模型安全與隐私白皮書(2023)
生成式大模型安全與隐私白皮書(2023)
生成式大模型安全與隐私白皮書(2023)
生成式大模型安全與隐私白皮書(2023)
生成式大模型安全與隐私白皮書(2023)
生成式大模型安全與隐私白皮書(2023)
生成式大模型安全與隐私白皮書(2023)
生成式大模型安全與隐私白皮書(2023)
生成式大模型安全與隐私白皮書(2023)
生成式大模型安全與隐私白皮書(2023)
生成式大模型安全與隐私白皮書(2023)
生成式大模型安全與隐私白皮書(2023)
生成式大模型安全與隐私白皮書(2023)
生成式大模型安全與隐私白皮書(2023)
生成式大模型安全與隐私白皮書(2023)
生成式大模型安全與隐私白皮書(2023)
生成式大模型安全與隐私白皮書(2023)
生成式大模型安全與隐私白皮書(2023)
生成式大模型安全與隐私白皮書(2023)
生成式大模型安全與隐私白皮書(2023)
生成式大模型安全與隐私白皮書(2023)
生成式大模型安全與隐私白皮書(2023)
生成式大模型安全與隐私白皮書(2023)
生成式大模型安全與隐私白皮書(2023)
生成式大模型安全與隐私白皮書(2023)
生成式大模型安全與隐私白皮書(2023)
生成式大模型安全與隐私白皮書(2023)
生成式大模型安全與隐私白皮書(2023)
生成式大模型安全與隐私白皮書(2023)

來源: 資料觀、之江實驗室