天天看点

生成式大模型安全与隐私白皮书(2023)

作者:AI自智体

知未知.领未来 知领

❑ 导 读

如何应对生成式大模型“双刃剑”?

生成式大模型安全与隐私白皮书(2023)

当前,生成式大模型已经为学术研究甚至是社会生活带来了深刻的变革,以 ChatGPT 为代表,生成式大模型的能力已经显示了迈向通用人工智能的可能性。但同时,研究者们也开始意识到 ChatGPT 等生成式大模型面临着数据和模型方面的安全隐患。

今年 5 月初,美国白宫与谷歌、微软、OpenAI、Anthropic 等 AI 公司的 CEO 们召开集体会议,针对 AI 生成技术的爆发,讨论技术背后隐藏的风险、如何负责任地开发人工智能系统,以及制定有效的监管措施。国内的生成式大模型技术也正在发展之中,但是同时也需要先对安全问题进行相应的分析以便双管齐下,避免生成式大模型这把双刃剑带来的隐藏危害。

为此,之江实验室基础理论研究院人工智能与安全团队首次全面总结了 ChatGPT 为代表的生成式大模型的安全与隐私问题白皮书,希望能够为从事安全问题研究的技术人员指明方向,同时也为 AI 相关政策的制定者提供依据。

生成式大模型安全与隐私白皮书(2023)

生成式大模型的发展与重要应用

这份白皮书首先总结了 ChatGPT 与 GPT4 等生成式大模型的发展历程,以及其带来的各种令人惊叹的能力和社会变革、社会应用等。作者列举了 ChatGPT 和 GPT4 出现之前的 GPT-1、GPT-2、GPT-3、Google Bert 等模型的特点以及缺点,这些缺点与 ChatGPT 和 GPT4 的强大能力形成了对比;并且,ChatGPT 和 GPT4 之后又涌现了一大批的模型,包括 LLaMa、Alpaca、文心一言、通义千问等,它们的出现使得在人机交互、资源管理、科学研究、内容创作等应用领域出现了新的、强有力的工具。但同时也出现了包括数据安全,使用规范、可信伦理、知识产权以及模型安全方面的问题。

生成式大模型安全与隐私白皮书(2023)

数据安全问题

白皮书提出,数据的安全和隐私是 ChatGPT 及 GPT4 等生成式大模型使用和研发过程中一个极为重要的问题,并从「显式」和「隐式」两个方面对其进行了分析。

在显式的信息泄漏中,首先,ChatGPT 等生成式大模型的训练数据在不经意间被转换成了生成内容,其中就包括了敏感和隐私的个人信息如银行卡账号、病例信息等。此外,ChatGPT 的数据安全和隐私隐患还体现在它对于对话框内容的存储,当用户在和 ChatGPT 互动时,他们的信息会以某些形式被记录和存储下来。

白皮书还提出了之前被大家忽略的隐式信息泄漏问题。首先,ChatGPT 体现出的数据安全和隐私的隐患是它可能通过对对话框数据的收集进行广告推荐,以及收集对话框数据进行推荐或者其他的下游机器学习任务,且 ChatGPT 有时候可能也会生成虚假的信息,以此来诱导用户泄漏一系列的数据。

具体内容如下

生成式大模型安全与隐私白皮书(2023)
生成式大模型安全与隐私白皮书(2023)
生成式大模型安全与隐私白皮书(2023)
生成式大模型安全与隐私白皮书(2023)
生成式大模型安全与隐私白皮书(2023)
生成式大模型安全与隐私白皮书(2023)
生成式大模型安全与隐私白皮书(2023)
生成式大模型安全与隐私白皮书(2023)
生成式大模型安全与隐私白皮书(2023)
生成式大模型安全与隐私白皮书(2023)
生成式大模型安全与隐私白皮书(2023)
生成式大模型安全与隐私白皮书(2023)
生成式大模型安全与隐私白皮书(2023)
生成式大模型安全与隐私白皮书(2023)
生成式大模型安全与隐私白皮书(2023)
生成式大模型安全与隐私白皮书(2023)
生成式大模型安全与隐私白皮书(2023)
生成式大模型安全与隐私白皮书(2023)
生成式大模型安全与隐私白皮书(2023)
生成式大模型安全与隐私白皮书(2023)
生成式大模型安全与隐私白皮书(2023)
生成式大模型安全与隐私白皮书(2023)
生成式大模型安全与隐私白皮书(2023)
生成式大模型安全与隐私白皮书(2023)
生成式大模型安全与隐私白皮书(2023)
生成式大模型安全与隐私白皮书(2023)
生成式大模型安全与隐私白皮书(2023)
生成式大模型安全与隐私白皮书(2023)
生成式大模型安全与隐私白皮书(2023)
生成式大模型安全与隐私白皮书(2023)
生成式大模型安全与隐私白皮书(2023)
生成式大模型安全与隐私白皮书(2023)
生成式大模型安全与隐私白皮书(2023)
生成式大模型安全与隐私白皮书(2023)
生成式大模型安全与隐私白皮书(2023)
生成式大模型安全与隐私白皮书(2023)
生成式大模型安全与隐私白皮书(2023)
生成式大模型安全与隐私白皮书(2023)
生成式大模型安全与隐私白皮书(2023)
生成式大模型安全与隐私白皮书(2023)
生成式大模型安全与隐私白皮书(2023)
生成式大模型安全与隐私白皮书(2023)
生成式大模型安全与隐私白皮书(2023)
生成式大模型安全与隐私白皮书(2023)
生成式大模型安全与隐私白皮书(2023)
生成式大模型安全与隐私白皮书(2023)
生成式大模型安全与隐私白皮书(2023)
生成式大模型安全与隐私白皮书(2023)
生成式大模型安全与隐私白皮书(2023)
生成式大模型安全与隐私白皮书(2023)
生成式大模型安全与隐私白皮书(2023)
生成式大模型安全与隐私白皮书(2023)
生成式大模型安全与隐私白皮书(2023)
生成式大模型安全与隐私白皮书(2023)
生成式大模型安全与隐私白皮书(2023)
生成式大模型安全与隐私白皮书(2023)
生成式大模型安全与隐私白皮书(2023)
生成式大模型安全与隐私白皮书(2023)
生成式大模型安全与隐私白皮书(2023)
生成式大模型安全与隐私白皮书(2023)
生成式大模型安全与隐私白皮书(2023)

来源: 数据观、之江实验室