天天看点

人工智能模型与删除权的复杂舞蹈:难题还是催化剂?

作者:知兼
人工智能模型与删除权的复杂舞蹈:难题还是催化剂?

被遗忘权(The Right to be ForgottenRTBF)的概念,也称为欧洲《通用数据保护条例》(GDPR)下的删除权,赋予个人要求技术公司永久删除其个人数据的权力。这项法律强调了个人的基本隐私权。然而,随着大型语言模型(LLM)和人工智能聊天机器人等新兴技术变得司空见惯,这些技术如何实现这一权利还不明确。值得注意的是,人工智能尚未提供直接的数据删除或遗忘机制,使寻求删除其数字足迹的个人陷入困境。

澳大利亚国家科学局专门从事人工智能、机器人和网络安全的部门Data61业务部门的研究人员最近进行的一项研究探讨了这些影响。该研究强调,技术的进步已经超出了旨在保护个人隐私的现有法律框架。

人工智能模型与删除权的复杂舞蹈:难题还是催化剂?

RTBF不是欧洲GDPR的专属机制,加拿大的《加州消费者隐私法》(CCPA)、《日本个人信息保护法》(APPI)等各个司法管辖区都存在类似的规定。大陆自2021年11月1日起生效的《中华人民共和国个人信息保护法》(PIPL)规定了在某些情况下的删除权,类似于“被遗忘权”。

最初,RTBF条款的设计考虑到了互联网搜索引擎,使谷歌、微软等公司能够识别并从其索引中删除特定数据。然而,LLM和AI聊天机器人的操作使得情况变得非常复杂。

人工智能模型与删除权的复杂舞蹈:难题还是催化剂?

据澳大利亚研究人员称,基于机器学习的算法的功能与搜索引擎不同,这使得识别和擦除个人数据的过程更加复杂。此外,了解哪些个人数据有助于人工智能模型的训练,并将这些数据归因于特定个人,这极具挑战性。

在这些复杂的模型中,只有通过检查原始训练数据集或提示模型,才能深入了解特定的个人数据。然而,管理这些人工智能服务的公司可能会选择不披露他们的培训数据集。此外,与聊天机器人互动并不能保证它能提供用户寻求的准确信息,因为这些系统可以产生虚构的响应,称为“幻觉”。

人工智能行业对RTBF的独特挑战为创新和发展提供了一个平台。研究人员提出了从人工智能训练模型中删除数据的各种方法。这些包括“机器取消学习”技术,如SISA方法、归纳图取消学习和近似数据删除等。

这种进步,尽管最初是由法律要求触发的,但可以导致更高效的模型,为数据使用提供更好的控制和透明度。这最终可以提高用户的信任度,并增加人工智能服务的应用范围。

人工智能模型与删除权的复杂舞蹈:难题还是催化剂?

LLM行业的主要参与者,如OpenAI,也在积极寻求RTBF合规性的解决方案。例如,OpenAI提供了一个表单,供用户请求从ChatGPT输出中删除其个人数据。然而,如何处理这些请求的细节仍未披露。

立法者和人工智能从业者进行合作为人工智能系统制定新的指导方针以满足隐私要求至关重要。这将需要微妙的平衡,确保隐私权得到保护,而不会扼杀创新。

继续阅读