天天看点

【患者安全】人工智能机器人与患者隐私泄露风险

作者:患者安全

Health Care Privacy Risks of AI Chatbots

编译自:Genevieve P. Kanter, Viewpoint JAMA. July 6, 2023 图片来自网络

【患者安全】人工智能机器人与患者隐私泄露风险

随着ChatGPT的首次亮相,临床医生和卫生系统正在接受这位聪明、流利的同事,渴望他能帮助完成医学中一些最吃力不讨好的事情。人工智能(AI)驱动的聊天机器人(chatbot)已经通过了美国医师执照考试,而且可以毫无怨言地根据大量临床事实,写出结构化的医疗记录,识别账单代码,并对患者所提的门户信息做出回应,这看起来对于患者似乎是一个绝对的福音。

【健康保险流通和责任法案(HIPAA)与人工智能】

然而,所有技术的进步都存在一定的不确定性和风险,尤其是涉及到处理受保护的医疗健康信息(protected health information,PHI)技术时。尽管人们都知道在医疗相关领域中部署人工智能存在许多风险,但人工智能聊天机器人对患者隐私构成的风险是独特的。

使用人工智能来预测患者风险和改善工作流程并不是什么新鲜事。几十年来,医院和卫生系统都一直在与相关数据分析公司合作,以此来分析电子病历记录。人工智能一直在这些分析产品中不断扩大应用。在与这些公司签订合同时,卫生系统已经建立了完善的标准,以保护患者的健康信息。健康保险流通与责任法案(The Health Insurance Portability and Accountability Act ,HIPAA)允许医疗机构作为负责保护个人隐私的主体,与有资质的商业公司合作并签订协议,以此来确保患者的隐私。

【患者安全】人工智能机器人与患者隐私泄露风险

【患者的健康信息与人工智能聊天机器人】

人工智能聊天机器人的创新和风险不在于它的人工智能引擎,而在于它的聊天功能。会话聊天界面允许临床医生直接输入不同的医疗关键词,在几秒钟内就能生成医疗就诊记录,这些就诊记录可以作为患者医疗记录的一部分,保险公司所需要的医疗信息,或患者就诊后的最终病历。例如,使用听写相关软件实时所形成的医患沟通记录,会被实时传输到人工智能聊天工具中去。可以立即以所需的主观、客观、评估和计划(SOAP)格式生成令人满意的病历记录,临床医生可以多次在聊天窗口中复制和粘贴这些就诊的记录,并附上检查结果,以生成耗时的、事先授权的请求信息。

虽然将医疗信息粘贴到聊天界面的便利性很诱人,但临床医生和卫生系统可能会无意中违反HIPAA,并因这些聊天机器人所查询得到的信息而招致大量罚款和处罚。HIPAA禁止未经授权披露患者的健康信息,其中包括受保护实体持有或网络传输的“个人可识别的健康信息”。这些信息包括任何可用于识别个人身份的信息,以及与他们的身体或精神健康、所提供的保健服务或为这些服务所支付相关的信息。许多常见的特殊识别信息,如姓或名、医疗记录号、出生日期和居住城市,都构成患者的健康信息。

临床医生可能没有意识到,通过使用ChatGPT,他们正在将信息提交给另一个组织,即拥有并支持该技术的人工智能开发公司。换句话说,临床信息,一旦通过聊天窗口提交,就已经离开了其所在实体机构的限制,被上传到聊天软件所在公司运营的服务器上。鉴于人工智能开发公司可能尚未与任何医疗服务部门签署商业合作协议,根据HIPAA规定,将患者的健康信息输入聊天机器人是未经授权的披露。

请注意,这个问题与输入聊天机器人的医疗信息可能被集中合并到机器人中,以此来训练数据库,并向该工具的其他用户泄露的问题是分开的。这种患者的健康信息的潜在传播是令人担忧的,但人工智能开发者允许用户选择退出,并且不使用他们的内容来改进聊天机器人的性能,然而选择退出并不能避免违反HIPAA。一旦患者的健康信息被输入ChatGPT,就发生了未经授权的披露,并且无论用户是否允许将医疗内容用于提高机器人的性能,医疗内容都已经在公司服务器上。

【患者安全】人工智能机器人与患者隐私泄露风险

【临床医生和相关实体指南】

对临床医生来说,最迫切希望给他们指导的是避免向聊天机器人输入任何包含患者的健康信息的信息。要做到这点实际上比听起来要难得多。他们自己在日常交流、会面时的文字记录中可能包含着一些善意的语言,比如“别担心,林肯先生”,“这只是皮肉伤,我们会马上治好你的”。这些都被认为是患者的健康信息。在这种情况下,随便提到一个人的住处(“你在斯普林菲尔德的新住处怎么样?”)也是患者的健康信息。举几个例子,病人的名字,包括昵称,相关地理位置信息,以及入院和出院日期,都必须在将记录输入聊天工具之前将其删除。类似地,在聊天机器人涉及带有患者介绍和检测结果信息的,在日常非正式咨询查询时都必须删除所有标识性特殊性语言。

病历记录通常在其标题或页边空白处注明有医疗记录编号、出生日期或社保账号等信息。在使用任何聊天机器人之前,还必须系统地删除这些标识符。即使在给保险公司的信息中,包括患者姓名和健康计划受益人号码,在生成人工智能信息文件之前,所有标识符都必须被删除,然后再重新插入。

在所有这些情况下,美国卫生与公众服务部门(HHS)的规定可以提供指导。这些条例规定了至少18个相关标志性信息,这些标志性信息必须删除,才能被认为是去标识的健康信息,因此不属于患者的健康信息的定义。

尽管从聊天输入中清除患者的健康信息的负担落在了需要查询病历的临床医生身上,但所涉及的相关部门可以采取措施来搭建防止无意中泄露患者的健康信息的环境。至少,从现在开始,相关部门应该提供专门针对聊天机器人风险的培训,并在每年度进行HIPAA的培训。其他限制性更强的方法还包括,只允许接受过培训的员工访问聊天机器人,或者禁止网络访问聊天机器人。

【患者安全】人工智能机器人与患者隐私泄露风险

【当患者的健康信息被披露后该怎么做?】

假设卫生系统尽了最大努力,但还是有人无意中将患者的健康信息输入了聊天机器人中。未经授权披露患者的健康信息被认为是违规行为,通常会向卫生与公众服务部的执法部门——民权办公室(OCR)报告。这可能会导致民权办公室进行费时费力的调查,每次违规可能会处以100美元至50,000美元以上的罚款,每个受影响的患者都被视为单独的HIPAA违规行为。违规行为也经常被要求公开披露。这可能导致集体诉讼和一般的名誉损害,更不用说失去病人的信任了。虽然直接伤害患者的情况很少,但一旦患者的健康信息被传到公司的服务器上,就无法保证隐私,而且泄露的社保号码等标识性信息可能导致隐私泄露。

但是,如果受保护的患者能够通过HIPAA评估风险,证明患者的健康信息被泄露的可能性很低,则可以克服违约的假设—人工智能开发者确实有一个删除账户和相关聊天信息的程序,但删除可能需要30天。此外,如果聊天机器人提供商被告知患者的健康信息被泄露,并愿意声明他们没有使用、披露或查看信息,并且已删除信息。这可能有助于克服HIPAA对违规行为的判断。但目前尚不清楚这些公司将如何回应这些要求,它们可能无法或拒绝以这样或那样的方式发表任何声明。无论如何,临床医生和他们的雇主都不希望承担违反HIPAA责任的负担。

【患者安全】人工智能机器人与患者隐私泄露风险

【健康系统、HIPAA和人工智能聊天机器人的未来】

最终,面对人工智能聊天机器人入侵风险,卫生健康系统必须决定是阻止临床医生使用这项技术,还是接受它。有一些事实证据表明,一些卫生健康系统出于对违反HIPAA风险的警惕,正在禁止在工作中使用聊天机器人。虽然禁令可能是一种合理的短期策略,但它们可能难以执行和维持。更有可能的长期情况是,人工智能聊天机器人的创新者将直接与医疗保健机构合作,实现人工智能聊天功能。根据商业合作协议,这些公司可以以符合HIPAA的方式接收和处理患者的健康信息内容,并可能根据需要开发算法,以此来删除患者的健康信息。

人工智能聊天机器人是一种非常强大的工具,具有非常大的潜力,可以提高临床护理的质量和效率。然而,当临床医生将这些新工具纳入他们的实践时,他们也必须对这些工具在患者医疗照护的其他方面(如患者隐私)构成的风险保持警惕。在有更安全的方式使用聊天机器人之前,临床医生和受保护的实体卫生健康部门必须采取积极措施,防止未经授权的患者的健康信息泄露及其危害。

【患者安全】人工智能机器人与患者隐私泄露风险

【作者】Genevieve P. Kanter,博士,南加州大学Sol Price公共政策学院卫生政策与管理系。

【原文】

https://jamanetwork.com/journals/jama/fullarticle/2807169

翻译:代 涛 重庆护理职业学院,重医一院急诊科

审校:肖明朝 重庆护理职业学院,重医一院泌尿外科

继续阅读