天天看點

【患者安全】人工智能機器人與患者隐私洩露風險

作者:患者安全

Health Care Privacy Risks of AI Chatbots

編譯自:Genevieve P. Kanter, Viewpoint JAMA. July 6, 2023 圖檔來自網絡

【患者安全】人工智能機器人與患者隐私洩露風險

随着ChatGPT的首次亮相,臨床醫生和衛生系統正在接受這位聰明、流利的同僚,渴望他能幫助完成醫學中一些最吃力不讨好的事情。人工智能(AI)驅動的聊天機器人(chatbot)已經通過了美國醫師執照考試,而且可以毫無怨言地根據大量臨床事實,寫出結構化的醫療記錄,識别賬單代碼,并對患者所提的門戶資訊做出回應,這看起來對于患者似乎是一個絕對的福音。

【健康保險流通和責任法案(HIPAA)與人工智能】

然而,所有技術的進步都存在一定的不确定性和風險,尤其是涉及到處理受保護的醫療健康資訊(protected health information,PHI)技術時。盡管人們都知道在醫療相關領域中部署人工智能存在許多風險,但人工智能聊天機器人對患者隐私構成的風險是獨特的。

使用人工智能來預測患者風險和改善工作流程并不是什麼新鮮事。幾十年來,醫院和衛生系統都一直在與相關資料分析公司合作,以此來分析電子病曆記錄。人工智能一直在這些分析産品中不斷擴大應用。在與這些公司簽訂合同時,衛生系統已經建立了完善的标準,以保護患者的健康資訊。健康保險流通與責任法案(The Health Insurance Portability and Accountability Act ,HIPAA)允許醫療機構作為負責保護個人隐私的主體,與有資質的商業公司合作并簽訂協定,以此來確定患者的隐私。

【患者安全】人工智能機器人與患者隐私洩露風險

【患者的健康資訊與人工智能聊天機器人】

人工智能聊天機器人的創新和風險不在于它的人工智能引擎,而在于它的聊天功能。會話聊天界面允許臨床醫生直接輸入不同的醫療關鍵詞,在幾秒鐘内就能生成醫療就診記錄,這些就診記錄可以作為患者醫療記錄的一部分,保險公司所需要的醫療資訊,或患者就診後的最終病曆。例如,使用聽寫相關軟體實時所形成的醫患溝通記錄,會被實時傳輸到人工智能聊天工具中去。可以立即以所需的主觀、客觀、評估和計劃(SOAP)格式生成令人滿意的病曆記錄,臨床醫生可以多次在聊天視窗中複制和粘貼這些就診的記錄,并附上檢查結果,以生成耗時的、事先授權的請求資訊。

雖然将醫療資訊粘貼到聊天界面的便利性很誘人,但臨床醫生和衛生系統可能會無意中違反HIPAA,并因這些聊天機器人所查詢得到的資訊而招緻大量罰款和處罰。HIPAA禁止未經授權披露患者的健康資訊,其中包括受保護實體持有或網絡傳輸的“個人可識别的健康資訊”。這些資訊包括任何可用于識别個人身份的資訊,以及與他們的身體或精神健康、所提供的保健服務或為這些服務所支付相關的資訊。許多常見的特殊識别資訊,如姓或名、醫療記錄号、出生日期和居住城市,都構成患者的健康資訊。

臨床醫生可能沒有意識到,通過使用ChatGPT,他們正在将資訊送出給另一個組織,即擁有并支援該技術的人工智能開發公司。換句話說,臨床資訊,一旦通過聊天視窗送出,就已經離開了其所在實體機構的限制,被上傳到聊天軟體所在公司營運的伺服器上。鑒于人工智能開發公司可能尚未與任何醫療服務部門簽署商業合作協定,根據HIPAA規定,将患者的健康資訊輸入聊天機器人是未經授權的披露。

請注意,這個問題與輸入聊天機器人的醫療資訊可能被集中合并到機器人中,以此來訓練資料庫,并向該工具的其他使用者洩露的問題是分開的。這種患者的健康資訊的潛在傳播是令人擔憂的,但人工智能開發者允許使用者選擇退出,并且不使用他們的内容來改進聊天機器人的性能,然而選擇退出并不能避免違反HIPAA。一旦患者的健康資訊被輸入ChatGPT,就發生了未經授權的披露,并且無論使用者是否允許将醫療内容用于提高機器人的性能,醫療内容都已經在公司伺服器上。

【患者安全】人工智能機器人與患者隐私洩露風險

【臨床醫生和相關實體指南】

對臨床醫生來說,最迫切希望給他們指導的是避免向聊天機器人輸入任何包含患者的健康資訊的資訊。要做到這點實際上比聽起來要難得多。他們自己在日常交流、會面時的文字記錄中可能包含着一些善意的語言,比如“别擔心,林肯先生”,“這隻是皮肉傷,我們會馬上治好你的”。這些都被認為是患者的健康資訊。在這種情況下,随便提到一個人的住處(“你在斯普林菲爾德的新住處怎麼樣?”)也是患者的健康資訊。舉幾個例子,病人的名字,包括昵稱,相關地理位置資訊,以及入院和出院日期,都必須在将記錄輸入聊天工具之前将其删除。類似地,在聊天機器人涉及帶有患者介紹和檢測結果資訊的,在日常非正式咨詢查詢時都必須删除所有辨別性特殊性語言。

病曆記錄通常在其标題或頁邊空白處注明有醫療記錄編号、出生日期或社保賬号等資訊。在使用任何聊天機器人之前,還必須系統地删除這些辨別符。即使在給保險公司的資訊中,包括患者姓名和健康計劃受益人号碼,在生成人工智能資訊檔案之前,所有辨別符都必須被删除,然後再重新插入。

在所有這些情況下,美國衛生與公衆服務部門(HHS)的規定可以提供指導。這些條例規定了至少18個相關标志性資訊,這些标志性資訊必須删除,才能被認為是去辨別的健康資訊,是以不屬于患者的健康資訊的定義。

盡管從聊天輸入中清除患者的健康資訊的負擔落在了需要查詢病曆的臨床醫生身上,但所涉及的相關部門可以采取措施來搭建防止無意中洩露患者的健康資訊的環境。至少,從現在開始,相關部門應該提供專門針對聊天機器人風險的教育訓練,并在每年度進行HIPAA的教育訓練。其他限制性更強的方法還包括,隻允許接受過教育訓練的員工通路聊天機器人,或者禁止網絡通路聊天機器人。

【患者安全】人工智能機器人與患者隐私洩露風險

【當患者的健康資訊被披露後該怎麼做?】

假設衛生系統盡了最大努力,但還是有人無意中将患者的健康資訊輸入了聊天機器人中。未經授權披露患者的健康資訊被認為是違規行為,通常會向衛生與公衆服務部的執法部門——民權辦公室(OCR)報告。這可能會導緻民權辦公室進行費時費力的調查,每次違規可能會處以100美元至50,000美元以上的罰款,每個受影響的患者都被視為單獨的HIPAA違規行為。違規行為也經常被要求公開披露。這可能導緻集體訴訟和一般的名譽損害,更不用說失去病人的信任了。雖然直接傷害患者的情況很少,但一旦患者的健康資訊被傳到公司的伺服器上,就無法保證隐私,而且洩露的社保号碼等辨別性資訊可能導緻隐私洩露。

但是,如果受保護的患者能夠通過HIPAA評估風險,證明患者的健康資訊被洩露的可能性很低,則可以克服違約的假設—人工智能開發者确實有一個删除賬戶和相關聊天資訊的程式,但删除可能需要30天。此外,如果聊天機器人提供商被告知患者的健康資訊被洩露,并願意聲明他們沒有使用、披露或檢視資訊,并且已删除資訊。這可能有助于克服HIPAA對違規行為的判斷。但目前尚不清楚這些公司将如何回應這些要求,它們可能無法或拒絕以這樣或那樣的方式發表任何聲明。無論如何,臨床醫生和他們的雇主都不希望承擔違反HIPAA責任的負擔。

【患者安全】人工智能機器人與患者隐私洩露風險

【健康系統、HIPAA和人工智能聊天機器人的未來】

最終,面對人工智能聊天機器人入侵風險,衛生健康系統必須決定是阻止臨床醫生使用這項技術,還是接受它。有一些事實證據表明,一些衛生健康系統出于對違反HIPAA風險的警惕,正在禁止在工作中使用聊天機器人。雖然禁令可能是一種合理的短期政策,但它們可能難以執行和維持。更有可能的長期情況是,人工智能聊天機器人的創新者将直接與醫療保健機構合作,實作人工智能聊天功能。根據商業合作協定,這些公司可以以符合HIPAA的方式接收和處理患者的健康資訊内容,并可能根據需要開發算法,以此來删除患者的健康資訊。

人工智能聊天機器人是一種非常強大的工具,具有非常大的潛力,可以提高臨床護理的品質和效率。然而,當臨床醫生将這些新工具納入他們的實踐時,他們也必須對這些工具在患者醫療照護的其他方面(如患者隐私)構成的風險保持警惕。在有更安全的方式使用聊天機器人之前,臨床醫生和受保護的實體衛生健康部門必須采取積極措施,防止未經授權的患者的健康資訊洩露及其危害。

【患者安全】人工智能機器人與患者隐私洩露風險

【作者】Genevieve P. Kanter,博士,南加州大學Sol Price公共政策學院衛生政策與管理系。

【原文】

https://jamanetwork.com/journals/jama/fullarticle/2807169

翻譯:代 濤 重慶護理職業學院,重醫一院急診科

審校:肖明朝 重慶護理職業學院,重醫一院泌尿外科

繼續閱讀