天天看点

Glass Health 正在构建人工智能来提供医疗诊断建议

作者:斐常视界
Glass Health 正在构建人工智能来提供医疗诊断建议

当德里克·保罗(Dereck Paul)还是加州大学旧金山分校的一名医科学生时,他越来越担心医疗软件的创新落后于金融和航空航天等其他行业。他开始相信,当医生配备反映尖端技术的软件时,患者就能得到最好的服务,并梦想创办一家将患者和医生的需求优先于医院管理人员或保险公司的公司。

因此,Paul 与他的朋友、女性健康科技公司 Modern Fertility 的工程师 Graham Ramsey 合作,于 2021 年推出 Glass Health。Glass Health 提供了一个笔记本,医生可以用它来存储、组织和分享他们的诊断和治疗方法。在他们的整个职业生涯中治疗疾病;拉姆齐将其描述为用于学习和实践医学的“个人知识管理系统”。

保罗说:“在大流行期间,拉姆齐和我目睹了我们的医疗保健系统承受的巨大负担以及医疗保健提供者倦怠危机的不断恶化。” “作为一名在医院轮转的医学生,后来在布莱根妇女医院担任内科住院医师,我亲身经历了医疗服务提供者的倦怠。我们对一线医疗服务提供者的同理心促使我们创建了一家致力于充分利用技术来改善医疗实践的公司。”

Glass Health 早期在社交媒体上获得了关注,特别是 X(以前称为 Twitter),受到医生、护士和实习医生的关注,这转化为该公司的第一笔资金,即 2022 年由 Breyer Capital 牵头的 150 万美元种子前融资随后,Glass Health 被纳入 Y Combinator 的 2023 年冬季批次。但今年年初,保罗和拉姆齐决定将公司转向生成人工智能——拥抱这一不断增长的趋势。

Glass Health 现在提供一款由大型语言模型 (LLM) 提供支持的人工智能工具,该工具类似于 OpenAI 的ChatGPT背后的技术,可以生成诊断和“基于证据”的治疗方案供患者考虑。医生可以输入诸如“有心肌梗塞病史的 71 岁男性,出现亚急性进行性劳力性呼吸困难”或“有糖尿病和高脂血症病史的 65 岁女性,出现急性发作的胸痛和出汗”,Glass Health 的人工智能将提供可能的预后和临床计划。

“临床医生输入患者摘要,也称为问题陈述,描述相关人口统计数据、既往病史、体征和症状以及与患者表现相关的实验室和放射学检查结果的描述——他们可能用来向患者介绍的信息另一位临床医生,”保罗解释道。“Glass 分析患者的总结,并建议临床医生可能需要考虑并进一步调查的五到十种诊断。”

Glass Health 还可以起草病例评估段落供临床医生审查,其中包括对可能相关的诊断研究的解释。这些解释可以编辑并用于临床笔记和记录,或者与更广泛的 Glass Health 社区共享。

理论上,Glass Health 的工具似乎非常有用。但事实证明,即使是最前沿的法学硕士也不太擅长提供健康建议。

Babylon Health是一家由英国国家卫生服务局支持的人工智能初创公司,该公司发现自己因声称其疾病诊断技术比医生的表现更好而受到反复审查。

在一项不幸的实验中,国家饮食失调协会 (NEDA)与人工智能初创公司 Cass 合作推出了一款聊天机器人,为饮食失调患者提供支持。由于生成式人工智能系统升级,卡斯开始鹦鹉学舌地重复卡路里限制等有害的“饮食文化”建议,导致 NEDA 关闭了该工具。

在其他地方,《健康新闻》最近招募了一位医学专业人士来评估 ChatGPT 在广泛主题中的健康建议的合理性。该专家发现,该聊天机器人错过了最近的研究,做出了误导性陈述(例如“葡萄酒可能预防癌症”以及前列腺癌筛查应基于“个人价值观”),并抄袭了多个健康新闻来源的内容。

在 Stat News 的一篇更慈善的文章中,一名研究助理和两名哈佛大学教授发现 ChatGPT 在 45 个不同小插图中的 39 个中列出了正确的诊断(在前三个选项中)。但研究人员警告说,这些小插图通常用于测试医学生,可能无法反映人们——尤其是那些以英语为第二语言的人——如何描述他们在现实世界中的症状。

它还没有被研究太多。但我想知道偏见是否也会导致法学硕士错误地诊断患者。因为像格拉斯这样的医学法学硕士经常接受健康记录方面的培训,而这些记录只显示医生和护士注意到的内容(而且只针对有能力查看这些记录的患者),因此他们可能存在不会立即显现的危险盲点。此外,医生可能会无意中在编写法学硕士训练记录时编码自己的种族、性别或社会经济偏见,导致模型优先考虑某些人口统计数据。

Paul 似乎很清楚围绕医学中生成人工智能的审查,并断言 Glass Health 的人工智能优于市场上已有的许多解决方案。

“Glass 将法学硕士与我们的学术医师团队创建和同行评审的临床指南联系起来,”他说。“我们的医生团队成员来自全国各地的主要学术医疗中心,在 Glass Health 兼职工作,就像他们为医学杂志工作一样,为我们的人工智能制定指导方针,并微调我们的人工智能遵循这些指导方针的能力……我们要求我们的医生临床医生用户密切监督我们所有的法学硕士申请的输出,将其视为一个助手,可以提供有用的建议和选择,他们可能会考虑,但永远不会取代指导或取代他们的临床判断。”

在我们的采访过程中,保罗反复强调,Glass Health 的人工智能虽然专注于提供潜在的诊断,但其答案不应被解释为确定性或规定性的。我对这个不言而喻的原因的猜测是:如果是这样,Glass Health 将受到更严格的法律审查,甚至可能受到 FDA 的监管。

保罗并不是唯一一个对冲的人。谷歌正在测试一种名为 Med-PaLM 2 的以医学为中心的语言模型,它在营销材料中一直小心翼翼地避免暗示该模型可以取代临床环境中卫生专业人员的经验。Hippocratic也是如此,这家初创公司建立了专门针对医疗保健应用(但不是诊断)的法学硕士。

尽管如此,Paul 认为 Glass Health 的方法使其能够对其人工智能的输出进行“精细控制”,并指导其人工智能“反映最先进的医学知识和指南”。该方法的一部分涉及收集用户数据以改进 Glass 的基础法学硕士——这一举措可能并不适合每个患者。

保罗说,用户可以随时请求删除所有存储的数据。

“我们的法学硕士应用程序在生成输出时检索经医生验证的临床指南作为人工智能上下文,”他说。“Glass 与 ChatGPT 等法学硕士应用程序不同,后者仅依赖预训练来产生输出,并且更容易产生不准确或过时的医疗信息……我们严格控制人工智能使用的信息和指南,以创建产出并能够将严格的编辑流程应用于我们的指南,旨在消除偏见并使我们的建议与实现健康公平的目标保持一致。”

我们将看看事实是否如此。

与此同时,Glass Health 并不在努力寻找早期采用者。迄今为止,该平台已注册超过 59,000 名用户,并已提供按月订阅的“直接面向临床医生”服务。今年,Glass 将开始试行符合 HIPAA 要求的集成电子健康记录的企业产品;保罗声称,有 15 个未透露姓名的卫生系统和公司在候补名单上。

Paul 表示:“医院和卫生系统等机构将能够向医生提供 Glass 实例,为临床医生提供人工智能驱动的临床决策支持,以建议的形式提供他们可以考虑的诊断、诊断研究和治疗步骤。” 。“我们还能够根据卫生系统的特定临床指南或护理服务实践定制 Glass AI 输出。”

Glass 的资金总额为 650 万美元,计划用于医生创建、审查和更新平台使用的临床指南、人工智能微调和一般研发。保罗声称 Glass 有四年的跑道。

继续阅读