【文献快递】在临床中ChatGPT的应用

ChatGPT越来越受到重视,在临床实践中有多种应用场景。在临床决策支持方面,ChatGPT已被用于生成准确的鉴别诊断清单,支持临床决策,优化临床决策支持,为癌症筛查决策提供见解。此外,ChatGPT已被用于智能问答,以提供有关疾病和医疗查询的可靠信息。在医疗文档方面,ChatGPT已被证明在生成患者临床信函、影像学报告、医疗笔记和出院摘要方面是有效的,从而提高了医疗保健提供者的效率和准确性。未来的研究方向包括实时监测和预测分析、精准医疗和个化治疗

ChatGPT在远距离医疗和远程医疗telemedicine and remote health care)中的作用以及与现有医疗保健系统的集成。总的来说,ChatGPT是一个有价值的工具,它补充了医疗保健提供者的专业知识,并改善了临床决策和患者护理。然而,ChatGPT是一把双刃剑。我们需要仔细考虑和研究ChatGPT的好处和潜在危险。在这个观点下,我们讨论了ChatGPT在临床实践中的最新研究进展,并提出了在临床实践中使用ChatGPT可能存在的风险和挑战。它将有助于指导和支持未来的人工智能研究,类似于ChatGPT在健康领域的研究。

引言

ChatGPT是OpenAI开发的一个大型语言模型。它基于GPT架构,并使用深度学习技术生成自然语言文本。该模型是使用监督学习和强化学习策略开发的。ChatGPT可以生成连贯的、语法正确的文本,这是人工智能(AI)的重要发展。它显示了使用大型语言模型和从人类反馈中强化学习来改善临床决策支持(CDS)警报逻辑和潜在的涉及复杂临床逻辑的其他医学领域的巨大潜力,这是开发高级学习医疗保健系统的关键一步。

ChatGPT因其对各种主题的准确而精心制定的回应而迅速获得了全世界的关注。作为医生,我们有机会帮助指导和开发使用这个强大工具的新方法。它可以用于研究和开发,以分析大量医疗数据,确定趋势,并提供最佳临床实践的见解。医生需要考虑在临床实践中使用ChatGPT。此外,我们使用ChatGPT作为一种工具来支持医生的临床实践,而不是取代他们。

尽管ChatGPT越来越受欢迎,性能也越来越好,但仍缺乏对其临床应用的评估研究。同时,我们应该意识到ChatGPT是一把双刃剑,既有强大的功能,也有潜在的危险。为了更好地了解ChatGPT在临床中的应用,我们介绍了ChatGPT在临床中的最新进展,以帮助感兴趣的研究人员有效地掌握该课题的关键方面,并提供可能的未来研究方向。这一观点的目的是概述ChatGPT在临床实践中的最新进展(多媒体附录1),探讨ChatGPT在临床实践中的未来发展方向,突出其在临床实践中使用的风险和挑战,并提出适当的缓解策略。虽然ChatGPT在临床实践中表现出了良好的前景,但需要进一步的研究来完善和提高其能力。将ChatGPT集成到现有的电子健康记录(EHR)系统中有可能提高诊断准确性、治疗计划和患者预后。然而,必须将ChatGPT视为一种有价值的工具,它可以补充医疗保健专业人员的专业知识,而不是取代他们。

临床决策支持

临床决策是一个复杂的过程。它涉及到很多因素,如医生的临床思维、临床推理、个人判断、患者的病情等。这些因素可能导致认知偏差、推理错误和可预防的伤害。基于人工智能的CDS可以有效地支持医生的临床决策,改善治疗效果。目前ChatGPT在CDS(临床决策支持,clinical decision support)中的应用包括:

•鉴别诊断列表:Hirosawa等评估了ChatGPT-3和普通内科医生对10个常见主诉的临床病例、正确诊断和5个鉴别诊断。在10个鉴别诊断表中,ChatGPT-3的正确诊断率为28 / 30(93.3%)。在5个鉴别诊断表中,医师的正确诊断率优于ChatGPT-3 (98.3% vs 83.3%P = 03)。在ChatGPT-3生成的10份鉴别诊断清单中,88名医生中有62人的鉴别诊断率一致(70.5%)。本研究表明,ChatGPT-3生成的鉴别诊断清单对常见主诉的临床病例具有较高的诊断准确率。

•临床决策:Rao等将默沙普(Merck Sharp & Dohme, MSD)临床手册中已发表的36篇临床短文全部输入ChatGPT,根据患者年龄、性别和病例敏感性,比较鉴别诊断、诊断试验、最终诊断和处理的准确性。在所有36例临床病例中,ChatGPT的总体准确率为71.7% (95% CI 69.3%-74.1%)。

•癌症筛查:Rao等将ChatGPT反应与美国影像学会乳腺疼痛和乳腺癌筛查的适宜性标准进行了比较。ChatGPT提示格式是开放式的(OE),并选择所有适用的(SATA)。研究结果显示,乳腺癌筛查的平均OE得分为1.83分(总分2分),SATA的平均正确率为88.9%乳房疼痛的平均OE得分为1.125分(满分为2分),SATA的平均正确率为58.3%。结果表明,ChatGPT用于影像学决策的可行性,并具有改善临床工作流程的潜力。

CDS优化:Liu等研究了5位临床医生对ChatGPT生成的36条CDS推荐和专家生成的29条推荐的评分。研究结果显示,调查中排名前20位的推荐中有9个是由ChatGPT生成的。研究发现,ChatGPT生成的推荐提供了一个独特的视角,被评为高度可理解和相关,中等有用,但可接受性低,有偏见,反转和冗余。这些建议可以作为优化CDS警报、确定警报逻辑的潜在改进并支持其实现的重要补充部分,甚至可以帮助专家制定CDS改进建议。

•ChatGPT已经对CDS应用进行了评估。它已被证明可以生成准确的鉴别诊断清单、临床决策、优化CDS,并为癌症筛查决策提供见解。进一步的研究可以集中在开发先进的模型,将ChatGPT与现有的CDS系统集成在一起。这些模型可以利用广泛的医学文献、临床指南和患者数据来支持医生做出准确的诊断、制定治疗计划和预测患者的结果。通过将医疗保健专业人员的专业知识与ChatGPT的功能相结合,可以提供全面和个性化的决策支持。

问答(医疗查询)

智能问答通常用于提供有关疾病的信息或讨论临床试验结果。在临床实践中使用智能问答对卫生保健系统有各种好处,例如支持卫生保健专业人员和患者、分诊、疾病筛查、健康管理、咨询和卫生保健专业人员培训。ChatGPT可用于医疗保健领域的智能问答。然而,需要注意的是,答案可能会随着时间的推移和不同的问题提示而改变,并且可能会出现有害的偏见。重要的是负责任地使用ChatGPT,以确保它们可以帮助而不是伤害寻求疾病知识和信息的用户。以下是ChatGPT在医疗查询中的一些应用示例,展示了其在为各种疾病生成智能问题和答案提示方面的潜力:

常见视网膜疾病:Potapenko等进行了一项研究,以评估ChatGPT在提供常见视网膜疾病信息方面的准确性:年龄相关性黄斑变性、糖尿病视网膜病变、视网膜静脉闭塞、视网膜动脉闭塞和中心性浆液性脉络膜视网膜病变。通过一系列包括疾病概述,预防,治疗方案,以及每种疾病的预后在内的问题,总共获得了100份答复。结果表明,ChatGPT提供了高度准确的一般信息(中值5分,IQR 4-5,范围3-5)、疾病预防信息(中值4分,IQR 4-5,范围4-5)、预后信息(中值5分,IQR 4-5,范围3-5)和治疗方案(中值3分,IQR 2-3,范围2-5)。信度统计显示Cronbach α为0.910 (95% CI为0.867 – 0.940)。在被评估的100个回答中,45个被评为非常好,没有错误,26个有轻微的无害的错误,17个被标记为潜在的误解错误,12个有潜在的有害错误。

妇产科:Gunebaum等向ChatGPT提出了一系列关于妇产科的问题(共14个问题),并对每个问题的答案进行了评估。研究表明,ChatGPT对于在该领域几乎任何主题上寻求初步信息的用户都是有价值的。答案通常是令人信服的和信息丰富的。它们不包含大量的错误或错误信息。一个主要的缺点是训练模型的数据似乎不容易更新。

•肝病:Yeo等研究了ChatGPT在回答肝硬化和肝细胞癌(HCC)的知识、管理和情感支持方面的准确性和可重复性。ChatGPT中164个问题的回答由两名移植肝病学家独立评估,并由第3名审稿人进行审查。研究结果显示,ChatGPT对肝硬化(正确率79.1%)和HCC(正确率74%)有广泛的认识。然而,只有一小部分(肝硬化为47.3%,HCC为41.1%)被评为全面。在基础知识、生活方式和治疗方面的表现优于诊断和预防。在质量度量方面,该模型正确回答了76.9%的问题,但未能提供具体的决策截止点和治疗时间。ChatGPT可以作为患者和医生改善预后的补充信息工具。

•癌症:Johnson等使用“常见癌症神话和误解(Common Cancer Myths and Misconceptions)”网页上的问题来评估ChatGPT和国家癌症研究所(NCI)对这些问题的回答的准确性。结果显示,ChatGPT输出的NCI答案的总体准确率为100%,问题1至13的总体准确率为96.9% (k= -0.03, SE 0.08)。NCI和ChatGPT回答在字数和可读性上没有显著差异。ChatGPT提供了关于常见癌症神话和误解的准确信息。

通过提供可靠的信息和指导,ChatGPT在回答医疗问题方面的应用有望帮助医疗保健专业人员。然而,ChatGPT的响应是基于从训练数据中学习到的模式和知识生成的,目前它没有最新的医疗信息,也没有考虑到特定的患者情况。因此,医疗保健提供者应谨慎行事,并独立验证从ChatGPT获得的关键信息,以确保个别患者的准确性和适当性。谨慎和负责任的使用,以及持续的研究和开发,对于最大限度地发挥其效益和减少潜在的限制是必要的.

医疗文案

概述

对于医疗服务提供者来说,撰写医疗文件是一个冗长而耗时的过程。同时,医疗文献中的错误也很常见。医生和病人之间正确记录和交换临床信息是至关重要的。医疗文件要求高度准确,因此记录员应能够捕捉并准确记录面谈期间讨论的所有医疗信息。ChatGPT是医疗文档的有效工具。使用ChatGPT作为语言助手或提供模板,可以显著减少临床医生撰写医疗文档的时间,提高准确性。以下四个小节说明了ChatGPT可以有效应用的特定领域,包括生成患者门诊信函、影像学报告、医疗笔记和出院摘要,展示了其简化医疗文档和提高临床医生效率的潜力。

病人及诊所信件

Ali等以皮肤癌为例,评估了ChatGPT生成的致患者临床信函的可读性、事实准确性和人性化。在创建的38种假设的临床情况中,7种涉及基底细胞癌,11种涉及鳞状细胞癌,20种涉及恶性黑色素瘤。信中临床信息的总体中位准确性为7(范围1-9)。写作风格人性化的总体中位数为7(5-9)。准确性κ的权重为0.80 (P<0.001),人性的权重为0.77 (P<0.001)。这一评估表明,ChatGPT可以生成具有高整体准确性和人性化的临床信件。此外,这些信件的阅读水平与目前医生所写的信件大致相当。

影像学

Jeblick等调查了15名影像科医生,以评估ChatGPT简化影像学报告的质量。在所有的评分中,75%的人选择“同意”或“非常同意”(Q3=2),没有人选择“非常不同意”。大多数影像科医生认为,简化后的报告是准确和完整的,对患者没有潜在的危害。本研究的初步结果表明,ChatGPT在提高影像学以患者为中心的医护方面具有很大的潜力。

医疗记录

ChatGPT帮助医生写病历。ChatGPT可以为入住重症监护室的患者编写结构化的医疗记录,提供有关正在进行的治疗、实验室样本、血气分析以及呼吸和血液动力学参数的信息。ChatGPT可以正确地将大多数参数分组到相应的部分,即使它们只是缩写形式,没有任何关于其含义的信息。

出院小结

Chintagunta等利用GPT-3输出的可变性,对医学知识进行整合和灌输,使其成为医学总结的有效低样本学习方法(low-shot learning method)的一个组成部分。GPT-3将在以前未见过的示例上执行任务的启动上下文作为输入。启动上下文是指对任务的文本描述和任务表现的一些演示。这些研究表明,ChatGPT允许医生输入要包含的具体信息的简要描述,要详细阐述的概念和要解释的说明,并在几秒钟内输出正式的出院摘要(图)。ChatGPT还可以提高出院小结本身的质量。

未来研究方向

实时监控和预测分析

持续监测患者数据,如生命体征、实验室结果和可穿戴设备数据,为早期发现临床恶化和主动干预提供了机会。未来的研究可以探索ChatGPT如何分析和解释这些实时数据流,识别模式、趋势和异常变化。ChatGPT可以提供及时警报、风险评估和预测分析,使医疗保健专业人员能够及早干预,并在集成到监测系统中时预防不良事件。

精准医疗和个体化治疗

ChatGPT可以分析患者的特定数据,包括遗传信息、生物标志物和治疗历史,从而产生量身定制的治疗建议,并预测个体对治疗的反应。ChatGPT可以通过分析复杂的数据集和生成个性化的治疗建议来帮助医生和患者。进一步的研究可以集中在开发ChatGPT模型上,该模型使用大规模基因组和临床数据来提供更准确的治疗结果预测,确定最佳治疗方法,并协助临床试验匹配精准医疗计划。

远程医疗

随着远程医疗的不断发展,ChatGPT在促进虚拟医患互动方面的作用可以被探索。它可能涉及基于ChatGPT的虚拟助手的开发,可以帮助医疗保健专业人员对患者进行分类,提供初步评估,并为家庭护理提供远程指导。此外,ChatGPT可以被训练来解决病人的问题,提供健康教育,并支持家庭自我保健。ChatGPT可以通过提供虚拟帮助和远程指导,在促进虚拟医患互动方面发挥重要作用。

与现有医疗保健系统的集成

ChatGPT与现有临床工作流程和电子病历系统的无缝集成对于其在医疗保健环境中的有效使用至关重要。研究应侧重于开发标准和协议,以实现ChatGPT和EHR系统之间的互操作性、数据交换和安全通信。它将使ChatGPT在实时CDS和文档中得到有效的使用。ChatGPT可用于提高从非结构化临床记录和电子病历中提取信息的效率和准确性。未来的研究可以探索将ChatGPT集成到EHR系统中,以实现智能数据提取、汇总和分析,以支持临床研究、质量改进计划和循证实践。

使用ChatGPT可能面临的风险和挑战

尽管ChatGPT在临床应用的评估研究中取得了优异的结果,但潜在的负面影响也不可低估,包括隐私、伦理、偏见和歧视。ChatGPT会导致有意或无意地滥用各种应用程序。虽然并非所有提出的欺诈用途都是ChatGPT所独有的,但令人印象深刻的是,ChatGPT有效地加速了创建具有高度可信度的虚假证据和材料。ChatGPT可能会产生幻觉或虚假信息。“幻觉(Hallucination”)”是指模型生成的内容并非基于现实,创造了一个完全虚构的故事或事实。另一个问题是,ChatGPT可以再现其训练数据中存在的偏差。在医疗保健领域,信息的准确性是至关重要的,信息中的错误或不准确的存在是可怕的。为了确保安全可靠地使用ChatGPT,严格的人工审查过程和工作流程中的人工参与是必不可少的。遵守相关的标准和标准,如准确性、可靠性、可解释性、可解释性和用户接受基准,是必要的。必须探索由监管机构或专业组织开发的现有框架和指南,以评估卫生保健中的人工智能系统,并将其用于ChatGPT。根据这些基准验证ChatGPT对于保证其在临床实践中的安全性和有效性至关重要。

在使用ChatGPT时,必须采取安全措施来保护患者信息,包括加密、访问控制、安全数据存储和遵守隐私法规。为了保护隐私,用于培训和微调ChatGPT的患者数据应该匿名化,在ChatGPT的开发和部署过程中,获得患者对数据使用的同意至关重要。应努力减轻重新识别的风险,并防止将未识别的患者数据与可识别的信息联系起来。记录和监测系统活动对问责制和可审计性至关重要。积极主动的方法是必要的,以确保持续的患者隐私和数据保护。应考虑遵守相关法律、法规和指南,例如数据保护法规、患者隐私法和针对人工智能技术的医疗保健法规。合规对ChatGPT临床整合的影响,以及确保遵守法律和道德标准的必要步骤,都应该得到解决。

虽然ChatGPT显示出希望,并有可能彻底改变临床实践范式,但仍有几个障碍阻碍其临床应用。首先,它缺乏理解疾病和治疗之间复杂关系所需的医学专业知识和背景,因为它不是专门为回答医学问题而设计的。因此,ChatGPT产生的推荐质量需要从临床专家的角度进行评估,考虑对临床结果的短期和长期影响。其次,ChatGPT的训练数据已经过时,仅限于截至2021年9月的信息。鉴于医学研究的快速发展和进步,缺乏最新信息可能会影响其在临床实践中的可用性。在确保数据准确性的同时,保持ChatGPT的培训数据最新,对于解决这一限制并增强其在临床环境中的应用至关重要。第三,ChatGPT目前依赖于人工输入信息,需要未来的迭代来实现从电子病历中自动提取数据,而不需要人工输入。然而,在这种情况下管理患者数据带来了重大挑战,因为必须制定严格的法规来确保患者隐私并防止信息滥用。因此,细致的数据存储和访问管理至关重要。

综上所述,在使用ChatGPT时,我们必须谨慎主动地应对潜在风险,以确保患者医疗的安全和质量。通过清楚地了解ChatGPT的功能和局限性,研究人员和从业者可以有效地使用该技术,同时避免任何意想不到的后果。不管我们对ChatGPT的态度如何,人工智能的发展是不可阻挡的。最明智的做法是接受它,并利用它的能力来改善人类的卫生保健。

Jialin Liu (四川成都华西医院) , Changyu Wang  , Siru Liu Department of Biomedical Informatics ,Vanderbilt University Medical Center).JUtility of ChatGPT in Clinical Practice. Med Internet Res. 2023 Jun 28;25:e48568.doi: 10.2196/48568.

Leave a Reply