ChatGPT在临床医疗的8个创新应用

文章主题:临床医疗, ChatGPT, 使用场景, 人工智能

666AI工具大全,助力做AI时代先行者!

目录: 

1、导读

2、背景

3、ChatGPT在临床医疗中的8个使用场景

3.1辅助临床决策3.2帮助保险公司的预授权3.3生成医疗报告3.4解读病历档案3.5交互式辅助诊断3.6帮助医生参与倡议3.7捏造写作论文3.8识别伪造图像

4、结论

1. 导读

几年来,人工智能获得语言能力,大量创造越来越难以与人类生成文本区分的句子。在 2022 年 11 月发布的 AI 聊天机器人 ChatGPT,正式将大型语言模型的工具能力带给了大众。数以万计的人正在使用它,生成结果有时是令人兴奋的、有时是可怕的。ChatGPT以及其他大型语言模型是双刃剑,这篇文章说明它们在临床环境中的潜在作用以及对医学的潜在影响。

2. 背景

大型语言模型( Large Language Models,LLMs )是为理解和生成自然语言而训练的深度学习模型。最近的研究表明,LLMs在自动文摘、机器翻译、问答等广泛的自然语言任务中取得了巨大的成功。LLMs很好地完成了以下任务:

首先,LLMs是建立在Transformer上的,Transformer是一种先进的神经网络结构,具有许多参数。Transformer的主要新颖之处在于其自注意力机制,使模型能够更好地理解输入中不同元素之间的关系。

其次,LLMs采用两阶段的训练流程来高效地从数据中学习。在初始预训练阶段,LLMs使用自监督学习方法,允许他们从大量未标注数据中学习,而不需要人工标注。与传统的全监督深度学习模型相比,这种能力是一个显著的优势,因为它不需要大量人工标注,并且具有可扩展性。在随后的微调阶段,LLMs在小型的、任务特定的、带注释的数据集上进行训练,以利用他们在预训练阶段获得的知识来执行特定任务。因此,LLMs在各种任务上以最少的人工实现了较高的准确率。

ChatGPT是OpenAI推出的会话式AI系统。它受训于各种互联网文本,包括书籍、文章和网站,涵盖新闻、维基百科和小说等广泛的主题。特别地,ChatGPT是通过强化学习从人的反馈中训练的。该技术允许ChatGPT根据人的输入来调整其行为。因此,ChatGPT在理解用户意图,生成类人文本,以及保持会话的连贯性方面表现突出。

尽管ChatGPT有其优点,但也存在一些局限性。ChatGPT的一个局限是,它可能会产生看似可信但不正确的反应。这种现象被称为”hallucination effect”,是许多自然语言处理模型中普遍存在的问题。此外,ChatGPT倾向于遵循指令。例如,当用户提供的信息不足时,ChatGPT倾向于对用户想听到的内容做出假设。

因此,ChatGPT和其他LLMs可能会带来意想不到的后果,成为一把双刃剑。这篇文章提供了几个用例来说明这些工具在临床环境中的潜在作用以及它们对医学报告的潜在影响。

3. ChatGPT在临床中的8个使用场景

3.1辅助临床决策

自电子健康档案( Electronic Health Records,EHRs )问世以来,人们就开始利用电子健康档案来指导决策。临床决策支持( Clinical Decision Support,CDS )是增强健康相关决策的过程。CDS通过优化临床决策和临床流程,为临床医生、患者和其他利益相关者赋能,旨在提高医疗服务质量。近年来,通过CDS系统,无论是基于EHR还是作为附加软件,提高放射科影像检查准确性越来越受到关注。

随着人工智能技术的发展,一个新的问题出现了:基于人工智能的技术能否提供成像适宜性指导? ChatGPT等基于人工智能的聊天机器人可以利用丰富的知识库,快速回答特定临床场景下最佳成像研究的问题。虽然ChatGPT可以提供一定的指导,但它不提供直接的医疗建议。此外,用户必须仔细制定问题或提示,提供关于临床场景和潜在禁忌症的具体信息。在没有详细提示的情况下,ChatGPT往往会给出不准确或不完整的结果。此外,基于人工智能的技术提供的答案的准确性取决于用于训练它的数据的质量和类型。最后,在EHR之外使用基于人工智能的技术可能会错失利用患者信息以及偏好、能力和限制来帮助决策的机会。

3.2辅助保险公司的预授权

预授权是指只有在获得保险公司的事先授权的情况下才可以付费。无论对于转诊还是影像,预授权的过程都是费时费力的。ChatGPT可以通过起草一封致保险公司的信函来简化预授权工作流程。风湿病学家Cliff斯特默博士在TikTok的帖子中展示了这一能力,他使用ChatGPT给一家医疗保险公司写了一封信,说明为什么系统性硬化症患者应该被批准进行超声心动图检查。ChatGPT制作了一封完整的信函,其中包括适当的标题和格式,并提供了明确的考试解释,并附有编造的参考资料。斯特默博士的帖子在撰写本文时被浏览了超过145000次,并在TikTok和Twitter上引发了热烈讨论。然而,ChatGPT不连接互联网,因此无法确定哪些保险计划需要预授权或每个计划的授权过程的要求。它也可能生成无效但可能看似合理的来源和引用。

3.3生成医疗报告

ChatGPT可以根据放射科医生提供的关键字生成医疗报告模板。此外,它还可以产生面向患者的材料,如活检等程序的指导,以及术后护理。ChatGPT还可以通过提供翻译来协助多语种沟通,这对于招募临床试验患者非常有用。

3.4解读病历档案

ChatGPT可以提供患者EHRs的总结。在常规实践中,临床医生通过阅读患者的先前病历来进行审查,以识别重要的信息。相反,临床医生可以利用ChatGPT总结患者的既往就诊情况并询问具体问题,如是否有急诊科就诊或实验室检查结果异常。本概要使ChatGPT能够更全面地了解患者的当前病情,辅助诊断过程。

3.5交互式辅助诊断

ChatGPT可以提高计算机辅助诊断(computer-aided diagnosis, CAD)系统的可解释性。CAD系统往往依赖于深度学习模型。虽然一些研究提出了可解释的AI CADs,但大多数研究仅突出了AI认为重要的医学图像区域,对诊断的潜在原理提供了有限的见解。通过将ChatGPT整合到CAD系统中,临床医生可以询问关于特定患者或图像的开放式问题,从而使AI能够使用自然语言解释其原理。此外,这种交互功能使人工智能能够像放射科医生那样传达知识。临床医生可以利用人工智能的知识来获得关于现有指南的数据支持的见解,并可能发现新的基于图像的生物标志物。

3.6帮助医生参与倡议

倡议是参与旨在影响政治、经济和社会决策的活动。医生可以为患者提供专业的建议,但医生往往很少参与。政府游说的对象是负责医疗保健政策的立法者。对于时间有限和没有接受过倡议培训的医生个人,ChatGPT可能会起草具体的和有针对性的沟通。通过降低参与障碍,ChatGPT让更多多样化的声音被听到。

然而,如果被专业游说者或特殊利益集团采用,同样的技术可能会产生相反的效果。这种利用聊天机器人模仿人类通信能力的可能场景。虽然不那么复杂,但机器人在社交媒体上的帖子已经被国会牵连在2016年美国总统选举中。在如此多的医疗保健依赖于联邦和州的法规的情况下,我们应当认识到ChatGPT的潜在好处。同时,对那些会利用ChatGPT产生不正当影响的人保持高度警惕。

3.7捏造写作论文

ChatGPT编造科学论文的潜力引起了学术界的关注。ChatGPT用于撰写大学和研究生院论文和作业的报告是即时的。多个工具随后被发布,以识别人工智能生成的写作。

虽然ChatGPT使用的权威文体看起来比较容易识别,但这种写作风格从定义上看,与学术写作中的文体选择类似。最近,Gao等人基于高影响力的期刊摘要样本,使用ChatGPT生成新的摘要来测试该理论。这些人工摘要在人工智能输出检测器程序上平均得分较高,但在抄袭检测器上得分较低。当审稿人被要求识别捏造的摘要时,他们正确识别了68 %,但错误地将14 %的真实摘要标记为捏造。这一早期数据表明,虽然同行评议者很可能能够识别出最恶劣的造假,但经过后续润色的文章可能会欺骗没有经验的同行评议者。

目前使用ChatGPT生成手稿的局限性包括无法整合2021年模型训练后发布的数据,其倾向于制造全引用,以及无法适当地将医学知识拼凑在一起。虽然它可以在普通放射学上写出权威的文章,但它将医学知识放在一起没有意义。例如,ChatGPT在生成乳腺MRI文章的同时,可能会将乳腺密度与背景实质强化混淆。虽然未来的模型发布和特定模型如PubMedGPT 2.7 B可能会弥合知识鸿沟,但前沿研究将是这些模型产生的最大困难。

编辑和审稿人需要意识到,提交一篇完全捏造的文章,由合成数据、图像和错误归因的引文证实是不可避免的。国际机器学习大会( ICML )最近宣布,人工智能工具不能用于生产整篇文章,但允许用于编辑或精炼文本。早期的报告显示,大多数摘要可以被目前可用的软件标记,类似于如何日常使用抄袭检查。剩余的高质量的伪造文章可能可以通过仔细的同行评审和根据要求将期刊要求相结合。

3.8识别伪造图像

人工智能可能被滥用于不道德的目的,如伪造图像。自动检测算法已被用于通过识别诸如拼接、复制-移动、移除和增强等伪造来识别潜在的伪造图像。然而,人工智能图像处理系统如DALL – E 2、稳定扩散等的进步,可以从自然语言描述中创建逼真的图像,这使得这一检测任务更具挑战性。稳定化扩散的微调变异最近从基于文本的提示中生成了具有特定病理的高质量合成胸片。虽然ChatGPT目前仅限于文本生成,但不法分子可以使用基于文本的图像生成器生成具有现实变化的伪造图像,甚至可以逃避检测算法,使得准确检测更加困难。未来的研究应着重于开发能够识别伪造痕迹的更先进的检测系统。

4. 结论

在我们使用ChatGPT等人工智能技术的决策时,谨慎行事很重要。尽管存在这些挑战,利用这项技术的力量为临床决策支持甚至成像适宜性提供巨大的潜力。考虑ChatGPT和类似的人工智能技术在未来的可能性是令人兴奋的。然而,这使得期刊对投稿稿件的科学完整性评价更具挑战性。 

AI时代,拥有个人微信机器人AI助手!AI时代不落人后!

免费ChatGPT问答,办公、写作、生活好得力助手!

搜索微信号aigc666aigc999或上边扫码,即可拥有个人AI助手!

Leave a Reply