2023-05-11 来源: drugdu 182
Lisette Hilton |
医疗保健机构已经在使用聊天机器人来帮助执行管理任务,如安排预约或要求重新配药。尽管用户表示,目前的生成人工智能(AI)技术无法安全治疗患者,但最近一项针对医疗实践的调查显示,77%的用户预测聊天机器人将能够在未来十年内治疗患者。
根据Software Advice于2023年3月对65名在其网站上使用实时聊天机器人的医疗保健提供者或机构所有者进行的2023年医疗聊天机器人调查,超过四分之三的受访者对聊天机器人评估患者症状的能力极有信心或有点信心。
Chris R.Alabiad,医学博士,临床眼科教授和眼科住院医师项目主任 佛罗里达州迈阿密的巴斯科姆·帕尔默眼科研究所测试了ChatGPT(开放人工智能)在学术和临床环境中的使用。他在Bascom Palmer Grand Rounds试用了ChatGPT,并将其作为撰写推荐信的资源(他说这很有效),并测试了这项技术,看看它是否可以回答眼科临床知识的多项选择问题。
“它在这方面也做得很好,但也有一些局限性,”他说。“我的同事们用它生成了给保险公司的治疗预授权信等。”
聊天机器人根据大量数据进行训练,以理解并产生类似人类的反应。开发人员尚未消除这些所谓的人工智能大型语言模型(LLM)的局限性,这些模型使他们无法在医疗保健领域取代人类。
Alabiad说:“人工智能获取信息的数据来源没有经过充分审查。”。“它从……资源中获得的信息可能不准确、不完整或有冲突。需要推理的多步骤推理是一个已知的弱点,选择下一个最佳步骤也是如此,尤其是在多种治疗方法都是可接受的治疗方法的情况下。聊天机器人的幻觉或非逻辑推理发生率很高。机器人可以为事情提供令人信服的论据甚至不是真的,也不是完全虚构的。”
Alabiad表示,人工智能很难进行计算,聊天机器人从中获取的信息来源存在偏见,当聊天机器人向用户传递信息时,这些偏见可能会转化为习得的偏见。
根据《柳叶刀》数字健康杂志的一篇社论,学术出版是ChatGPT可能成为敌人的另一个领域。
社论称:“OpenAI自己承认,ChatGPT的输出可能是不正确或有偏见的,比如引用不存在的文章参考,或者延续性别歧视的刻板印象。它也可能对有害指令做出反应,比如生成恶意软件。”。“OpenAI设置了护栏以将风险降至最低,但用户已经找到了解决这些问题的方法,由于ChatGPT的输出可以用于训练模型的未来迭代,这些错误可能会被回收和放大。”
尽管存在局限性,但有很多关于医学中聊天机器人的轶事证据和同行评审研究引发了讨论。
其中一些研究发现聊天机器人是很好的沟通工具。
研究人员报告称,人工智能驱动的聊天机器人的使用促进了脊柱外科医生、患者及其亲属之间的沟通,简化了患者数据收集和分析,并为手术计划过程做出了贡献。其更新版本ChatGPT/GPT-4还提供了实时手术导航信息和生理参数监测,以及辅助指导术后康复。
根据发表在《生物医学工程年鉴》上的论文,“然而,考虑到与数据安全和隐私相关的潜在风险,适当和监督地使用ChatGPT/GPT-4是至关重要的”。
当研究人员将医生和聊天机器人的回答与社交媒体论坛上随机抽取的195个患者问题进行比较时,他们发现机器人的回答质量明显更高,更具同理心。发表在《美国医学会杂志内科学》上的研究结果表明,这些人工智能助理可能能够帮助起草对患者问题的回答
《福布斯》发表的一篇文章称,聊天机器人可能也有助于医学的其他领域,如临床试验招募。
文章称:“ChatGPT可以通过分析大量患者数据和确定符合试验资格标准的个人来确定试验的潜在参与者。”。“通过利用ChatGPT的能力,临床试验招募工作可以在接触不同人群方面变得更加高效、有针对性和有效。”
超越ChatGPT
ChatGPT可能会成为头条新闻,但它并不是唯一可用的人工智能聊天机器人。谷歌最近发布了人工智能聊天机器人Bard。还有许多其他公司在开发聊天机器人,一些公司正在寻求为医疗保健完善ChatGPT。例如,Doximity有DocsGPT,它是使用OpenAI的ChatGPT开发的,并接受了针对医疗保健的散文培训 HIMSS医疗保健IT新闻。
考虑到风险投资家的兴趣水平,在可预见的未来应该会有更多的选择。Pitchbook的《2023垂直快照:生成人工智能》显示,“2022年,聊天机器人、虚拟助理和语音机器人在自然语言界面方面的风投投资占57.8%。”。
聊天机器人在医学领域的未来仍不确定。但正如OpenAI首席执行官萨姆·奥特曼在接受福克斯新闻采访时所说,这项技术本身很强大,可能很危险。
奥特曼说:“我认为人们应该感到高兴,因为我们对此有些恐惧。”。
责编: editor