IT世家 12 月 11 日信息,一项新的研究表明,ChatGPT 其实并不适合用来获得医药信息。
长岛县大学的研究人员向 ChatGPT 询问 39 个与药物相关问题,这些问题都是来源于该大学药学院药品信息服务中心的实际难题。接着,他将 ChatGPT 的答案与通过培训的药师整理的回答进行对比。
研究表明,ChatGPT 只有大约 10 个问题的回答是精确的,占总数的四分之一。对于一般 29 种情况,ChatGPT 的答案要不不全面,要不有误,要么没有处理问题。
IT世家留意到,该研究成果于周二在美国西雅图阿纳海姆举办的国外卫计药师协会年会上公布。
OpenAI 的 AI 对话机器人 ChatGPT 于 2022 年 11 月公布,不复存在上最受欢迎的顾客应用软件之一,2个月内就有近 1 亿多申请注册。
长岛县高校药理学实践活动副教授职称、这项研究创作者之一 Sara Grossman 表明,充分考虑 ChatGPT 的普及率,科研人员往往对它进行科学研究,是由于担忧他的学生们、别的药师和普通大众会用它来获取相关健康与服药方案的回答。
但是研究结果表明,这种查看通常会获得有误乃至风险的回答。比如,在一个问题中,科研人员了解 ChatGPT 新型冠状病毒抗病毒的药 Paxlovid 和降压药物维拉帕米进入体内会不会相互影响。ChatGPT 回答道,同时服用这几种药品不会产生任何不良反应。
实际上,同时服用这几种药品的人可能会发生血压值大幅度下降,可能会导致头昏和昏厥。Grossman 说,针对同时服用这几种药品的病人,临床医师一般会制订对于病人的方案,包含减少维拉帕米使用量或提示患者从座姿迟缓站起来。她补充道,ChatGPT 专业指导会把大家放置危险境地。
当科研人员规定 ChatGPT 给予支持其每一个回复信息科学合理参考文献时,发现此软件只能为她们了解的 8 种情况给予参考文献,而且所有参考文献全是 ChatGPT 编造的。
Grossman 以前很少使用过此软件,她惊叹于 ChatGPT 可以基本上马上生成信息内容,但这些信息需要通过培训的专业人士耗费几小时才可以编译程序。她讲:“ChatGPT 的答案用语很专业十分复杂,好像能增加人们对于该工具准确性的自信心,客户、顾客或其它无法辨别的人可能会被权威性的表象所蒙蔽。”
ChatGPT 的研发组织 OpenAI 的一位发言人表示,她们建议用户不要把 ChatGPT 的答案做为专业医疗提议与治疗的替代选择。这名新闻发言人阐述了 ChatGPT 的应用现行政策,这一政策强调“OpenAI 模型未经调整以获取医药信息”。这一政策还要求,这些模型决不应当用以“比较严重疾病的治疗与治疗服务项目”。
Grossman 虽然没有明确有几个应用 ChatGPT 去解决药品难题,但她担心他可能会像应用关键词搜索诊疗提议一样使用这些。Grossman 说:“我们总是期待马上得到回答,当她们手头上会有这样的工具时,他们便会这么做。我认为这只是另一种应用 ‘Dr. Google’ 和其它看起来便于获取信息工具的使用方式。”
针对线上医疗信息内容,她建议消费者应用政府门户网站提供可靠的信息内容。但是,Grossman 并不认为在网上回答可替代诊疗技术人员的提议,这些数据很有可能并不适用于患者本人,由于每个患者都是不一样的。