发表在开放获取期刊《英国医学杂志健康与护理信息学》(BMJ Health & Care Informatics)上的一项英国范围内的在线快照调查结果显示,五分之一的家庭医生(全科医生或全科医生)似乎已经很容易将人工智能(AI)纳入他们的临床实践,尽管缺乏任何关于这些工具使用的正式指导或明确的工作政策。
研究人员总结说,医生和医疗学员需要充分了解人工智能的利弊,特别是因为人工智能固有的不准确性(“幻觉”)、算法偏差以及损害患者隐私的可能性。
研究人员表示,在2022年底推出ChatGPT之后,人们对大型语言模型驱动的聊天机器人的兴趣激增,人们越来越关注这些工具的临床潜力。
为了评估目前聊天机器人在英国临床实践中帮助任何方面的使用情况,研究人员在2024年2月向随机选择的在临床医生营销服务Doctors.net.uk注册的全科医生样本分发了一份在线调查。
这项调查的样本量预定为1000人。
医生被问及他们是否曾经在临床实践的任何方面使用过以下任何一种:ChatGPT;Bing人工智能;谷歌的吟游诗人;或“其他”。
然后他们被问到他们用这些工具做什么。
大约1006名全科医生完成了这项调查:超过一半的回答来自男性(531名;53%)和类似比例的受访者(544;54%)年龄在46岁及以上。
五分之一(205;20%的受访者表示在临床实践中使用了生成式人工智能工具。
其中,超过四分之一(29%;47)报告在患者预约后使用这些工具生成文件,类似比例(28%;45)说他们用它们来建议鉴别诊断。
四分之一(25%;40)说他们使用这些工具来建议治疗方案。
研究人员承认,调查的受访者可能不能代表所有的英国全科医生,而那些回应的人可能对人工智能特别感兴趣——不管是好是坏——这可能会给调查结果带来一定程度的偏见。
他们补充说,需要进一步研究,以更多地了解医生如何使用生成式人工智能,以及如何最好地将这些工具安全可靠地应用于临床实践。
“这些发现表明,全科医生可能从这些工具中获得价值,特别是在管理任务和支持临床推理方面。
“然而,我们警告说,这些工具有局限性,因为它们可能嵌入微妙的错误和偏见,”他们说。
他们指出:“(这些工具)也可能有损害和破坏患者隐私的风险,因为目前尚不清楚生成式人工智能背后的互联网公司如何使用它们收集的信息。
“虽然这些聊天机器人越来越多地成为监管努力的目标,但目前尚不清楚立法将如何以实际方式与临床实践中的这些工具相结合。”
他们得出结论:“医学界需要找到方法,让医生和受训者了解这些工具在总结信息方面的潜在好处,但也要了解在幻觉(对不存在的模式或物体的感知)、算法偏差以及损害患者隐私方面的风险。”
×