研究揭示AI医疗模型可能加剧诊疗偏见与过度诊疗问题

近期国际研究表明,先进的大语言模型可能在医疗领域放大了“看人下菜碟”的问题。美国西奈山伊坎医学院和西奈山卫生系统的研究显示,在评估9个大模型对1000个急诊病例(包括500个真实及500个合成病例)的170万个看诊结果后,发现被标记为“高收入”的人群更易获得CT和核磁检查机会,而中低收入者通常仅接受基本检查或无检查。

此外,标注为“无住房”的患者更频繁地被指向紧急护理、侵入性干预或心理健康评估。更早的研究表明,AI能通过X射线预测患者的种族和性别信息,这使得赛博医生比人类医生更精于根据患者背景作出选择。

研究者警告称,这种模型驱动的“偏见”可能导致不同人群健康水平差距扩大,部分患者可能为不必要的检查和治疗买单,不仅浪费金钱,还可能损害健康。

数据质量问题是造成这一现象的重要原因。华东政法大学特聘副研究员童云峰指出,低质数据可能导致AI将普通感冒误判为癌症。复旦大学公共卫生学院等机构的研究也表明,中国女性肺癌患者过度诊疗率在过去9年间从22%增至50%,其中近90%的肺腺癌患者属于过度诊断。

即使使用高质量数据,偏见仍难以完全消除。复旦大学教授邱锡鹏认为,直接构建无偏数据库非常困难,且良好的数据未必能训练出完全无偏见的大模型。解决此问题需要进行“人机对齐”,即通过过滤数据、指令微调和奖励函数等方式注入人类价值观。

然而,人机对齐成本高昂,可能增加管理风险。例如,OpenAI曾设立超级对齐团队,但因资源消耗过大在一年后解散。尽管研究者尝试修正模型,但“偏见”仍无法完全根除。

生成式人工智能作为概率模型,难以避免小概率事件带来的损害,这对容错率极低的医疗行业构成挑战。北京协和洛奇功能医学中心主任何健博士表示,过度诊疗与医学发展水平密切相关。精准医疗与过度医疗之间存在灰色地带,需通过足够多的数据明确边界。

以阿尔茨海默病为例,全球领先的生命科学研究云平台Medidata联合创始人格伦·德弗里指出,明确痴呆损伤和死亡两个阈值至关重要。若预测到患者在死亡前可能出现痴呆损伤,则及时干预必要;反之则无意义。

要实现这一目标,需医学持续进步并积累充分数据。何健强调,功能医学等关注整体健康的分支可补充现有模式不足,但需要医患观念转变,从疾病为中心向病人整体为中心过渡。

研究表明,打破信息不对称有助于抑制过度诊疗。患者交叉验证不同医生的诊断结果,可使过度医疗降幅高达40%。随着可穿戴设备和人工智能技术的发展,人们对自己健康状况的理解将更加深入,过度诊疗空间有望进一步压缩。

普通人需认识到人体自愈能力的重要性,许多生理改变如肺结节(7mm以下)、甲状腺结节等并不算疾病,无需过度关注或治疗。未来如何解读和面对越来越多的生理性改变及早期病变,将成为重要课题。

免责声明:本文内容由开放的智能模型自动生成,仅供参考。

最新文章
Copyright © DoNews 2000-2025 All Rights Reserved
蜀ICP备2024059877号-1