本研究是由新加坡国立大学刘钿渤组博士生何洪宇领衔、包括哈佛大学、斯坦福大学、耶鲁大学、谷歌公司、梅奥诊所等机构共同完成的,研究团队成员有医学 AI、放射学、临床医学等各方面的专家,具有很强的跨学科研究背景和临床实践经验。 随着生成式人工智能在医疗领域的加速渗透,越来越多的病历、影像报告及各类临床文本正逐步纳入 AI 参与生成的范畴。这一旨在提升医疗效率的技术革新背后,潜藏着威胁诊断安全性的深层隐患。 最近新加坡国立大学、哈佛大学、斯坦福大学等机构联合团队最新研究显示,当 AI 生成的临床文本被用作训练新一代 AI 模型时,一些罕见但是重要的病理信息会在数据迭代的过程中悄悄地消失,从而使得医疗 AI 整体诊断可靠性在群体上不断下降。 研究团队对临床文本生成、视觉-语言报告、医学图像合成这三个任务下的 80 多万条合成数据进行了系统的分析(如图 1 表示),首次证明了在没有强制性人工验证的情况下,多代自我训练循环会使病理多样性迅速消失,诊断可靠度急剧降低,并且医师评估也表明临床效用的退化。 最后研究团队提出了可以直接融入到目前临床工作流程中的缓解方法,在 AI 全面进...
