英国政府委托的一项独立审查报告指出,医疗系统必须正视并解决医疗设备在设计及应用中存在的种族与民族偏见问题。该审查旨在探究一种普遍担忧:在国民医疗服务体系(NHS)广泛使用的脉搏血氧仪,可能因肤色较深而测量不准,进而延误重症患者的救治。
审查发现“大量证据”表明,脉搏血氧仪倾向于高估肤色较深人群的血液氧含量。这一隐患在新冠疫情期间首次凸显,可能导致黑人患者的预后结果劣于白人患者。此外,审查还揭露了其他类型的设备偏见案例,例如用于医学影像诊断的人工智能算法,往往因依赖“标准患者”数据而受到无意识的影响。在NHS的语境下,这类数据通常代表“典型的白人、男性、相对富裕且出生于英国的人群”。
具体而言,用于诊断皮肤病和皮肤癌的人工智能模型,在应用于肤色较深人群时,其准确性已证实有所下降。审查还探讨了直接面向公众销售的“多基因风险评分”(PRS)技术,该技术虽尚未被NHS采纳,但已有充分证据显示其对非欧洲遗传背景群体存在偏见,可能导致公众及医疗专业人士对结果的误读。
审查主席玛格丽特·怀特海德教授强调,社会既有的偏见和不公可能不知不觉地融入人工智能医疗设备的整个生命周期,并在算法开发与机器学习中被放大。英国卫生与社会保障部(DHSC)已接受审查结论并实施行动计划,包括确保NHS使用的脉搏血氧仪能安全适用于各种肤色,并推动消除临床研究数据集中的种族偏见。
目前,英国药品和医疗产品监管局(MHRA)要求新医疗设备审批申请必须说明如何解决偏见问题,而英国国家卫生研究所(NIHR)正接受关于开发更智能血氧仪的研究资助申请。牛津大学健康信息学副教授萨拉·哈利德博士评论称,该审查重申了健康数据匮乏导致偏见性人工智能加剧系统性健康不平等的观点,未来需密切关注这些建议如何切实影响临床实践。
对于中国医疗行业而言,随着国产AI辅助诊断与可穿戴设备出海及本土化应用的加速,建立包容性更强的训练数据集、规避算法中的隐性偏见,已成为提升医疗公平性与产品国际竞争力的关键课题。