3个问题:人工智能促进医疗保健公平
Regina Barzilay,Fotini Christia和Collin Stultz描述了人工智能和机器学习如何支持医疗保健中的公平,个性化和包容性。
(从左至右:) Regina Barzilay是MIT和AI工程学院的杰出教授,也是MIT Jameel诊所的AI系主任。Collin Stultz是麻省总医院的电气工程和计算机科学教授和心脏病学家。福蒂尼克里斯蒂亚(Fotini Christia)是政治学教授,还是社会技术系统研究中心主任。
人工智能在医疗保健领域实现公平的潜力刺激了重大的研究工作。传统上,种族,性别和社会经济差异困扰着卫生保健系统,其方式难以发现和量化。但是,新的AI技术为变革提供了平台。
里贾纳巴兹莱(Regina Barzilay)是MIT Jameel诊所的AI与健康工程学院特聘教授,也是人工智能的教职联席主任;Fotini Christia,政治学教授,麻省理工学院社会技术系统研究中心主任;麻省总医院电气工程和计算机科学教授,心脏病专家Collin Stultz在这里讨论了AI在公平医疗,当前解决方案和政策含义方面的作用。三人是AI for Healthcare Equity会议的联合主席,会议将于4月12日举行。
问:人工智能如何帮助解决医疗保健系统中的种族,性别和社会经济差异?
Stultz:许多因素导致医疗保健系统中的经济差异。首先,毫无疑问,人类固有的偏见助长了边缘化人群的健康状况。尽管偏见是人类心理中不可避免的一部分,但它是阴险,普遍且难以发现的。实际上,众所周知,个人在检测自己对世界的看法时发现自己的偏见是很差的。这一事实推动了隐式联想测验的发展,这种测验使人们能够理解潜在的偏见如何影响决策。
人工智能为开发使个性化医学成为现实的方法提供了平台,从而确保客观地做出临床决策,以最大程度地减少不同人群之间的不良后果。机器学习尤其描述了一组帮助计算机从数据中学习的方法。原则上,这些方法可以提供仅基于对基础数据进行客观分析的无偏预测。
然而,不幸的是,偏见不仅影响个人如何看待周围的世界,还影响我们用来构建模型的数据集。存储患者特征和结果的观察性数据集通常反映出卫生保健提供者的潜在偏见。例如,某些治疗可以优先提供给具有较高社会经济地位的人。简而言之,算法可以继承我们自己的偏见。因此,使个性化医学成为现实取决于我们开发和部署无偏性工具的能力,这些工具可以从观察性临床数据中学习针对患者的特定决策。这项工作成功的关键是开发可以识别算法偏差并在确定偏差时提出缓解策略的方法。
明智,客观和针对患者的临床决策是现代临床护理的未来。机器学习将使实现这一目标大有帮助-获得数据驱动的临床见解,而没有可能影响医疗保健决策的隐性偏见。
问:这个领域目前正在开发哪些AI解决方案?
Barzilay:在大多数情况下,有偏见的预测可以归因于训练数据的分布特性。例如,当训练数据中某些群体的代表性不足时,所得分类器在该群体上的表现可能会不佳。默认情况下,模型针对整体性能进行了优化,因此无意中选择了适合大多数类别的产品,而以牺牲其余产品为代价。如果我们知道数据中存在这样的少数群体,我们可以采用多种方法来引导我们的学习算法朝着公平的行为发展。例如,我们可以修改学习目标,使我们在不同群体之间保持一致的准确性,或者重新衡量训练示例的重要性,从而扩大少数群体的“声音”。
偏差的另一个常见来源与“扰民变化”有关,其中分类标签与某些输入特征具有特有的相关性,这些输入特征是特定于数据集的,不太可能泛化。在具有此类属性的一个臭名昭著的数据集中,具有相同病史的患者的健康状况取决于他们的种族。这种偏见是构建培训数据的方式的不幸产物,但它导致了黑人患者的系统区分。如果事先知道了此类偏差,则可以通过强制模型降低此类属性的影响来减轻其影响。但是,在许多情况下,我们训练数据的偏差是未知的。可以安全地假设将在其中应用模型的环境可能与训练数据表现出一定的分布差异。为了提高模型对此类变化的容忍度,许多方法(例如不变风险最小化)都明确地训练了模型以将其鲁棒地推广到新环境。
但是,我们应该意识到,算法不是可以纠正杂乱无章的实际训练数据中所有错误的魔术棒。当我们不知道特定数据集的特殊性时,尤其如此。不幸的是,后一种情况在医疗保健领域很常见,在该领域中,数据管理和机器学习通常由不同的团队执行。这些“隐性”偏见已经导致部署的AI工具会系统地对某些人群产生错误(例如上述模型)。在这种情况下,必须为医生提供工具,使他们能够了解模型预测的依据并尽快发现有偏见的预测。如今,机器学习中的大量工作致力于开发透明的模型,这些模型可以将其内部推理传达给用户。在这一点上,由于人工智能工具还不是常规医学实践的一部分,我们对什么类型的理论对医生特别有用的理解是有限的。因此,麻省理工学院Jameel诊所的主要目标之一是在世界各地的医院中部署临床AI算法,并根据经验研究其在不同人群和临床环境中的表现。这些数据将为下一代可自我解释的,公平的AI工具的开发提供信息。
问:更加公平的医疗保健AI对政府机构和行业有何政策影响?
克里斯蒂亚(Christia):在医疗保健中使用AI已经成为现实,并且政府机构和行业要想从医疗保健中获得更公平的AI收益,他们需要创建一个AI生态系统。他们必须密切合作,并与临床医生和患者合作,以优先考虑在该领域中使用的AI工具的质量,以确保它们安全并准备好迎接黄金时段。这意味着必须对经过部署的AI工具进行充分的测试,以提高临床医生的能力和患者体验。
为此,政府和行业参与者需要考虑开展教育活动,以使健康从业人员了解特定的AI干预在补充和扩大他们的工作以解决公平方面的重要性。除临床医生外,还必须着重建立对少数患者的信心,即这些AI工具的引入将带来总体上更好,更公平的护理。尤其重要的是,要透明地说明在健康中使用AI对个别患者意味着什么,以及减轻通常不信任“善意”医疗系统的少数群体患者的数据隐私问题对他们的历史违法行为。
在监管领域,政府机构需要建立一个框架,使它们能够与行业和医疗保健专业人员一起清楚地了解AI的资金和责任,以便在部署最优质的AI工具的同时最大程度地降低临床医生的相关风险和使用它们的患者。法规需要明确说明临床医生没有将他们的责任完全外包给机器,并概述了对患者健康的专业责任级别。政府机构还必须与行业,临床医生和患者密切合作,还必须通过数据和患者经验来监测AI工具在解决实地医疗保健差异方面的实际有效性,并加以改善。