人工智能偏见可能会加剧有色人种在COVID-19健康方面的差距

《美国医学信息学协会杂志》(Journal of the American Medical Informatics Association)上的一篇新文章指出,在应对新型冠状病毒时,“欠发达和可能存在偏见的模型”正在传播。
通过 ob 体育在线竞猜
02:17点

开发人员和数据科学家长期以来,在机器学习和人工智能方面,有偏见的数据往往会导致有偏见的模型。

一个新文章美国医学信息学协会杂志认为这种有偏见的模型可能会进一步加剧COVID-19大流行对有色人种的不成比例的影响。

这篇文章的作者,瑞士联邦理工学院的Eliane Röösli,以及斯坦福大学的Brian Rice和Tina Hernandez-Boussard指出,即使全球研究界匆忙推出新的发现,它也有产生有偏见的预测模型的风险。

研究人员写道:“如果不加以适当处理,在人工智能的外衣下传播这些偏见,可能会夸大本已承受最高疾病负担的少数族裔人口面临的健康差距。”

为什么它很重要

COVID-19大流行对有色人种产生了巨大影响,现有的医疗差距和系统性种族主义加剧了这种影响。

与此同时,研究人员指出,COVID-19预测模型可能存在严重缺陷,特别是在潜在偏差方面。

在最近对COVID-19预测模型的系统回顾中,他们写道:“遇到的最常见问题是不具代表性的数据样本、模型过拟合可能性高、研究人群和预期模型使用的报告不精确。”

研究人员指出了将人工智能视为本质上客观的危险,特别是在构建资源优化配置模型时,包括呼吸机和重症监护室病床。

他们写道:“这些工具是由反映有偏见的医疗系统的有偏见的数据构建而成的,因此它们本身也有很高的偏见风险——即使明确排除了种族或性别等敏感属性。”

例如,他们认为,包括与COVID-19相关的共病的模型可能会加强结构性偏见,导致一些群体经历这些共病。

“资源分配模式必须……超越其基本的功利基础,以避免进一步伤害已经在COVID-19中遭受最大痛苦的少数群体,这是基于此前系统性歧视造成的健康不平等,”他们写道。

为了应对这些挑战,研究人员建议实施透明度框架和报告标准,包括公布人工智能模型的源代码。

他们还鼓励监管基础设施优先考虑广泛的数据共享,并指出学术医疗保健系统开发的模型可能不能代表美国一般人口。

他们写道:“covid - 19相关数据正在以令人难以置信的速度生成,但这些数据仍然被孤立在每个国家或学术机构内部,部分原因是缺乏互操作性,部分原因是缺乏适当的激励。”

更大的趋势

利益攸关方已经将防止算法偏差作为道德人工智能模型开发的一个组成部分。

2019年初,杜克-马戈利斯卫生政策中心的一份报告发布了一份报告包括将减少人工智能中的偏见作为开发人员、监管机构、临床医生和决策者等的优先事项。他们写道,卫生系统将需要制定最佳做法,以解决培训数据带来的任何偏见。

同年晚些时候,新泽西州民主党参议员科里?,俄勒冈州民主党人罗恩·怀登(Ron Wyden)敦促特朗普政府以及主要保险公司对抗医疗数据算法中的种族偏见。

“在医疗保健领域,利用算法对患者进行分类,并针对最需要的人进行护理,前景广阔。然而,这些系统也不能避免偏见的问题。”

在记录

“人工智能有希望帮助指导治疗决策,包括在这场危机中分配稀缺资源。然而,由于有偏见、不具代表性的培训数据,以及缺乏用于验证目的的受监管的COVID-19数据资源,仓促采用人工智能工具带来了巨大的风险。哈福篇文章。

他们写道:“考虑到偏见的普遍性,在COVID-19大流行期间未能积极制定全面的缓解策略,可能会加剧现有的健康差距,阻碍能够改善患者结果的人工智能工具的采用。”

Kat Jercich是《医疗保健IT新闻》的高级编辑。欧宝娱乐是黑平台
Twitter:@kjercich
欧宝娱乐是黑平台医疗保健IT新闻是HIMSS媒体出版物。

想知道更多这样的故事吗?从医疗保健IT新闻获取每日新闻更新。欧宝娱乐是黑平台
您的订阅已保存。
发生了一些错误。请再试一次。
Baidu