人工智能和机器学习专家说,数据可能是一股“邪恶力量”

有偏见的算法对患者不利,但随着人们对潜在的人工智能差距有更多的认识,专家表示有理由乐观。
通过 ob 体育在线竞猜
02:33点

Ziad Obermeyer, Kadija Ferryman和Stephen Wellman(从左上开始顺时针)

2019冠状病毒病大流行突出并加剧了卫生保健系统的现有差距,包括歧视种族化或边缘化群体的后果。

医疗体系中种族偏见的一些表现方式更为明显,比如黑人在急诊部门被拒之门外的恐怖故事。

在本周举行的HIMSS机器学习和人工智能医疗数字化峰会上,专家表示,其他一些则不那么明显,但仍可能造成难以置信的危害。

纽约大学坦顿工程学院的伦理学和工程学行业助理教授Kadija Ferryman说:“这种偏见在结构上还有其他表现方式,可能不那么明显。小组周二.“这是通过信息学和数据实现的。”

Ferryman说,例如,COVID-19是一种攻击呼吸系统的疾病,这意味着临床医生依赖测量肺容量和其他相关患者数据的设备。但这些设备本身可能会在解读中内置基于患者种族的“修正”,这可能很难检测。

当然,有偏差的算法源于有偏差的数据。伯克利公共卫生学院副教授齐亚德·奥伯迈耶指出,获得COVID-19检测较少的人不太可能出现在疾病相关的统计数据中,反过来,这些地区的医院可能会获得更少的资源。

这种差异“不是人工智能;这是一项政策,”他说。

“但它强调了一个事实,就是我们从这些人工智能算法中学习的数据,在很多方面导致这些算法重现偏见,”他继续说。

他说,为了解决偏见问题,关键是要批判性地审视正在使用的数据。

奥伯梅尔解释说:“变量1和变量2之间的差异可以在有偏见的算法——有偏见的政策——和从根本上更公正的算法之间产生巨大的差异。”

有偏见的算法不仅对病人不好。这对生意也不好。Obermeyer指出,如果一种算法缺少某些群体的关键数据,那么它的表现就不会达到其范围的上限:减少偏差可以让算法整体上更有效。

尽管如此,费里曼指出,有时算法可以完成它的工作,但仍然会对种族化的群体产生负面影响。她说,一项没有提供给某些人群的诊断技术,在准确性方面效果不错,但在总体人口健康方面效果不佳。欧宝app是哪个国家

然而,专家们表示,我们有理由感到乐观。也就是说,人工智能和ML可以用来对偏见进行归零,而不仅仅是传播偏见。

费里曼说:“关于算法和有偏见数据的危险的知识越来越多。”“我们可以使用数据,进一步导致股权的行为和意图,而且我认为也有理由希望当思考我们如何分析数据,识别可能存在偏见,并说,'好吧,这些数据显示新的信息差距如何在医疗保健系统,我们可能没有充分认识到的?”

Obermeyer说:“数据可以是一股邪恶的力量,它可以强化不平等,但数据也可以揭示不平等,告诉我们它们存在的地方,这样我们就可以解决它们。”

Kat Jercich是《医疗保健IT新闻》的高级编辑。欧宝娱乐是黑平台
Twitter:@kjercich
电子邮件:kjercich@himss.org
欧宝娱乐是黑平台医疗保健IT新闻是HIMSS媒体出版物。

想知道更多这样的故事吗?从医疗保健IT新闻获取每日新闻更新。欧宝娱乐是黑平台
您的订阅已保存。
发生了一些错误。请再试一次。
Baidu