
根据发表在《科学》杂志上的一份报告,数据驱动的技术可能会加剧现有的健康不平等《柳叶刀》.
的文章研究如何在数据集和数据科学的应用中轻松地编码结构性不平等、偏见和种族主义。
它认为,诸如数据科学的设计、输入、分析和应用等因素都可能受到种族主义的影响。例如,界定和选择分析性问题的方式取决于是否有资金、规划和进行分析的人的兴趣和背景。
这篇文章说,黑人科学家的代表性不足,以及他们不太可能获得资助的证据,可能导致健康数据科学有“白人和西方的镜头”。少数民族参与研究的比例也较低。
为了打击结构性种族主义及其影响,作者呼吁健康数据科学界对自己和未来的数据科学家进行教育。
为什么它很重要
在COVID-19大流行期间,数据和数据驱动技术在卫生保健领域发挥了越来越大的影响力。
《柳叶刀》文章说,结构性种族主义意味着,数据科学可能不会公平地惠及那些背景在劳动力和数据集中代表不足的人。当种族偏见被输入到决定谁需要照顾的算法中时,这可能会使黑人、亚洲人和少数族裔(BAME)群体处于不利地位。
更大的背景下
在数字健康领域,人们一直担心“种族盲”数据的问题。
英国国家医疗服务体系(NHS)最近宣布将会这么做发表种族数据关于谁正在接受COVID-19疫苗的问题,此前有人指责可能存在偏见。
在去年6月,它被强调数据保护影响评估(DPIA)由Palantir在英国国家医疗服务体系COVID-19数据存储上运行的数据不会按种族划分,尽管BAME人群受到病毒的影响不成比例。
一项由《柳叶刀》声称在医疗保健算法中没有种族这回事,这进一步提出了医疗保健产品和应用中存在系统性歧视的问题。
在记录
Maxine Mackintosh,合著《柳叶刀》文章和首席执行官一个健康科技一个倡导平等和多样性的草根组织欧宝娱乐是黑平台:“这篇文章强调了基于种族的偏见和歧视在宏观、中观和微观方面渗透到卫生数据的世界。它突出了个人、组织和整个社区需要采取的多管齐下的方法,以使数字卫生服务于每个人。这适用于种族,也适用于性别、性取向或任何其他受到歧视的受保护特征,因为它们都是相互关联的。”
注重卫生公平
本月,我们将报道在继续建设一个适用于每个人的医疗体系的过程中面临的挑战、机遇和成功故事。