Discuz! Board

 找回密码
 立即注册
搜索
热搜: 活动 交友 discuz
查看: 122|回复: 0

COVID-19 时代的人工智能和健康差异

[复制链接]

2

主题

2

帖子

12

积分

新手上路

Rank: 1

积分
12
发表于 2023-11-8 11:50:16 | 显示全部楼层 |阅读模式
人工智能等技术进步在世界各地跟踪、诊断和预防医疗保健状况(包括 COVID-19)方面发挥了关键作用。然而,人工智能工具具有很大的局限性特别是对于那些服务不足和代表性不足的社区。 Fay Cobb Payton博士、大学教员学者、普尔管理学院信息技术和分析学教授解释了算法偏差导致的患者诊断和护理中潜在的健康差异。 佩顿说:“当我们谈论新冠病毒等涉及种族差异和黑人社区病例不断增加的情况时,来自新奥尔良、芝加哥、纽约市和华盛顿特区的消息对我来说并不奇怪。” “在服务不足的少数民族或社会经济地位较低的人口较多的地区,我们经常看到健康差异和偏见。人工智能应该帮助确定将为数百万人提供什么样的医疗保健。问题在于,研究不断表明,少数群体并未被纳入这些算法中。

虽然人工智能在医疗保健领域的作用已被证明在许多方面都有帮助,例如分析乳房 X 光照片的速度比传统方法快 30 倍,或者以 97% 的准确率诊断哮喘发作,但 Payton 提醒我们,它并不能公平地为所有社区服务。 “当一个人去急诊室时存在无意识或隐性偏见时,该患者可能无法获得适当质量的护理。新冠病毒并 秘鲁手机号码列表 不是单独存在的。通常还有其他合并症,例如心脏病和糖尿病。我们知道,这些复杂的情况在少数族裔社区中尤为常见。”佩顿解释道。“如果结果是围绕结构性不平等建立的,那么算法也会有偏见。这反过来又会影响未来的健康结果、护理成本、护理服务和其他情况。” 随着围绕哪些人能够接受检测、新冠病毒检测中心将设在哪里以及必须提供哪些资源才能提供治疗的讨论仍在继续,这些问题将持续出现。 那么问题是,我们如何克服人工智能中的偏见?佩顿认为有几个关键领域需要解决。


房间里需要有包容性。随着这些系统和工具的开发,我们需要包容性的劳动力和跨学科的专业知识,以解决经常被忽视的隐性偏见。正如佩顿所说,“不可能所有解决方案都千篇一律。” 问责制是必要的。从研究的角度来看,人工智能应该遵守什么水平的公平性、责任性和准确性,有一些框架。这需要治理,这些问题值得关注,特别是在大流行的情况下。 我们必须共同审视人工智能的发展方向以及它将使谁受益。部署人机交互流程和策略。医疗保健是我国 GDP 的最大组成部分之一(占 17%)。如果我们现在不解决这个问题,我们就会拖延进展。

回复

使用道具 举报

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

Archiver|手机版|小黑屋|DiscuzX

GMT+8, 2026-1-13 21:37 , Processed in 0.040616 second(s), 19 queries .

Powered by Discuz! DISCUZ_VERSION

Copyright © 2001-2021, Tencent Cloud.

快速回复 返回顶部 返回列表