医疗保健人工智能:野心的失败

医疗保健人工智能:野心的失败

源节点: 1790366

很少有领域像医学一样与技术发展保持一致。 可以公平地说,医学作为一种实践已经被技术改变,现在在其所有方面都完全依赖它,例如药物开发、医学诊断和假肢增强。 它一直是新技术发展的源泉,例如 MRI 扫描仪,医生与科学家合作创造了以前难以想象的设备。

医学感觉就像 应该 未来主义: 科幻 用技术驱动的医学闪闪发光的白色未来轰炸我们,在那里我们永远不需要感觉到医生冰冷的手放在我们的腹部,甚至可能连牙医都放下了他们的钻头。 因此,人类最新和最伟大的技术人工智能 (AI) 应该嵌入医疗保健领域似乎是再自然不过的了。 

它能有多难? 我们中那些试图在封锁期间与 GP 服务进行交互的人可能会认为唯一需要获得大部分时间的技术是记录一条繁忙的电话线和一个稍微磨损的接待员交替提供关于预约的模糊承诺是可以原谅的几个月后可用。 (我在这篇博文中有点取笑全科医生,我认为这是安全的,因为我不太可能亲自见到全科医生。)那么,在现代医疗保健领域,人工智能的帮助范围肯定很大吗? 人们同意,一些世界上最聪明的头脑和一些世界上最富有的人已经开始着手实现这一目标。

已经成功了。 例如, 医学影像 已成功协助 机器学习 技术,病历处理 可以改善,而 AI 甚至可以指明对健康的新理解方式——例如,它可以准确地 预测病人是否会死,虽然我们不知道如何。 然而,这并非一帆风顺。 当被要求在新情况下直接与人类竞争时,人工智能失败了; 例如,在 COVID 期间,AI 模型没有 帮助诊断或分析 尽管投入巨大,人工智能对一线医疗的改造也遇到了一些严重的挫折。 

野心受挫

医疗领域提供的具体问题可以通过调查 AI 最伟大的成功之一,以及我们对其潜在优势的焦虑来源:游戏领域来绘制。 

IBM的 深蓝色 在 1996 年的一场比赛中击败了世界上最好的国际象棋棋手加里卡斯帕罗夫,并在 1997 年的锦标赛中击败了世界上最好的国际象棋选手加里卡斯帕罗夫 - 这是开发国际象棋 AI 大约 20 年努力的结晶。 IBM 随后开发了 深度质检 架构 自然语言处理,在 2011 年,现在更名为 Watson,能够 粉碎最好的人类冠军 在 Jeopardy——一项被认为可以让它在人类技术领域竞争并获胜的进步。 

到 2012 年,IBM 瞄准了 Watson,这是当时他们在医疗保健行业(尤其是肿瘤学)开发的技术的组合。 

成功看起来是不可避免的:新闻稿是积极的,发表了显示与人类医生相比取得进步的评论,而 Watson 可以 一天消耗医学论文 这将需要一名人类医生 38 年。 我和一位医生朋友打赌,到 2020 年,世界上最好的肿瘤学家将成为一台机器。 

我输掉了我的赌注,但不像 IBM 输掉了它在医疗保健领域的大赌注那么全面。 最初的试点医院取消了他们的试验,沃森被证明可以 推荐不安全的癌症治疗. 该计划本质上是 百叶窗, Watson 通过使用其自然语言处理作为智能助手,转变为 IBM 商业分析的品牌。 今天,IBM 的股价是 22%降低 比在危险的胜利点。 

我用 IBM 的 Watson 来说明这里的困难,但我可以选择失败 虚拟全科医生服务,  诊断或其他. 我确信像这样的组织从长远来看会取得成功,但我们可以探索其中一些失败的原因。

要了解挑战的规模,我们可以一直回顾该领域从 1940 年代的控制论者开始的地方。

一位控制论者, W·罗斯·阿什比, 设想了几条法律,其中一条是他的 必要多样性法则. 这条定律应该更广为人知,因为它解释了 IT 中各种棘手问题的根源,从为什么大型公共部门 IT 项目往往进展不顺利,到为什么像 PRINCE II 这样的 IT 方法大多不起作用,到为什么我们应该非常担心我们控制超智能人工智能的能力。 法律规定“只有多样性才能控制多样性”。 也就是说,如果你有一个系统并且你试图用另一个系统来控制它,那么控制系统的复杂性必须至少与目标系统一样; 否则,它将无法处理其所有输出,并且会有逃逸。 

在国际象棋这样的游戏中,计算最佳结果所需的所有信息都包含在棋盘上——国际象棋很难,但变化不大。 但在一线医生的世界里,有令人难以置信的多样性,你需要难以置信的复杂性来提供正确的输出。 这对 AI 提出了巨大的挑战:现实世界的患者将训练材料边缘案例,但 AI 需要一次有效地解决它们。 我们发现他们不能,逃避是不可避免的,比如同意 病人应该自杀,一个正在解决问题但 也许是种族主义者, 或一个是 绝对是种族主义者. 未来医生的工作日是否可以涉及运行手术、管理以及检查 AI 助手是否发生过种族主义事件? 

将 AI 应用于医疗保健还有另一个问题,它可能有一个技术名称,但我将其称为“公交车站奶奶大屠杀问题”。 如果有人将车撞到公共汽车站并杀死了三个心爱的奶奶,那么这将成为当地新闻的大新闻。 如果自动驾驶汽车也这样做,那将是全球新闻报道,可能会导致诉讼和立法。 关键是我们目前 许多 对人类错误的容忍度高于对机器错误的容忍度,因此,自动化技术成果的门槛高于人类。 这在一定程度上是理性的,因为一个人只能造成这么多伤害,但人工智能会扩展,因此错误会被复制。 

最终,这些障碍使得将人工智能引入一线护理以取代人类变得极具挑战性。 但这并不一定重要,因为医疗保健 AI 仍然可以提供巨大的转型优势。 

时间戳记:

更多来自 数据多样性