ヘルスケア AI: 野望の失敗

ヘルスケア AI: 野望の失敗

ソースノード: 1790366

医学ほど技術開発と連携している分野はほとんどありません。 実践としての医療はテクノロジーによって変革され、現在では医薬品開発、医療診断、義肢による増強など、あらゆる面でテクノロジーに完全に依存していると言えます。 これは、医師が科学者と協力して以前には想像もできなかったデバイスを作成する MRI スキャナーなど、新しい技術開発の源となっています。

薬はそのように感じます 想定 未来的であること: SF 腹部に医師の冷たい手を感じる必要がなく、おそらく歯科医でさえドリルを敷設した、テクノロジー主導の医学の輝く白い未来で私たちを攻撃します. したがって、人類の最新かつ最高の技術である人工知能 (AI) をヘルスケアに組み込むことは、まったく当然のことのように思えます。 

それはどれほど難しいでしょうか? ロックダウンの中で GP サービスと対話しようとした私たちは、ほとんどの方法を取得するために必要な唯一の技術は、忙しい電話回線の録音と、予約が行われることについて漠然とした約束を提供する少し擦り切れた受付係の録音であると考えるのは許されるかもしれません。数か月で利用可能になります。 (このブログ投稿では一般開業医を少しからかっていますが、個人的に会う可能性は低いので安全だと考えました。) では、現代のヘルスケア全体で、AI が役立つ可能性は非常に大きいのではないでしょうか? 人々は同意し、世界で最も頭脳明晰な人々と、世界で最も裕福な人々の一部が、これを実現するために着手しました。

成功した。 例えば、 医療画像処理 成功裏に支援されました 機械学習 技術、カルテ処理 改善できる、AI は健康についての新しい理解への道を示すことさえできます。 患者が死ぬかどうかを予測する、方法はわかりませんが。 しかし、順風満帆ではありませんでした。 新しい状況で人間と直接競争するよう求められたとき、AI は失敗しました。 たとえば、COVID の間、AI モデルは 診断または分析を助ける 多額の投資にもかかわらず、AI による最前線の医療の変革には深刻な後退が見られました。 

阻止された野望

医療分野がもたらす具体的な問題は、AI の最大の成功の XNUMX つであり、その潜在的な優位性に対する不安の多くの原因であるゲームの分野を調査することで明らかになります。 

IBMの Deep Blue 1996 年には 1997 試合で、20 年にはトーナメントで、世界最高のチェス プレーヤーである Garry Kasparov を打ち負かしました。これは、チェス AI の開発における約 XNUMX 年の努力の集大成です。 その後IBMが開発した DeepQA のアーキテクチャ 自然言語処理、2011 年に現在はワトソンのブランドで、 最高の人間のチャンピオンを打ち負かす Jeopardy で – 人間の技術分野で競争し、勝つことができる進歩であると考えられていました。 

IBM は 2012 年までに、ヘルスケア業界、特に腫瘍学で開発した技術を組み合わせた Watson を標的にしていました。 

成功は避けられないように見えました: プレス リリースは肯定的で、人間の医師に対する進歩を示すレビューが公開され、Watson は XNUMX日で医学論文を消費する 人間の医者なら38年かかります。 私は医師の友人と、2020年までに世界最高の腫瘍学者が機械になるだろうと賭けました. 

私は賭けに負けましたが、IBM がヘルスケアへの大きな賭けに負けたほどではありませんでした。 最初のパイロット病院は試験をキャンセルし、ワトソンは 安全でないがん治療を勧める. プログラムは基本的に 閉鎖された、インテリジェントなアシスタントとしての自然言語処理を使用して、ワトソンはIBMのコマーシャル分析のブランドになるように方向転換しました。 今日、IBMの株価は 22%減 ジェパディの勝利の時点よりも。 

ここで困難を説明するために IBM の Watson を使用しましたが、 仮想 GP サービス,  診断法または他の人. このような組織は長期的には成功すると確信していますが、これらの失敗のいくつかが起こりそうであった理由を探ることはできます.

この課題の規模を理解するために、1940 年代のサイバネティックス研究者によってこの分野が始まった場所までさかのぼることができます。

一人のサイバネティスト、 W・ロス・アシュビー、いくつかの法律を考案し、そのうちのXNUMXつは彼のものでした 必要多様性の法則. この法則は、公共部門の大規模な IT プロジェクトがうまくいかない理由から、PRINCE II などの IT 方法論がほとんど機能しない理由まで、IT におけるあらゆる種類の難問の根源を説明しているため、もっとよく知られるべきです。私たちは、超知的な AI を制御する能力について非常に心配する必要があります。 法律は、「多様性のみが多様性を制御できる」と述べています。 つまり、あるシステムを別のシステムで制御しようとする場合、制御システムは少なくともターゲット システムと同じくらい複雑でなければなりません。 そうしないと、すべての出力に対処できず、逃げてしまいます。 

チェスのようなゲームでは、最適な結果を計算するために必要なすべての情報が盤上に含まれています。チェスは難しいですが、多様性は大きくありません。 しかし、最前線の医療の世界では信じられないほどの多様性があり、適切なアウトプットを提供するには信じられないほどの複雑さが必要です。 これは AI に大きな課題をもたらします。実際の患者は重要なエッジ ケースをトレーニングしますが、AI はそれらを XNUMX 回で効果的に解決する必要があります。 私たちは彼らができないことを発見し、医療AIが同意したように、逃げることは避けられません 患者は自殺するべき、問題を解決していたもの 人種差別主義者かもしれませんが、 またはだったもの 間違いなく人種差別主義者. 将来の医療従事者の勤務時間には、手術の実行、管理の実行、AI アシスタントが人種差別的な事件を起こしたかどうかの確認が含まれる可能性がありますか? 

AIをヘルスケアに導入することには、おそらく技術的な名前が付けられている別の問題がありますが、私はそれを「バス停おばあさん虐殺問題」と呼んでいます。 誰かがバス停に車をぶつけて、XNUMX 人の最愛のおばあさんを殺したら、地元のニュースで大きな話題になるでしょう。 自動運転車が同じことをした場合、それは世界的なニュースになり、おそらく訴訟や立法につながるでしょう。 ポイントは、私たちが現在いるということです ずっと 人間は、機械の誤りに対してよりも人間の誤りに対して寛容であり、したがって、自動化された技術の結果に対するハードルは、人間の場合よりも高くなります。 これはある程度合理的です。XNUMX 人の人間が与えることができる害はそれほど大きくありませんが、AI はスケーリングするため、間違いは繰り返されます。 

最終的に、これらの障壁により、最前線のケアに AI を導入して人間に取って代わることは非常に困難になります。 しかし、それは必ずしも重要ではありません。ヘルスケア AI は依然として大きな変革のメリットを提供できるからです。 

タイムスタンプ:

より多くの データバーシティ