Health Care AI: A Failure of Ambition

Health Care AI: A Failure of Ambition

Kilde node: 1790366

Få felt er så på linje med teknologisk utvikling som medisin. Det er rettferdig å si at medisin som praksis har blitt transformert av teknologi og er nå helt avhengig av den på tvers av alle dens fasetter, som medikamentutvikling, medisinsk diagnose og forsterkning med protetiske lemmer. Det har vært kilden til ny teknologiutvikling, for eksempel MR-skannere, der leger samarbeider med forskere for å lage tidligere ufattelige enheter.

Medisin føles som det er ment å være futuristisk: Science fiction bombarderer oss med en skinnende hvit fremtid av teknologidrevet medisin der vi aldri vil trenge å føle de kalde hendene til en lege på magen, og sannsynligvis har til og med tannlegene lagt ned øvelsene sine. Så det virker helt naturlig at menneskehetens nyeste og beste teknologi, kunstig intelligens (AI), skal være integrert i helsevesenet. 

Hvor vanskelig kan det være? De av oss som prøvde å samhandle med en fastlegetjeneste i sperringen kunne bli tilgitt for å tro at den eneste teknologien som trengs for å komme mesteparten av veien ville være et opptak av en travel telefonlinje vekslet med en litt frynsete resepsjonist som tilbyr vage løfter om avtaler. tilgjengelig om et par måneder. (Jeg erter fastlegene litt i dette blogginnlegget, som jeg regnet med er trygt siden jeg neppe vil møte en personlig.) Så, på tvers av moderne helsevesen, er det sikkert stor mulighet for AI å hjelpe? Folk er enige, og noen av verdens flinkeste hoder kombinert med noen av verdens dypeste lommer har satt i gang med å gjøre dette til virkelighet.

Det har vært en suksess. For eksempel, medisinsk bildebehandling har blitt hjulpet med maskinlæring teknikker, journalbehandling kan forbedres, og AI kan til og med vise vei til en ny forståelse av helse – for eksempel kan det nøyaktig forutsi om en pasient kommer til å dø, selv om vi ikke vet hvordan. Det har imidlertid ikke vært ren seiling. Når du blir bedt om å konkurrere direkte mot mennesker i nye situasjoner har AI vært en fiasko; for eksempel, under COVID, gjorde ikke AI-modeller det hjelp med diagnose eller analyse til tross for store investeringer, og transformasjonen av førstelinjemedisinsk behandling med AI har sett noen alvorlige tilbakeslag. 

Ambisjoner hindret

De spesifikke problemene den medisinske arenaen gir kan kartlegges ved å undersøke en av AIs største suksesser, og kilden til mye av vår angst for dens potensielle overlegenhet: spillarenaen. 

IBMs Deep Blue slo verdens beste sjakkspiller, Garry Kasparov, i et enkelt parti i 1996, og i en turnering i 1997 – kulminasjonen av rundt 20 års innsats for å utvikle sjakk-AI. IBM utviklet deretter DeepQA arkitektur for naturlig språkbehandling, som i 2011 og nå merket Watson, var i stand til knuse de beste menneskelige mesterne at Jeopardy – et fremskritt som ble antatt å være det som kunne tillate den å konkurrere og vinne på menneskelige tekniske felt. 

I 2012 hadde IBM rettet seg mot Watson, som da var en kombinasjon av teknologier de hadde utviklet i helsesektoren, spesielt onkologi. 

Suksess så uunngåelig ut: Pressemeldinger var positive, anmeldelser som viste fremgang kontra menneskelige leger ble publisert, og Watson kunne konsumere medisinske papirer på en dag som ville ta en menneskelig lege 38 år. Jeg satset med en legevenn om at innen 2020 ville verdens beste onkolog være en maskin. 

Jeg tapte innsatsen min, men ikke så omfattende som IBM tapte sin store innsats på helsevesenet. De første pilotsykehusene kansellerte forsøkene sine, og Watson ble vist til anbefale utrygge kreftbehandlinger. Programmet var i hovedsak avstengte, med Watson pivotert til å bli merkevaren for IBMs kommersielle analyser med bruk av dens naturlige språkbehandling som en intelligent assistent. I dag er IBMs aksjekurs 22% lavere enn på tidspunktet for Jeopardy-triumfen. 

Jeg har brukt IBMs Watson for å illustrere vanskelighetene her, men jeg kunne ha plukket feil med virtuell fastlegetjeneste,  diagnostikkeller andre. Jeg er sikker på at organisasjoner som disse vil lykkes i det lange løp, men vi kan utforske hvorfor noen av disse feilene var sannsynlige.

For å forstå noe av omfanget av utfordringen kan vi se helt tilbake til der feltet startet med kybernetikerne på 1940-tallet.

En kybernetiker, W. Ross Ashby, unnfanget flere lover, en var hans Lov om nødvendig variasjon. Denne loven burde være bedre kjent, siden den forklarer roten til alle slags vanskelige problemer innen IT, fra hvorfor store offentlige IT-prosjekter har en tendens til ikke å gå bra, til hvorfor IT-metodologier som PRINCE II stort sett ikke fungerer, til hvorfor vi burde være veldig bekymret for våre evner til å kontrollere superintelligent AI. Loven sier at "bare variasjon kan kontrollere variasjon." Det vil si at hvis du har et system og du prøver å kontrollere det med et annet system, må kontrollsystemet ha minst like mye kompleksitet som målsystemet; ellers vil den ikke være i stand til å takle alle utgangene, og det vil være en flukt. 

I et spill som sjakk er all informasjonen som trengs for å beregne det optimale resultatet inkludert på brettet – sjakk er vanskelig, men variasjonen er ikke stor. Men i en verden av frontlinjedoktorer er det utrolig variasjon, og du trenger utrolig kompleksitet for å levere de riktige resultatene. Dette utgjør en enorm utfordring for AI: pasientene i den virkelige verden vil trene materielle kantsaker, men AI må løse dem effektivt i ett skudd. Vi finner ut at de ikke kan det, og flukt er uunngåelig, slik som den medisinske AI som ble enige om en pasienten bør ta sitt eget liv, en som løste problemer, men var kanskje rasistisk, eller en som var definitivt rasistisk. Kan en fremtidig leges arbeidsdag innebære å kjøre operasjonen, gjøre admin og sjekke om AI-assistenten har hatt en rasistisk hendelse? 

Det er et annet problem med å ta i bruk AI i helsevesenet som sannsynligvis har et teknisk navn, men jeg vil kalle det "busstopp bestemors blodbad." Hvis noen kræsjer bilen sin inn i en bussholdeplass og dreper tre elskede bestemødre, så ville det vært en stor historie på lokale nyheter. Hvis en selvkjørende bil gjorde det samme, ville det vært en global nyhetssak, sannsynligvis resulterer i søksmål og lovgivning. Poenget er at vi er nå mye mer tolerante overfor menneskelig feilbarhet enn vi er overfor maskinfeilbarhet, og baren for automatiserte teknologiresultater er derfor høyere enn for mennesker. Dette er noe rasjonelt, ettersom et enkelt menneske bare kan gjøre så mye skade, men AI vil skalere, og feil vil derfor bli replikert. 

Til syvende og sist gjør disse barrierene det ekstremt utfordrende å introdusere AI i frontlinjen for å erstatte mennesker. Men det betyr ikke nødvendigvis noe, siden AI i helsevesenet fortsatt kan gi enorme transformasjonsfordeler. 

Tidstempel:

Mer fra DATAVERSITET