ChatGPT kan ikke tenke – bevissthet er noe helt annet enn dagens AI

ChatGPT kan ikke tenke – bevissthet er noe helt annet enn dagens AI

Kilde node: 2674703

Det har vært sjokk rundt om i verden over den raske fremgangen med ChatGPT og annen kunstig intelligens laget med det som er kjent som store språkmodeller (LLM). Disse systemene kan produsere tekst som ser ut til å vise tanke, forståelse og til og med kreativitet.

Men kan disse systemene virkelig tenke og forstå? Dette er ikke et spørsmål som kan besvares gjennom teknologisk fremskritt, men nøye filosofisk analyse og argumentasjon forteller oss at svaret er nei. Og uten å jobbe gjennom disse filosofiske spørsmålene, vil vi aldri helt forstå farene og fordelene med AI-revolusjonen.

I 1950, faren til moderne databehandling, Alan Turing, publisert et papir som la ut en måte å avgjøre om en datamaskin tenker. Dette kalles nå "Turing-testen." Turing forestilte seg et menneske som var i samtale med to samtalepartnere skjult: hverandre menneske, den andre en datamaskin. Spillet er å finne ut hvilken som er hvilken.

Hvis en datamaskin kan lure 70 prosent av dommerne i en 5-minutters samtale til å tro at det er en person, består datamaskinen testen. Ville det å bestå Turing-testen – noe som nå virker nært forestående – vise at en AI har oppnådd tanke og forståelse?

Sjakkutfordring

Turing avfeide dette spørsmålet som håpløst vagt, og erstattet det med en pragmatisk definisjon av "tanke", der å tenke bare betyr å bestå testen.

Turing tok imidlertid feil da han sa at den eneste klare forestillingen om "forståelse" er den rent atferdsmessige om å bestå testen. Selv om denne måten å tenke på nå dominerer kognitiv vitenskap, er det også en klar, dagligdags forestilling om «forståelse» som er knyttet til bevissthet. Å forstå i denne forstand er å bevisst forstå en viss sannhet om virkeligheten.

I 1997, den Deep Blue AI slo sjakkens stormester Garry Kasparov. På en ren atferdsmessig oppfatning av forståelse, hadde Deep Blue kunnskap om sjakkstrategi som overgår ethvert menneske. Men den var ikke bevisst: den hadde ingen følelser eller opplevelser.

Mennesker forstår bevisst reglene for sjakk og begrunnelsen for en strategi. Deep Blue, derimot, var en følelsesløs mekanisme som hadde blitt opplært til å prestere godt i spillet. På samme måte er ChatGPT en følelsesløs mekanisme som har blitt trent på enorme mengder menneskeskapte data for å generere innhold som virker som det er skrevet av en person.

Den forstår ikke bevisst betydningen av ordene den spytter ut. Hvis "tanke" betyr handlingen med bevisst refleksjon, har ChatGPT ingen tanker om noe.

På tide å betale opp

Hvordan kan jeg være så sikker på at ChatGPT ikke er bevisst? På 1990-tallet, nevroforsker Christof Koch satser filosofen David Chalmers på en sak med god vin at forskere helt og holdent ville ha fastslått «bevissthetens nevrale korrelater» om 25 år.

Med dette mente han at de ville ha identifisert formene for hjerneaktivitet som er nødvendig og tilstrekkelig for bevisst opplevelse. Det er på tide at Koch betaler, siden det er null konsensus om at dette har skjedd.

Dette er fordi bevissthet kan ikke observeres ved å se inn i hodet ditt. I sine forsøk på å finne en sammenheng mellom hjerneaktivitet og erfaring, må nevrovitenskapsmenn stole på forsøkspersonens vitnesbyrd, eller på ytre bevissthetsmarkører. Men det er flere måter å tolke dataene på.

Noen forskere tror det er en nær sammenheng mellom bevissthet og reflekterende kognisjon – hjernens evne til å få tilgang til og bruke informasjon til å ta beslutninger. Dette får dem til å tenke at hjernens prefrontale cortex – der høynivåprosessene for å tilegne seg kunnskap finner sted – i hovedsak er involvert i all bevisst opplevelse. Andre benekter dette, argumenterer i stedet for det det skjer i hvilken som helst lokal hjerneregion at den relevante sensoriske prosesseringen finner sted.

Forskere har god forståelse av hjernens grunnleggende kjemi. Vi har også gjort fremskritt når det gjelder å forstå høynivåfunksjonene til ulike deler av hjernen. Men vi har nesten ingen anelse om biten i mellom: hvordan hjernens funksjon på høyt nivå realiseres på cellenivå.

Folk blir veldig begeistret for potensialet til skanninger for å avsløre hvordan hjernen fungerer. Men fMRI (funksjonell magnetisk resonansavbildning) har en veldig lav oppløsning: hver piksel på en hjerneskanning tilsvarer 5.5 millioner nevroner, noe som betyr at det er en grense for hvor mye detaljer disse skanningene kan vise.

Jeg tror fremgang på bevissthet vil komme når vi forstår bedre hvordan hjernen fungerer.

Pause i utviklingen

Som jeg argumenterer for i min kommende bok Hvorfor? Formålet med universet, bevisstheten må ha utviklet seg fordi den gjorde en atferdsmessig forskjell. Systemer med bevissthet må oppføre seg annerledes, og dermed overleve bedre, enn systemer uten bevissthet.

Hvis all atferd ble bestemt av underliggende kjemi og fysikk, ville naturlig utvalg ikke ha noen motivasjon for å bevisstgjøre organismer; vi ville ha utviklet oss som ufølsomme overlevelsesmekanismer.

Mitt bud er derfor at når vi lærer mer om hjernens detaljerte virkemåte, vil vi nøyaktig identifisere hvilke områder av hjernen som legemliggjør bevissthet. Dette er fordi disse regionene vil vise atferd som ikke kan forklares av kjent kjemi og fysikk. Allerede, noen nevrovitenskapsmenn søker potensielle nye forklaringer på bevissthet for å supplere fysikkens grunnleggende ligninger.

Selv om behandlingen av LLM-er nå er for kompleks for oss til å forstå fullt ut, vet vi at den i prinsippet kan forutses fra kjent fysikk. På dette grunnlaget kan vi trygt hevde at ChatGPT ikke er bevisst.

Det er mange farer forbundet med kunstig intelligens, og jeg støtter fullt ut den nylige oppfordringen fra titusenvis av mennesker, inkludert tekniske ledere Steve Wozniak og Elon Musk, å stoppe utvikling for å møte sikkerhetsproblemer. Potensialet for svindel er for eksempel enormt. Argumentet om at nære etterkommere av nåværende AI-systemer vil være superintelligente, og dermed en stor trussel mot menneskeheten, er imidlertid for tidlig.

Dette betyr ikke at dagens AI-systemer ikke er farlige. Men vi kan ikke vurdere en trussel riktig med mindre vi kategoriserer den nøyaktig. LLM-er er ikke intelligente. De er systemer trent til å gi et ytre utseende av menneskelig intelligens. Skremmende, men ikke så skummelt.Den Conversation

Denne artikkelen er publisert fra Den Conversation under en Creative Commons-lisens. Les opprinnelige artikkelen.

Bilde Credit: Gerd Altmann fra Pixabay

Tidstempel:

Mer fra Singularity Hub