ChatGPT kan ikke tænke - bevidsthed er noget helt andet end nutidens AI

ChatGPT kan ikke tænke - bevidsthed er noget helt andet end nutidens AI

Kildeknude: 2674703

Der har været chok rundt om i verden over den hurtige fremskridt med ChatGPT og anden kunstig intelligens skabt med det, der er kendt som store sprogmodeller (LLM'er). Disse systemer kan producere tekst, der synes at vise tanke, forståelse og endda kreativitet.

Men kan disse systemer virkelig tænke og forstå? Dette er ikke et spørgsmål, der kan besvares gennem teknologiske fremskridt, men omhyggelig filosofisk analyse og argumentation fortæller os, at svaret er nej. Og uden at gennemgå disse filosofiske spørgsmål, vil vi aldrig helt forstå farerne og fordelene ved AI-revolutionen.

I 1950, faderen til moderne databehandling, Alan Turing, udgivet et papir der lagde en måde til at afgøre, om en computer tænker. Dette kaldes nu "Turing-testen." Turing forestillede sig et menneske, der var i samtale med to samtalepartnere, der var skjult for øje: et andet menneske, det andet en computer. Spillet er at finde ud af, hvad der er hvad.

Hvis en computer kan narre 70 procent af dommerne i en 5-minutters samtale til at tro, at det er en person, består computeren testen. Ville det at bestå Turing-testen – noget der nu ser ud til at være nært forestående – vise, at en AI har opnået tanke og forståelse?

Skak udfordring

Turing afviste dette spørgsmål som håbløst vagt og erstattede det med en pragmatisk definition af "tanke", hvorved at tænke blot betyder at bestå testen.

Turing tog dog fejl, da han sagde, at den eneste klare opfattelse af "forståelse" er den rent adfærdsmæssige beståelse af sin test. Selvom denne måde at tænke på nu dominerer kognitiv videnskab, er der også en klar, dagligdags forestilling om "forståelse", der er knyttet til bevidsthed. At forstå i denne forstand er at bevidst fatte en eller anden sandhed om virkeligheden.

I 1997 den Deep Blue AI slog skakstormester Garry Kasparov. På en ren adfærdsmæssig opfattelse af forståelse havde Deep Blue viden om skakstrategi, der overgår ethvert menneske. Men det var ikke bevidst: det havde ingen følelser eller oplevelser.

Mennesker forstår bevidst reglerne for skak og rationalet bag en strategi. Deep Blue var derimod en følelsesløs mekanisme, der var blevet trænet til at præstere godt i spillet. Ligeledes er ChatGPT en følelsesløs mekanisme, der er blevet trænet i enorme mængder menneskeskabte data til at generere indhold, der ser ud til at være skrevet af en person.

Den forstår ikke bevidst betydningen af ​​de ord, den spytter ud. Hvis "tanke" betyder handlingen af ​​bevidst refleksion, så har ChatGPT ingen tanker om noget som helst.

Tid til at betale

Hvordan kan jeg være så sikker på, at ChatGPT ikke er bevidst? I 1990'erne, neuroforsker Christof Koch vædde på filosoffen David Chalmers en sag af god vin at videnskabsmænd fuldstændigt ville have fastlagt de "neurale korrelater af bevidsthed" om 25 år.

Med dette mente han, at de ville have identificeret de former for hjerneaktivitet, der er nødvendige og tilstrækkelige til bevidst oplevelse. Det er på tide, at Koch betaler, da der ikke er nogen konsensus om, at det er sket.

Dette er fordi bevidsthed kan ikke observeres ved at se inde i dit hoved. I deres forsøg på at finde en sammenhæng mellem hjerneaktivitet og erfaring, må neurovidenskabsmænd stole på deres forsøgspersoners vidnesbyrd eller på eksterne bevidsthedsmarkører. Men der er flere måder at fortolke data på.

Nogle forskere mener, at der er en tæt sammenhæng mellem bevidsthed og reflekterende erkendelse - hjernens evne til at få adgang til og bruge information til at træffe beslutninger. Dette får dem til at tro, at hjernens præfrontale cortex – hvor processerne på højt niveau med at erhverve viden finder sted – i det væsentlige er involveret i al bevidst oplevelse. Andre benægter dette, argumenterer i stedet for det det sker i hvilken som helst lokal hjerneregion, at den relevante sansebearbejdning finder sted.

Forskere har god forståelse for hjernens grundlæggende kemi. Vi har også gjort fremskridt med at forstå funktionerne på højt niveau i forskellige dele af hjernen. Men vi er næsten uvidende om lidt i mellem: hvordan hjernens funktion på højt niveau realiseres på celleniveau.

Folk bliver meget begejstrede for potentialet ved scanninger til at afsløre hjernens funktion. Men fMRI (funktionel magnetisk resonansbilleddannelse) har en meget lav opløsning: hver pixel på en hjernescanning svarer til 5.5 millioner neuroner, hvilket betyder, at der er en grænse for, hvor mange detaljer disse scanninger er i stand til at vise.

Jeg tror, ​​at fremskridt i bevidstheden vil komme, når vi bedre forstår, hvordan hjernen fungerer.

Pause i udvikling

Som jeg argumenterer i min kommende bog Hvorfor? Universets formål, bevidsthed må have udviklet sig, fordi den gjorde en adfærdsmæssig forskel. Systemer med bevidsthed skal opføre sig anderledes, og dermed overleve bedre, end systemer uden bevidsthed.

Hvis al adfærd var bestemt af underliggende kemi og fysik, ville naturlig udvælgelse ikke have nogen motivation til at gøre organismer bevidste; vi ville have udviklet os som ufølsomme overlevelsesmekanismer.

Mit bud er derfor, at efterhånden som vi lærer mere om hjernens detaljerede virkemåde, vil vi præcist identificere, hvilke områder af hjernen der legemliggør bevidsthed. Dette skyldes, at disse regioner vil udvise adfærd, der ikke kan forklares af aktuelt kendt kemi og fysik. Allerede, nogle neuroforskere søger potentielle nye forklaringer på bevidsthed for at supplere fysikkens grundlæggende ligninger.

Mens behandlingen af ​​LLM'er nu er for kompleks til, at vi fuldt ud kan forstå det, ved vi, at det i princippet kunne forudsiges ud fra kendt fysik. På dette grundlag kan vi med sikkerhed hævde, at ChatGPT ikke er bevidst.

Der er mange farer forbundet med kunstig intelligens, og jeg støtter fuldt ud den nylige opfordring fra titusindvis af mennesker, herunder tech-lederne Steve Wozniak og Elon Musk, at holde pause udvikling for at imødegå sikkerhedsproblemer. Potentialet for svindel er for eksempel enormt. Argumentet om, at kortsigtede efterkommere af nuværende AI-systemer vil være superintelligente, og dermed en stor trussel mod menneskeheden, er for tidligt.

Dette betyder ikke, at de nuværende AI-systemer ikke er farlige. Men vi kan ikke vurdere en trussel korrekt, medmindre vi kategoriserer den nøjagtigt. LLM'er er ikke intelligente. De er systemer, der er trænet til at give det ydre udseende af menneskelig intelligens. Skræmmende, men ikke så skræmmende.The Conversation

Denne artikel er genudgivet fra The Conversation under en Creative Commons-licens. Læs oprindelige artikel.

Billede Credit: Gerd Altmann fra Pixabay

Tidsstempel:

Mere fra Singularitet Hub