ChatGPT kan inte tänka – medvetande är något helt annat än dagens AI

ChatGPT kan inte tänka – medvetande är något helt annat än dagens AI

Källnod: 2674703

Det har varit chock runt om i världen över den snabba utvecklingen med ChatGPT och annan artificiell intelligens skapad med vad som kallas stora språkmodeller (LLM). Dessa system kan producera text som verkar visa tanke, förståelse och till och med kreativitet.

Men kan dessa system verkligen tänka och förstå? Detta är inte en fråga som kan besvaras genom tekniska framsteg, men noggrann filosofisk analys och argumentation säger oss att svaret är nej. Och utan att arbeta igenom dessa filosofiska frågor kommer vi aldrig helt att förstå farorna och fördelarna med AI-revolutionen.

1950, fadern till modern dator, Alan Turing, publicerade ett papper som angav ett sätt att avgöra om en dator tänker. Detta kallas nu "Turing-testet." Turing föreställde sig en människa som var engagerad i konversation med två samtalspartner dolda: den ena människan, den andra en dator. Spelet går ut på att räkna ut vilken som är vilken.

Om en dator kan lura 70 procent av domarna i en 5-minuters konversation att tro att det är en person, klarar datorn testet. Skulle ett godkänt Turing-test – något som nu verkar vara nära förestående – visa att en AI har uppnått tanke och förståelse?

Schackutmaning

Turing avfärdade denna fråga som hopplöst vag och ersatte den med en pragmatisk definition av "tanke", där att tänka bara betyder att klara testet.

Turing hade dock fel när han sa att den enda tydliga uppfattningen om "förståelse" är den rent beteendemässiga att klara sitt test. Även om detta sätt att tänka nu dominerar kognitiv vetenskap, finns det också en tydlig, vardaglig föreställning om "förståelse" som är knuten till medvetande. Att förstå i denna mening är att medvetet förstå någon sanning om verkligheten.

I 1997, den Deep Blue AI slog schackstormästaren Garry Kasparov. På en rent beteendemässig uppfattning om förståelse hade Deep Blue kunskap om schackstrategi som överträffar alla människor. Men det var inte medvetet: det hade inga känslor eller upplevelser.

Människor förstår medvetet reglerna för schack och logiken i en strategi. Deep Blue, däremot, var en okänslig mekanism som hade tränats för att prestera bra i spelet. På samma sätt är ChatGPT en känslolös mekanism som har tränats på enorma mängder mänskligt skapad data för att generera innehåll som verkar som om det är skrivet av en person.

Den förstår inte medvetet innebörden av orden den spottar ut. Om "tanke" betyder handlingen av medveten reflektion, då har ChatGPT inga tankar om någonting.

Dags att betala

Hur kan jag vara så säker på att ChatGPT inte är vid medvetande? På 1990-talet, neurovetaren Christof Koch satsade filosofen David Chalmers på ett fall av fint vin att forskare helt och hållet skulle ha fastställt "medvetandets neurala korrelat" på 25 år.

Med detta menade han att de skulle ha identifierat de former av hjärnaktivitet som är nödvändiga och tillräckliga för medveten upplevelse. Det är på tiden att Koch betalar, eftersom det inte råder någon konsensus om att detta har hänt.

Det här är för att medvetande kan inte observeras genom att titta inuti ditt huvud. I sina försök att hitta ett samband mellan hjärnaktivitet och erfarenhet måste neurovetenskapsmän förlita sig på sina försökspersoners vittnesmål eller på yttre medvetandemarkörer. Men det finns flera sätt att tolka data.

Vissa forskare tror att det finns ett nära samband mellan medvetande och reflekterande kognition – hjärnans förmåga att komma åt och använda information för att fatta beslut. Detta får dem att tro att hjärnans prefrontala cortex – där högnivåprocesserna för att förvärva kunskap äger rum – i huvudsak är involverad i all medveten upplevelse. Andra förnekar detta, argumenterar istället för det det händer i vilken lokal hjärnregion som helst den relevanta sensoriska bearbetningen äger rum.

Forskare har god förståelse för hjärnans grundläggande kemi. Vi har också gjort framsteg när det gäller att förstå högnivåfunktionerna hos olika delar av hjärnan. Men vi har nästan ingen aning om biten däremellan: hur hjärnans funktion på hög nivå förverkligas på cellnivå.

Människor blir väldigt exalterade över möjligheten med skanningar för att avslöja hjärnans funktion. Men fMRI (funktionell magnetisk resonanstomografi) har en mycket låg upplösning: varje pixel på en hjärnskanning motsvarar 5.5 miljoner neuroner, vilket betyder att det finns en gräns för hur mycket detaljer dessa skanningar kan visa.

Jag tror att framsteg på medvetandet kommer när vi bättre förstår hur hjärnan fungerar.

Paus i utvecklingen

Som jag argumenterar i min kommande bok Varför? Universums syfte, medvetandet måste ha utvecklats eftersom det gjorde en beteendemässig skillnad. System med medvetande måste bete sig annorlunda, och därmed överleva bättre, än system utan medvetande.

Om allt beteende bestämdes av underliggande kemi och fysik, skulle naturligt urval inte ha någon motivation för att göra organismer medvetna; vi skulle ha utvecklats som okänsliga överlevnadsmekanismer.

Min satsning är alltså att när vi lär oss mer om hjärnans detaljerade funktion, kommer vi att exakt identifiera vilka områden i hjärnan som förkroppsligar medvetandet. Detta beror på att dessa regioner kommer att uppvisa beteenden som inte kan förklaras av för närvarande känd kemi och fysik. Redan, vissa neuroforskare söker potentiella nya förklaringar till medvetande för att komplettera fysikens grundläggande ekvationer.

Även om bearbetningen av LLMs nu är för komplex för att vi ska kunna förstå det till fullo, vet vi att det i princip kan förutsägas utifrån känd fysik. På grundval av detta kan vi med säkerhet hävda att ChatGPT inte är medvetet.

Det finns många faror med AI, och jag stöder fullt ut den senaste uppmaningen från tiotusentals människor, inklusive teknikledarna Steve Wozniak och Elon Musk, att pausa utveckling för att hantera säkerhetsproblem. Potentialen för bedrägerier är till exempel enorm. Argumentet att kortsiktiga ättlingar till nuvarande AI-system kommer att vara superintelligenta, och därmed ett stort hot mot mänskligheten, är dock för tidigt.

Detta betyder inte att nuvarande AI-system inte är farliga. Men vi kan inte korrekt bedöma ett hot om vi inte korrekt kategoriserar det. LLM är inte intelligenta. De är system tränade för att ge det yttre utseendet av mänsklig intelligens. Läskigt, men inte så läskigt.Avlyssningen

Denna artikel publiceras från Avlyssningen under en Creative Commons licens. Läs ursprungliga artikeln.

Image Credit: Gerd Altmann från Pixabay

Tidsstämpel:

Mer från Singularity Hub