ChatGPT kan niet denken: bewustzijn is iets heel anders dan de hedendaagse AI

ChatGPT kan niet denken: bewustzijn is iets heel anders dan de hedendaagse AI

Bronknooppunt: 2674703

Over de hele wereld is men geschokt door de snelle vooruitgang ChatGPT en andere kunstmatige intelligentie gemaakt met zogenaamde grote taalmodellen (LLM's). Deze systemen kunnen tekst produceren die gedachte, begrip en zelfs creativiteit lijkt weer te geven.

Maar kunnen deze systemen echt denken en begrijpen? Dit is geen vraag die kan worden beantwoord door technologische vooruitgang, maar zorgvuldige filosofische analyse en argumentatie vertellen ons dat het antwoord nee is. En zonder deze filosofische kwesties uit te werken, zullen we de gevaren en voordelen van de AI-revolutie nooit volledig begrijpen.

In 1950, de vader van moderne computers, Alan Turing, een paper gepubliceerd dat legde een manier uit om te bepalen of een computer denkt. Dit wordt nu "de Turing-test" genoemd. Turing stelde zich een mens voor die in gesprek was met twee gesprekspartners die aan het zicht onttrokken waren: de een een mens, de ander een computer. Het spel is om uit te zoeken wat wat is.

Als een computer 70 procent van de juryleden in een gesprek van 5 minuten voor de gek kan houden door te denken dat het een persoon is, slaagt de computer voor de test. Zou het slagen voor de Turing-test - iets dat nu op handen lijkt - aantonen dat een AI tot nadenken en begrip is gekomen?

Schaakuitdaging

Turing verwierp deze vraag als hopeloos vaag en verving hem door een pragmatische definitie van 'gedachte', waarbij denken niets anders betekent dan slagen voor de test.

Turing had het echter bij het verkeerde eind toen hij zei dat de enige duidelijke notie van 'begrijpen' de zuiver gedragsmatige notie is van slagen voor zijn test. Hoewel deze manier van denken nu de cognitiewetenschap domineert, bestaat er ook een duidelijk, alledaags begrip van 'begrijpen' dat verband houdt met bewustzijn. In deze zin begrijpen is bewust iets van de waarheid over de werkelijkheid begrijpen.

In 1997 de Deep Blue AI versloeg schaakgrootmeester Garry Kasparov. Op basis van een puur gedragsopvatting van begrip, had Deep Blue kennis van schaakstrategie die elk mens overtreft. Maar het was niet bewust: het had geen gevoelens of ervaringen.

Mensen begrijpen bewust de regels van het schaken en de grondgedachte van een strategie. Deep Blue daarentegen was een gevoelloos mechanisme dat was getraind om goed te presteren in het spel. Evenzo is ChatGPT een gevoelloos mechanisme dat is getraind op enorme hoeveelheden door mensen gemaakte gegevens om inhoud te genereren die lijkt alsof het door een persoon is geschreven.

Het begrijpt niet bewust de betekenis van de woorden die het uitspuugt. Als 'gedachte' de daad van bewuste reflectie betekent, dan heeft ChatGPT nergens gedachten over.

Tijd om te betalen

Hoe kan ik er zo zeker van zijn dat ChatGPT niet bij bewustzijn is? In de jaren 1990, neurowetenschapper Christof Koch wed filosoof David Chalmers om een ​​kist goede wijn dat wetenschappers de "neurale correlaten van bewustzijn" in 25 jaar volledig zouden hebben vastgepind.

Hiermee bedoelde hij dat ze de vormen van hersenactiviteit zouden hebben geïdentificeerd die nodig en voldoende zijn voor bewuste ervaring. Het wordt tijd dat Koch betaalt, want er is geen consensus dat dit is gebeurd.

Dit is zo omdat bewustzijn kan niet worden waargenomen door in je hoofd te kijken. In hun pogingen om een ​​verband te vinden tussen hersenactiviteit en ervaring, moeten neurowetenschappers vertrouwen op de getuigenis van hun proefpersonen of op externe markeringen van bewustzijn. Maar er zijn meerdere manieren om de gegevens te interpreteren.

Sommige wetenschappers geloven dat er een nauw verband bestaat tussen bewustzijn en reflectieve cognitie - het vermogen van de hersenen om toegang te krijgen tot informatie en deze te gebruiken om beslissingen te nemen. Dit brengt hen ertoe te denken dat de prefrontale cortex van de hersenen - waar de processen van kennisvergaring op hoog niveau plaatsvinden - in wezen betrokken is bij alle bewuste ervaringen. Anderen ontkennen dit, argumenteren in plaats daarvan dat het gebeurt in elk lokaal hersengebied dat de relevante sensorische verwerking plaatsvindt.

Wetenschappers hebben een goed begrip van de basischemie van de hersenen. We hebben ook vooruitgang geboekt bij het begrijpen van de functies op hoog niveau van verschillende delen van de hersenen. Maar we hebben bijna geen idee van het stukje ertussenin: hoe het functioneren van de hersenen op hoog niveau op cellulair niveau wordt gerealiseerd.

Mensen raken erg enthousiast over het potentieel van scans om de werking van de hersenen te onthullen. Maar fMRI (functionele magnetische resonantie beeldvorming) heeft een zeer lage resolutie: elke pixel op een hersenscan komt overeen met 5.5 miljoen neuronen, wat betekent dat er een limiet is aan hoeveel details deze scans kunnen laten zien.

Ik geloof dat vooruitgang op het gebied van bewustzijn zal komen als we beter begrijpen hoe de hersenen werken.

Pauze in ontwikkeling

Zoals ik betoog in mijn aanstaande boek Waarom? Het doel van het universum, bewustzijn moet geëvolueerd zijn omdat het een verschil in gedrag maakte. Systemen met bewustzijn moeten zich anders gedragen, en dus beter overleven, dan systemen zonder bewustzijn.

Als al het gedrag bepaald zou worden door onderliggende chemie en fysica, zou natuurlijke selectie geen motivatie hebben om organismen bewust te maken; we zouden zijn geëvolueerd als gevoelloze overlevingsmechanismen.

Ik durf te wedden dat naarmate we meer leren over de gedetailleerde werking van de hersenen, we precies zullen identificeren welke delen van de hersenen het bewustzijn belichamen. Dit komt omdat die regio's gedrag vertonen dat niet kan worden verklaard door de momenteel bekende scheikunde en natuurkunde. Al, sommige neurowetenschappers zijn op zoek naar mogelijke nieuwe verklaringen voor bewustzijn om de basisvergelijkingen van de natuurkunde aan te vullen.

Hoewel de verwerking van LLM's nu te complex is om volledig te begrijpen, weten we dat het in principe kan worden voorspeld op basis van bekende natuurkunde. Op basis hiervan kunnen we vol vertrouwen beweren dat ChatGPT niet bewust is.

AI brengt veel gevaren met zich mee en ik sta volledig achter de recente oproep van tienduizenden mensen, waaronder techleiders Steve Wozniak en Elon Musk, pauzeren ontwikkeling om veiligheidsproblemen aan te pakken. Het potentieel voor fraude is bijvoorbeeld enorm. Het argument dat de afstammelingen van de huidige AI-systemen op korte termijn superintelligent zullen zijn en daarmee een grote bedreiging voor de mensheid vormen, is echter voorbarig.

Dit betekent niet dat de huidige AI-systemen niet gevaarlijk zijn. Maar we kunnen een dreiging pas correct beoordelen als we deze nauwkeurig categoriseren. LLM's zijn niet intelligent. Het zijn systemen die zijn getraind om de uiterlijke schijn van menselijke intelligentie te geven. Eng, maar niet zo eng.The Conversation

Dit artikel is opnieuw gepubliceerd vanaf The Conversation onder een Creative Commons-licentie. Lees de originele artikel.

Krediet van het beeld: Gerd Altmann oppompen van Pixabay

Tijdstempel:

Meer van Hub voor singulariteit