ChatGPT non può pensare: la coscienza è qualcosa di completamente diverso dall'intelligenza artificiale di oggi

ChatGPT non può pensare: la coscienza è qualcosa di completamente diverso dall'intelligenza artificiale di oggi

Nodo di origine: 2674703

C'è stato uno shock in tutto il mondo per il rapido progresso con ChatGPT e altre intelligenze artificiali create con i cosiddetti modelli di linguaggio di grandi dimensioni (LLM). Questi sistemi possono produrre testi che sembrano mostrare pensiero, comprensione e persino creatività.

Ma questi sistemi possono davvero pensare e capire? Questa non è una domanda a cui si può rispondere attraverso il progresso tecnologico, ma un'attenta analisi e argomentazione filosofica ci dice che la risposta è no. E senza elaborare questi problemi filosofici, non comprenderemo mai appieno i pericoli e i benefici della rivoluzione dell'IA.

Nel 1950, il padre dell'informatica moderna, Alan Turing, pubblicato un documento che ha delineato un modo per determinare se un computer pensa. Questo è ora chiamato "il test di Turing". Turing ha immaginato un essere umano impegnato in una conversazione con due interlocutori nascosti alla vista: uno un altro essere umano, l'altro un computer. Il gioco è capire quale è quale.

Se un computer può ingannare il 70 percento dei giudici in una conversazione di 5 minuti facendogli credere che sia una persona, il computer supera il test. Il superamento del test di Turing, qualcosa che ora sembra imminente, dimostrerebbe che un'intelligenza artificiale ha raggiunto il pensiero e la comprensione?

Sfida di scacchi

Turing ha respinto questa domanda come irrimediabilmente vaga e l'ha sostituita con una definizione pragmatica di "pensiero", per cui pensare significa solo superare la prova.

Turing si sbagliava, tuttavia, quando diceva che l'unica nozione chiara di "comprensione" è quella puramente comportamentale del superamento del test. Sebbene questo modo di pensare ora domini la scienza cognitiva, esiste anche una nozione chiara e quotidiana di "comprensione" che è legata a coscienza. Comprendere in questo senso è afferrare consapevolmente qualche verità sulla realtà.

In 1997, l' Deep Blue AI ha battuto il grande maestro di scacchi Garry Kasparov. Secondo una concezione puramente comportamentale della comprensione, Deep Blue aveva una conoscenza della strategia degli scacchi che supera qualsiasi essere umano. Ma non era cosciente: non aveva sentimenti o esperienze.

Gli esseri umani comprendono consapevolmente le regole degli scacchi e la logica di una strategia. Deep Blue, al contrario, era un meccanismo insensibile che era stato addestrato per funzionare bene al gioco. Allo stesso modo, ChatGPT è un meccanismo insensibile che è stato addestrato su enormi quantità di dati creati dall'uomo per generare contenuti che sembrano scritti da una persona.

Non comprende consapevolmente il significato delle parole che sta sputando. Se "pensiero" significa l'atto di riflessione cosciente, allora ChatGPT non ha pensieri su nulla.

È ora di pagare

Come posso essere così sicuro che ChatGPT non sia cosciente? Negli anni '1990, il neuroscienziato Christof Koch scommette sul filosofo David Chalmers una cassa di buon vino che gli scienziati avrebbero completamente definito i "correlati neurali della coscienza" in 25 anni.

Con questo intendeva che avrebbero identificato le forme di attività cerebrale necessarie e sufficienti per l'esperienza cosciente. È ora che Koch paghi, poiché non c'è consenso sul fatto che ciò sia accaduto.

Questo è perché coscienza non può essere osservato guardando dentro la tua testa. Nei loro tentativi di trovare una connessione tra l'attività cerebrale e l'esperienza, i neuroscienziati devono fare affidamento sulla testimonianza dei loro soggetti o su marcatori esterni di coscienza. Ma ci sono diversi modi di interpretare i dati.

Alcuni scienziati credo che ci sia una stretta connessione tra coscienza e cognizione riflessiva: la capacità del cervello di accedere e utilizzare le informazioni per prendere decisioni. Questo li porta a pensare che la corteccia prefrontale del cervello - dove hanno luogo i processi di alto livello di acquisizione della conoscenza - sia essenzialmente coinvolta in tutta l'esperienza cosciente. Altri lo negano, sostenendo invece che accade in qualsiasi regione cerebrale locale in cui ha luogo l'elaborazione sensoriale rilevante.

Gli scienziati hanno una buona conoscenza della chimica di base del cervello. Abbiamo anche fatto progressi nella comprensione delle funzioni di alto livello di varie parti del cervello. Ma siamo quasi all'oscuro della parte intermedia: come si realizza il funzionamento di alto livello del cervello a livello cellulare.

Le persone sono molto entusiaste del potenziale delle scansioni per rivelare il funzionamento del cervello. Ma la fMRI (risonanza magnetica funzionale) ha una risoluzione molto bassa: ogni pixel su una scansione cerebrale corrisponde a 5.5 milioni di neuroni, il che significa che c'è un limite alla quantità di dettagli che queste scansioni sono in grado di mostrare.

Credo che i progressi sulla coscienza arriveranno quando capiremo meglio come funziona il cervello.

Pausa nello sviluppo

Come sostengo nel mio prossimo libro Perché? Lo scopo dell'universo, la coscienza deve essersi evoluta perché ha fatto una differenza comportamentale. I sistemi con coscienza devono comportarsi diversamente, e quindi sopravvivere meglio, rispetto ai sistemi senza coscienza.

Se tutto il comportamento fosse determinato dalla chimica e dalla fisica sottostanti, la selezione naturale non avrebbe alcuna motivazione per rendere gli organismi coscienti; ci saremmo evoluti come meccanismi di sopravvivenza insensibili.

La mia scommessa, quindi, è che mentre impariamo di più sul funzionamento dettagliato del cervello, identificheremo con precisione quali aree del cervello incarnano la coscienza. Questo perché quelle regioni mostreranno un comportamento che non può essere spiegato dalla chimica e dalla fisica attualmente note. Già, alcuni neuroscienziati stanno cercando potenziali nuove spiegazioni per la coscienza per integrare le equazioni di base della fisica.

Sebbene l'elaborazione degli LLM sia ora troppo complessa per essere compresa appieno, sappiamo che in linea di principio potrebbe essere prevista dalla fisica nota. Su questa base, possiamo affermare con sicurezza che ChatGPT non è cosciente.

Ci sono molti pericoli posti dall'intelligenza artificiale e sostengo pienamente la recente chiamata di decine di migliaia di persone, inclusi i leader tecnologici Steve Wozniak ed Elon Musk, mettere in pausa sviluppo per affrontare i problemi di sicurezza. Il potenziale di frode, ad esempio, è immenso. Tuttavia, l'argomentazione secondo cui i discendenti a breve termine degli attuali sistemi di intelligenza artificiale saranno super intelligenti, e quindi una grave minaccia per l'umanità, è prematura.

Ciò non significa che gli attuali sistemi di intelligenza artificiale non siano pericolosi. Ma non possiamo valutare correttamente una minaccia se non la categorizziamo accuratamente. Gli LLM non sono intelligenti. Sono sistemi addestrati per dare l'aspetto esteriore dell'intelligenza umana. Spaventoso, ma non così spaventoso.The Conversation

Questo articolo è ripubblicato da The Conversation sotto una licenza Creative Commons. Leggi il articolo originale.

Immagine di credito: Gerd Altmann da Pixabay

Timestamp:

Di più da Hub di singolarità