Un tecnologo ha trascorso anni a costruire un tutor per chatbot AI. Ha deciso che non si può fare. - Notizie EdSurge

Un tecnologo ha trascorso anni a costruire un tutor per chatbot AI. Ha deciso che non si può fare. – Notizie EdSurge

Nodo di origine: 3078433

Quando Satya Nitta lavorava presso IBM, lui e un team di colleghi hanno accettato un incarico coraggioso: utilizzare le ultime novità in fatto di intelligenza artificiale per costruire un nuovo tipo di tutor digitale personale.

Questo accadeva prima che esistesse ChatGPT e meno persone parlavano delle meraviglie dell'intelligenza artificiale. Ma Nitta stava lavorando con quello che all’epoca era forse il sistema di intelligenza artificiale di più alto profilo, Watson di IBM. Quello strumento di intelligenza artificiale aveva ottenuto alcune grandi vittorie, tra cui picchiando gli umani nel quiz show Jeopardy nel 2011.

Nitta afferma di essere ottimista sul fatto che Watson potesse alimentare un tutor generalizzato, ma sapeva che il compito sarebbe stato estremamente difficile. "Ricordo di aver detto ai vertici di IBM che questo sarà un viaggio di 25 anni", ha recentemente dichiarato a EdSurge.

Dice che il suo team ha impiegato circa cinque anni per provare, e lungo il percorso ha contribuito a realizzare alcuni tentativi su piccola scala di prodotti di apprendimento, come un assistente pilota di chatbot che era parte di un sistema di corsi di psicologia online Pearson in 2018.

Ma alla fine, Nitta ha deciso che, anche se la tecnologia dell’intelligenza artificiale generativa che suscita entusiasmo in questi giorni porta nuove capacità che cambieranno l’istruzione e altri campi, la tecnologia semplicemente non è all’altezza di diventare un tutor personale generalizzato, e non lo sarà. per decenni almeno, se mai.

"Avremo macchine volanti prima di avere tutor di intelligenza artificiale", afferma. “È un processo profondamente umano che l’intelligenza artificiale è irrimediabilmente incapace di soddisfare in modo significativo. È come essere un terapista o come essere un'infermiera.

Invece, ha co-fondato una nuova società di intelligenza artificiale, chiamata Merlyn Mind, che sta costruendo altri tipi di strumenti basati sull’intelligenza artificiale per gli educatori.

Nel frattempo, molte aziende e leader del settore educativo oggigiorno sono al lavoro per inseguire il sogno di creare tutor di intelligenza artificiale. Anche uno recente Ordine esecutivo della Casa Bianca cerca di aiutare la causa.

All’inizio di questo mese, Sal Khan, leader dell’organizzazione no-profit Khan Academy, ha detto al New York Times: “Siamo sul punto di utilizzare l'intelligenza artificiale per probabilmente la più grande trasformazione positiva che l'istruzione abbia mai visto. E il modo in cui lo faremo è dare a ogni studente del pianeta un tutor personale artificialmente intelligente ma straordinario.

La Khan Academy è stata una delle prime organizzazioni a utilizzare ChatGPT per provare a sviluppare un tutor di questo tipo, chiamato Khanmigo, che è attualmente in fase pilota in una serie di scuole.

Il sistema di Khan, tuttavia, viene fornito con un avvertimento scoraggiante, sottolineando che "a volte commette errori". L'avvertimento è necessario perché tutti i più recenti chatbot IA soffrono di quelle che sono conosciute come "allucinazioni" - la parola usata per descrivere situazioni in cui il chatbot semplicemente inventa dettagli quando non conosce la risposta a una domanda posta da un utente.

Gli esperti di intelligenza artificiale sono impegnati a cercare di compensare il problema delle allucinazioni e uno degli approcci più promettenti finora è quello di introdurre un chatbot AI separato per controllare i risultati di un sistema come ChatGPT per vedere se probabilmente ha inventato dei dettagli. Questo è ciò che i ricercatori della Georgia Tech ci hanno provato, ad esempio, sperando che il loro sistema muti-chatbot possa arrivare al punto in cui qualsiasi informazione falsa venga cancellata da una risposta prima che venga mostrata a uno studente. Ma non è ancora chiaro se l’approccio possa raggiungere un livello di precisione accettabile dagli educatori.

In questo punto critico dello sviluppo di nuovi strumenti di intelligenza artificiale, tuttavia, è utile chiedersi se un tutor di chatbot sia l'obiettivo giusto a cui gli sviluppatori possono dirigersi. Oppure esiste una metafora migliore di “tutor” per descrivere ciò che l’intelligenza artificiale generativa può fare per aiutare studenti e insegnanti?

Un "aiutante sempre attivo"

Michael Feldstein trascorre molto tempo a sperimentare con i chatbot al giorno d'oggi. È un consulente e blogger edtech di lunga data, e in passato non era timido nel denunciare ciò che considerava un'eccessiva pubblicità da parte delle aziende che vendevano strumenti edtech.

In 2015, lui notoriamente criticato promette quello che allora era l’ultimo ritrovato nel campo dell’intelligenza artificiale per l’istruzione: uno strumento di un’azienda chiamata Knewton. L’amministratore delegato di Knewton, Jose Ferreira, ha affermato che il suo prodotto sarebbe “come un robot tutore nel cielo in grado di leggere parzialmente la tua mente e capire quali sono i tuoi punti di forza e di debolezza, fino al percentile”. Ciò ha portato Feldstein a rispondere che il CEO stava “vendendo olio di serpente” perché, ha sostenuto Feldstein, lo strumento non era neanche lontanamente all’altezza di quella promessa. (I beni di Knewton erano tranquillamente svenduto pochi anni dopo.)

Allora cosa ne pensa Feldstein delle ultime promesse degli esperti di intelligenza artificiale secondo cui tutor efficaci potrebbero essere nel prossimo orizzonte?

"ChatGPT non è sicuramente olio di serpente, tutt'altro", dice a EdSurge. “Inoltre non è un robot tutore nel cielo che può semi-leggere la tua mente. Ha nuove funzionalità e dobbiamo pensare a quali tipi di funzioni di tutoraggio la tecnologia odierna può offrire e che potrebbero essere utili agli studenti”.

Tuttavia, ritiene che il tutoraggio sia un modo utile per vedere cosa possono fare ChatGPT e altri nuovi chatbot. E dice che deriva dall'esperienza personale.

Feldstein ha un parente che sta combattendo un'emorragia cerebrale, quindi Feldstein si è rivolto a ChatGPT per dargli lezioni personali sulla comprensione delle condizioni mediche e della prognosi della persona amata. Mentre Feldstein riceve aggiornamenti da amici e parenti su Facebook, dice, pone domande in un thread in corso su ChatGPT per cercare di capire meglio cosa sta succedendo.

"Quando lo chiedo nel modo giusto, posso darmi la giusta quantità di dettagli su: 'Cosa sappiamo oggi sulle sue possibilità di stare di nuovo bene?'", dice Feldstein. "Non è la stessa cosa che parlare con un medico, ma mi ha istruito in modo significativo su un argomento serio e mi ha aiutato a diventare più informato sulla condizione del mio parente."

Sebbene Feldstein affermi che lo chiamerebbe tutor, sostiene che è comunque importante che le aziende non vendano eccessivamente i loro strumenti di intelligenza artificiale. "Abbiamo reso un cattivo servizio nel dire che sono queste scatole onniscienti, o lo saranno tra pochi mesi", dice. “Sono strumenti. Sono strumenti strani. Si comportano male in modi strani, così come le persone.

Sottolinea che anche i tutor umani possono commettere errori, ma la maggior parte degli studenti ha un'idea di ciò a cui andrà incontro quando fissa un appuntamento con un tutor umano.

“Quando vai in un centro di tutoraggio nella tua università, non sanno tutto. Non sai quanto sono addestrati. C'è la possibilità che ti dicano qualcosa che non va. Ma tu vai e ottieni l’aiuto che puoi”.

Comunque si chiami questi nuovi strumenti di intelligenza artificiale, dice, sarà utile "avere un aiutante sempre disponibile a cui porre domande", anche se i risultati sono solo un punto di partenza per un ulteriore apprendimento.

Compiti di supporto "noiosi" ma importanti

Quali sono i nuovi modi in cui gli strumenti di intelligenza artificiale generativa possono essere utilizzati nell’istruzione, se il tutoraggio finisce per non essere la soluzione giusta?

Per Nitta, il ruolo più forte è quello di servire come assistente degli esperti piuttosto che come sostituto di un tutor esperto. In altre parole, invece di sostituire, ad esempio, un terapista, immagina che i chatbot possano aiutare un terapista umano a riassumere e organizzare gli appunti di una sessione con un paziente.

"Si tratta di uno strumento molto utile piuttosto che di un'intelligenza artificiale che finge di essere un terapista", afferma. Anche se questo può essere considerato “noioso”, da alcuni, sostiene che il superpotere della tecnologia è quello di “automatizzare le cose che agli esseri umani non piace fare”.

Nel contesto educativo, la sua azienda sta costruendo strumenti di intelligenza artificiale progettati per aiutare gli insegnanti, o per aiutare i tutor umani, a svolgere meglio il proprio lavoro. A tal fine, Merlyn Mind ha compiuto il passo insolito di costruire da zero il proprio cosiddetto modello linguistico di grandi dimensioni, progettato per l’istruzione.

Anche in questo caso, sostiene che i risultati migliori si ottengono quando il modello è ottimizzato per supportare domini educativi specifici, essendo addestrato con set di dati controllati piuttosto che affidarsi a ChatGPT e altri strumenti tradizionali che attingono a grandi quantità di informazioni da Internet.

“Cosa sa fare bene un tutor umano? Conoscono lo studente e forniscono motivazione umana", aggiunge. "Il nostro obiettivo è l'intelligenza artificiale che potenzia il tutor."

Timestamp:

Di più da Ed Surge