En tekniker ägnade år åt att bygga en AI Chatbot-lärare. Han bestämde sig för att det inte kan göras. - EdSurge News

En tekniker ägnade år åt att bygga en AI Chatbot-lärare. Han bestämde sig för att det inte kan göras. – EdSurge News

Källnod: 3078433

När Satya Nitta arbetade på IBM tog han och ett team av kollegor ett djärvt uppdrag: Använd det senaste inom artificiell intelligens för att bygga en ny typ av personlig digital handledare.

Detta var innan ChatGPT existerade, och färre människor pratade om AI:s underverk. Men Nitta arbetade med det som kanske var det högst profilerade AI-systemet vid den tiden, IBM:s Watson. Det AI-verktyget hade gett några stora vinster, inklusive slå människor i frågesporten Jeopardy 2011.

Nitta säger att han var optimistisk att Watson kunde driva en generaliserad handledare, men han visste att uppgiften skulle bli extremt svår. "Jag minns att jag sa till IBMs toppmästare att det här kommer att bli en 25-årig resa," sa han nyligen till EdSurge.

Han säger att hans team ägnade ungefär fem år åt att försöka, och på vägen hjälpte de till att bygga upp några småskaliga försök till inlärningsprodukter, till exempel en pilotchatbotassistent som var del av ett Pearsons kursmaterial för onlinepsykologi i 2018.

Men i slutändan beslutade Nitta att även om den generativa AI-tekniken som driver spänningen nuförtiden medför nya möjligheter som kommer att förändra utbildning och andra områden, så klarar tekniken helt enkelt inte av att bli en generaliserad personlig handledare, och kommer inte att göra det. i decennier åtminstone, om någonsin.

"Vi kommer att ha flygande bilar innan vi kommer att ha AI-lärare", säger han. "Det är en djupt mänsklig process som AI är hopplöst oförmögen att möta på ett meningsfullt sätt. Det är som att vara terapeut eller som att vara sjuksköterska.”

Istället var han med och grundade ett nytt AI-företag, Merlyn Mind, som bygger andra typer av AI-drivna verktyg för pedagoger.

Samtidigt arbetar många företag och utbildningsledare nuförtiden hårt för att jaga drömmen om att bygga AI-lärare. Även en nyligen Vita husets verkställande order försöker hjälpa saken.

Tidigare denna månad, Sal Khan, ledare för den ideella Khan Academy, berättade för New York Times: “Vi är på väg att använda AI för förmodligen den största positiva förändring som utbildning någonsin har sett. Och sättet vi ska göra det är genom att ge varje elev på planeten en artificiellt intelligent men fantastisk personlig handledare.”

Khan Academy har varit en av de första organisationerna som använde ChatGPT för att försöka utveckla en sådan handledare, som den kallar Khanmigo, som för närvarande befinner sig i en pilotfas i en serie skolor.

Khans system kommer dock med en avskräckande varning, och noterar att det "gör misstag ibland." Varningen är nödvändig eftersom alla de senaste AI-chatbotarna lider av så kallade "hallucinationer" - ordet som används för att beskriva situationer när chatboten helt enkelt tillverkar detaljer när den inte vet svaret på en fråga som ställs av en användare.

AI-experter är upptagna med att försöka kompensera hallucinationsproblemet, och ett av de mest lovande tillvägagångssätten hittills är att ta in en separat AI-chatbot för att kontrollera resultaten av ett system som ChatGPT för att se om det sannolikt har skapat detaljer. Det är vad forskare vid Georgia Tech har försökt, till exempel, i hopp om att deras muti-chatbot-system kan komma till den punkt där falsk information rensas från ett svar innan den visas för en elev. Men det är ännu inte klart att tillvägagångssättet kan nå en nivå av noggrannhet som lärare kommer att acceptera.

Vid denna kritiska punkt i utvecklingen av nya AI-verktyg är det dock användbart att fråga om en chatbot-handledare är det rätta målet för utvecklare att gå mot. Eller finns det en bättre metafor än "handledare" för vad generativ AI kan göra för att hjälpa elever och lärare?

En "alltid-på-hjälpare"

Michael Feldstein ägnar mycket tid åt att experimentera med chatbots dessa dagar. Han är en långvarig edtech-konsult och bloggare, och tidigare var han inte blyg för att kalla ut vad han såg som överdriven hype av företag som säljer edtech-verktyg.

I 2015, han känd kritik löften om vad som då var det senaste inom AI för utbildning — ett verktyg från ett företag som heter Knewton. Knewtons VD, Jose Ferreira, sa att hans produkt skulle vara "som en robotlärare i himlen som kan halvläsa dina tankar och ta reda på vad dina styrkor och svagheter är, ner till percentilen." Vilket fick Feldstein att svara att VD:n "säljer ormolja" eftersom, hävdade Feldstein, verktyget inte var i närheten av att leva upp till det löftet. (Knewtons tillgångar var tyst sålt av några år senare.)

Så vad tycker Feldstein om de senaste löftena från AI-experter om att effektiva handledare kan vara nära horisonten?

"ChatGPT är definitivt inte ormolja - långt ifrån det", säger han till EdSurge. "Det är inte heller en robotlärare i himlen som kan halvläsa dina tankar. Den har nya möjligheter, och vi måste fundera på vilka typer av handledningsfunktioner som dagens teknik kan leverera som skulle vara användbara för studenter.”

Han tror dock att handledning är ett användbart sätt att se vad ChatGPT och andra nya chatbots kan göra. Och han säger att det kommer från personlig erfarenhet.

Feldstein har en släkting som kämpar mot en hjärnblödning, och därför har Feldstein vänt sig till ChatGPT för att ge honom personliga lektioner i att förstå det medicinska tillståndet och hans älskades prognos. När Feldstein får uppdateringar från vänner och familj på Facebook, säger han, ställer han frågor i en pågående tråd i ChatGPT för att försöka förstå vad som händer bättre.

"När jag frågar det på rätt sätt kan det ge mig rätt mängd detaljer om "Vad vet vi idag om hennes chanser att bli bra igen?", säger Feldstein. "Det är inte samma sak som att prata med en läkare, men det har lärt mig på meningsfulla sätt om ett allvarligt ämne och hjälpt mig att bli mer utbildad om min släktings tillstånd."

Medan Feldstein säger att han skulle kalla det en handledare, hävdar han att det fortfarande är viktigt att företag inte översäljer sina AI-verktyg. "Vi har gjort en otjänst att säga att de är dessa allvetande lådor, eller så kommer de att vara det om några månader", säger han. "De är verktyg. De är konstiga verktyg. De beter sig illa på konstiga sätt – liksom människor.”

Han påpekar att även mänskliga handledare kan göra misstag, men de flesta studenter har en känsla av vad de ger sig in på när de bokar ett möte med en mänsklig handledare.

"När du går in på ett handledningscenter på din högskola vet de inte allt. Du vet inte hur tränade de är. Det finns en chans att de kan berätta något som är fel. Men du går in och får den hjälp du kan.”

Vad du än kallar dessa nya AI-verktyg, säger han, kommer det att vara användbart att "ha en alltid-på-hjälpare som du kan ställa frågor till", även om deras resultat bara är en startpunkt för mer lärande.

"Tråkiga" men viktiga supportuppgifter

Vilka är nya sätt som generativa AI-verktyg kan användas i utbildning, om handledning inte passar?

För Nitta är den starkare rollen att fungera som assistent till experter snarare än som ersättare för en sakkunnig handledare. Med andra ord, istället för att ersätta, säg, en terapeut, föreställer han sig att chatbots kan hjälpa en mänsklig terapeut att sammanfatta och organisera anteckningar från en session med en patient.

"Det är ett mycket användbart verktyg snarare än en AI som låtsas vara en terapeut," säger han. Även om det kan ses som "tråkigt" av vissa, hävdar han att teknikens superkraft är att "automatisera saker som människor inte gillar att göra."

I utbildningssammanhang bygger hans företag AI-verktyg utformade för att hjälpa lärare, eller för att hjälpa mänskliga handledare, att göra sina jobb bättre. För det ändamålet har Merlyn Mind tagit det ovanliga steget att bygga sin egen så kallade stora språkmodell från grunden designad för utbildning.

Redan då hävdar han att de bästa resultaten kommer när modellen är inställd för att stödja specifika utbildningsdomäner, genom att tränas med kontrollerade datauppsättningar snarare än att förlita sig på ChatGPT och andra vanliga verktyg som hämtar från stora mängder information från internet.

"Vad gör en mänsklig handledare bra? De känner studenten och de ger mänsklig motivation”, tillägger han. "Vi handlar om att AI förstärker handledaren."

Tidsstämpel:

Mer från Ed Surge