Spiegabilità dei dati: la controparte della spiegabilità del modello - DATAVERSITY

Spiegabilità dei dati: la controparte della spiegabilità del modello - DATAVERSITY

Nodo di origine: 2658143

Oggi, l’intelligenza artificiale e il machine learning sono ovunque. 

Che si tratti di giocare con tutti ChatGPT (il più veloce app adottata nella storia) o una proposta recente da aggiungere un quarto colore ai semafori Per rendere più sicura la transizione verso le auto a guida autonoma, l’intelligenza artificiale ha completamente saturato le nostre vite. Sebbene l’intelligenza artificiale possa sembrare più accessibile che mai, la complessità dei modelli di intelligenza artificiale è aumentata in modo esponenziale. 

I modelli di intelligenza artificiale rientrano nelle categorie principali dei modelli a scatola nera e a scatola bianca. I modelli a scatola nera raggiungono una decisione senza spiegazione, mentre i modelli a scatola bianca forniscono un risultato in base alle regole che hanno prodotto quel risultato. 

Mentre continuiamo a muoverci verso un mondo di metodi di deep learning, la maggior parte gravita in gran parte verso i modelli a scatola nera. 

Il problema con questo approccio? I modelli a scatola nera (come quelli integrati nella visione artificiale) non possono essere consumati direttamente. Questo viene spesso definito il problema della scatola nera. Sebbene la riqualificazione dei modelli di scatola nera possa offrire agli utenti un punto di partenza, interpretare il modello e comprenderne i risultati diventa più difficile man mano che i modelli aumentano di complessità.

Una tattica per affrontare l’enigma della scatola nera è creare un modello su misura e spiegabile. 

Ma non è questa la direzione in cui si sta muovendo il mondo. 

Dove finisce la spiegabilità del modello, inizia la spiegabilità dei dati

La spiegabilità è fondamentale perché migliora la trasparenza, l’accuratezza e l’equità del modello e può anche aumentare la fiducia nell’intelligenza artificiale. Mentre la spiegabilità del modello è un approccio convenzionale, ora emerge anche la necessità di un nuovo tipo: la spiegabilità dei dati.

La spiegabilità del modello significa comprendere l'algoritmo, al fine di comprendere il risultato finale. Ad esempio, se un modello utilizzato in un’unità di oncologia è progettato per verificare se una crescita è cancerosa, un operatore sanitario dovrebbe comprendere le variabili che creano i risultati finali. Sebbene in teoria ciò sembri fantastico, la spiegabilità del modello non risolve del tutto il problema della scatola nera. 

Poiché i modelli stanno diventando sempre più complessi, la maggior parte dei professionisti non sarà in grado di individuare le trasformazioni e interpretare i calcoli negli strati interni del modello. Si affidano in gran parte a ciò che possono controllare, ovvero i set di dati di addestramento e ciò che osservano, i risultati e le misure di previsione.  

Usiamo l'esempio di un data scientist che costruisce un modello per rilevare foto di tazze di caffè da migliaia di fotografie, ma il modello inizia a rilevare anche immagini di bicchieri e boccali di birra, ad esempio. Sebbene i boccali di vetro e di birra possano avere qualche somiglianza con le tazze da caffè, ci sono differenze nette, come i materiali tipici, il colore, l'opacità e le proporzioni strutturali.

Affinché il modello rilevi le tazze da caffè con maggiore affidabilità, il data scientist deve avere le risposte a domande come:

  • Quali immagini ha ripreso la modella al posto delle tazze da caffè? 
  • Il modello ha fallito perché non gli ho fornito abbastanza o gli esempi giusti di tazze da caffè?
  • Quel modello è abbastanza buono per quello che stavo cercando di realizzare?
  • Devo mettere in discussione la mia visione del modello?
  • Cosa posso determinare in modo definitivo sta causando il fallimento del modello? 
  • Dovrei generare nuove ipotesi del modello?
  • Ho semplicemente scelto il modello sbagliato per iniziare il lavoro?

Come puoi vedere, fornire questo tipo di intuizione, comprensione e spiegabilità del modello ogni volta che si verifica un problema è altamente improbabile.

La spiegabilità dei dati è comprendere il dati utilizzato per l'addestramento e l'input in un modello, al fine di comprendere come viene raggiunto il risultato finale di un modello. Man mano che gli algoritmi ML diventano sempre più complessi ma sempre più ampiamente utilizzati nelle professioni e nei settori, la spiegabilità dei dati fungerà da chiave per sbloccare e risolvere rapidamente problemi comuni, come l’esempio della nostra tazza di caffè.

Aumentare l'equità e la trasparenza nel machine learning con la spiegabilità dei dati

L’equità all’interno dei modelli ML è un argomento caldo, che può essere reso ancora più scottante applicando la spiegabilità dei dati.

Perché tutto questo ronzio? I pregiudizi nell’intelligenza artificiale possono creare risultati pregiudizievoli per un gruppo. Uno dei casi più ben documentati di ciò sono i pregiudizi nei casi di utilizzo razziale. Diamo un'occhiata a un esempio. 

Supponiamo che una grande e nota piattaforma di consumo stia assumendo una nuova posizione di direttore marketing. Per far fronte alla massa di curriculum ricevuti quotidianamente, il dipartimento Risorse umane implementa un modello AI/ML per semplificare il processo di candidatura e reclutamento selezionando caratteristiche chiave o candidati qualificati. 

Per eseguire questo compito e discernere e suddividere in categorie ciascun curriculum, il modello lo farà dando un senso alle principali caratteristiche dominanti. Sfortunatamente, questo anche significa che il modello potrebbe implicitamente rilevare anche i pregiudizi razziali generali nei candidati. Come accadrebbe esattamente? Se un pool di candidati include una percentuale minore di una razza, la macchina penserà che l’organizzazione preferisca membri di una razza diversa o del set di dati dominante.

Se un modello fallisce, anche se involontario, il fallimento deve essere affrontato dall'azienda. In sostanza, chi ha utilizzato il modello deve essere in grado di difenderne l’uso.

Nel caso delle assunzioni e dei pregiudizi razziali, il difensore dovrebbe essere in grado di spiegare a un pubblico arrabbiato e/o a un pool di applicazioni l’uso di set di dati per addestrare il modello, i primi risultati positivi del modello basato su tale formazione, il fallimento di il modello da prendere in considerazione in un caso limite e come ciò abbia portato a uno squilibrio involontario dei dati che alla fine ha creato un processo di filtraggio pregiudizievole a livello razziale.

Per la maggior parte, questo tipo di dettagli concreti sull’intelligenza artificiale, sui set di dati sugli squilibri, sull’addestramento dei modelli e sull’eventuale fallimento tramite la supervisione dei dati non verranno ricevuti bene o addirittura compresi. Ma cosa si capirà e resterà in sospeso da questa storia? L'azienda XYZ pratica pregiudizi razziali nelle assunzioni. 

La morale di questo esempio fin troppo comune è che gli errori involontari di un modello molto intelligente accadono e possono avere un impatto negativo sugli esseri umani e avere conseguenze disastrose. 

Dove ci porta la spiegabilità dei dati

Piuttosto che tradurre i risultati attraverso la comprensione di un modello complesso di apprendimento automatico, la spiegabilità dei dati utilizza i dati per spiegare previsioni e fallimenti.

La spiegabilità dei dati è quindi una combinazione della visione dei dati del test ed capire cosa un modello trarrà da quei dati. Ciò include la comprensione dei campioni di dati sottorappresentati, dei campioni sovrarappresentati (come nell'esempio delle assunzioni) e la trasparenza del rilevamento di un modello al fine di comprendere con precisione previsioni e previsioni errate.

Questa comprensione della spiegabilità dei dati non solo migliorerà l’accuratezza e l’equità del modello, ma sarà anche ciò che aiuterà i modelli ad accelerare più rapidamente.

Mentre continuiamo a fare affidamento e a incorporare complessi programmi di intelligenza artificiale e machine learning nella nostra vita quotidiana, risolvere il problema della scatola nera diventa fondamentale, in particolare in caso di fallimenti e previsioni errate. 

Anche se la spiegabilità del modello avrà sempre il suo posto, richiede un altro livello. Abbiamo bisogno della spiegabilità dei dati, poiché la comprensione di ciò che un modello sta vedendo e leggendo non sarà mai coperta dalla spiegabilità del modello classico.

Timestamp:

Di più da VERSITÀ DEI DATI