Utilizzare i propri dati per mitigare i problemi di privacy dell'IA e migliorare la fiducia nell'IA | IoT Now Notizie e rapporti

Utilizzare i propri dati per mitigare i problemi di privacy dell'IA e migliorare la fiducia nell'IA | IoT Now Notizie e rapporti

Nodo di origine: 3068504

Con i modelli di intelligenza artificiale in grado di rilevare modelli e fare previsioni che sarebbero difficili o impossibili da fare manualmente per un essere umano, le potenziali applicazioni per strumenti come ChatGPT nei settori sanitario, finanziario e del servizio clienti sono enormi.

Tuttavia, mentre le priorità delle organizzazioni riguardo all’intelligenza artificiale dovrebbero essere quelle di valutare le opportunità che gli strumenti di intelligenza artificiale generativa offrono alla loro attività in termini di vantaggio competitivo, il tema della privacy dei dati è diventato una preoccupazione primaria. La gestione dell’uso responsabile dell’IA, con il suo potenziale di produrre risultati distorti, richiede un’attenta considerazione. 

Sebbene i potenziali vantaggi di questi modelli siano immensi, le organizzazioni dovrebbero esaminare attentamente le considerazioni etiche e pratiche per utilizzare l’intelligenza artificiale in modo responsabile con una protezione dei dati sicura e protetta. Ottimizzando l'esperienza utente complessiva con ChatGPT, le organizzazioni possono migliorare la propria Affidabilità dell'IA

Preoccupazioni sulla privacy dell’IA 

Proprio come molte altre tecnologie all’avanguardia, l’intelligenza artificiale solleverà senza dubbio alcune domande e sfide per coloro che desiderano implementarla nei propri stack tecnologici. Infatti, un sondaggio di Progressi ha rivelato che il 65% delle aziende e dei dirigenti IT ritiene attualmente che vi sia una distorsione dei dati nelle rispettive organizzazioni e il 78% afferma che questa situazione peggiorerà con l’aumento dell’adozione dell’intelligenza artificiale. 

Probabilmente la più grande preoccupazione in materia di privacy riguarda l’utilizzo dei dati aziendali privati ​​insieme a piattaforme di intelligenza artificiale interne e pubbliche. Ad esempio, potrebbe trattarsi di un'organizzazione sanitaria che archivia dati riservati dei pazienti o i dati delle buste paga dei dipendenti di una grande azienda. 

Affinché l’intelligenza artificiale sia più efficace, è necessario un campione di grandi dimensioni di dati pubblici e/o privati ​​di alta qualità e le organizzazioni con accesso a dati riservati, come le aziende sanitarie con cartelle cliniche, hanno un vantaggio competitivo quando creano soluzioni basate sull’intelligenza artificiale. Soprattutto, queste organizzazioni con dati così sensibili devono considerare i requisiti etici e normativi circostanti privacy dei dati, equità, spiegabilità, trasparenza, robustezza e accesso.  

I modelli linguistici di grandi dimensioni (LLM) sono potenti modelli di intelligenza artificiale addestrati su dati di testo per eseguire varie attività di elaborazione del linguaggio naturale, tra cui la traduzione linguistica, la risposta alle domande, il riepilogo e l'analisi del sentiment. Questi modelli sono progettati per analizzare il linguaggio in modo da imitare l’intelligenza umana, consentendo loro di elaborare, comprendere e generare il linguaggio umano. 

Rischi per i dati privati ​​quando si utilizza l'intelligenza artificiale 

Tuttavia, questi modelli complessi comportano sfide etiche e tecniche che possono comportare rischi per l’accuratezza dei dati, violazione del copyright e potenziali casi di diffamazione. Alcune delle sfide legate all'utilizzo efficace dell'intelligenza artificiale dei chatbot includono: 

  • Allucinazioni – Nell’intelligenza artificiale, un’allucinazione è quando riporta all’utente risposte piene di errori e queste sono fin troppo comuni. Il modo in cui i LLM prevedono la parola successiva fa sì che le risposte sembrino plausibili, mentre le informazioni potrebbero essere incomplete o false. Ad esempio, se un utente chiede a un chatbot le entrate medie di un concorrente, questi numeri potrebbero essere lontani.  
  • Distorsione dei dati – I LLM possono anche esporre pregiudizi, il che significa che possono produrre risultati che riflettono i pregiudizi nei dati di addestramento piuttosto che la realtà oggettiva. Ad esempio, un modello linguistico addestrato su un set di dati prevalentemente maschile potrebbe produrre risultati distorti riguardo ad argomenti di genere. 
  • Ragionamento/comprensione – I LLM potrebbero anche aver bisogno di aiuto con compiti che richiedono un ragionamento più approfondito o la comprensione di concetti complessi. Un LLM può essere formato per rispondere a domande che richiedono una comprensione sfumata della cultura o della storia. È possibile che i modelli perpetuino stereotipi o forniscano disinformazione se non formati e monitorati in modo efficace. 

Oltre a questi, altri rischi possono includere i tagli dei dati, ovvero quando la memoria di un modello tende a non essere aggiornata. Un'altra possibile sfida è capire come l'LLM ha generato la sua risposta poiché l'IA non è addestrata in modo efficace a mostrare il proprio ragionamento utilizzato per costruire una risposta. 

Utilizzare la conoscenza semantica per fornire dati affidabili 

I team tecnici sono alla ricerca di assistenza per l'utilizzo dei dati privati ​​per ChatGPT. Nonostante l’aumento di precisione ed efficienza, gli LLM, per non parlare dei loro utenti, possono ancora aver bisogno di aiuto per le risposte. Soprattutto perché i dati possono mancare di contesto e significato. La risposta è una soluzione di gestione della conoscenza basata sull’intelligenza artificiale forte, sicura, trasparente e governata. Con una piattaforma di dati semantici, gli utenti possono aumentare la precisione e l'efficienza introducendo al contempo la governance.  

Ottenendo una risposta che è una combinazione della risposta di ChatGPT convalidata con la conoscenza semantica di una piattaforma di dati semantici, i risultati combinati consentiranno agli LLM e agli utenti di accedere facilmente e verificare i risultati rispetto al contenuto di origine e alla conoscenza acquisita dalle PMI. 

Ciò consente allo strumento di intelligenza artificiale di archiviare ed eseguire query su dati strutturati e non strutturati, nonché di acquisire contenuti di esperti in materia (PMI) tramite la sua GUI intuitiva. Estraendo i fatti trovati all'interno dei dati e taggando i dati privati ​​con conoscenza semantica, anche le domande o gli input degli utenti e le risposte specifiche di ChatGPT possono essere taggate con questa conoscenza.  

La protezione dei dati sensibili può sbloccare il vero potenziale dell’intelligenza artificiale 

Come per tutte le tecnologie, la protezione da input o situazioni imprevisti è ancora più importante con i LLM. Affrontando con successo queste sfide, l’affidabilità delle nostre soluzioni aumenterà insieme alla soddisfazione degli utenti, portando infine al successo della soluzione. 

Come primo passo nell’esplorare l’uso dell’intelligenza artificiale per la propria organizzazione, i professionisti IT e della sicurezza devono cercare modi per proteggere i dati sensibili sfruttandoli al tempo stesso per ottimizzare i risultati per la propria organizzazione e i suoi clienti. 

Matthieu Jonglez, VP tecnologia - piattaforma applicativa e dati presso Progress.Matthieu Jonglez, VP tecnologia - piattaforma applicativa e dati presso Progress.

Articolo di Matthieu Jonglez, VP tecnologia – piattaforma applicativa e dati presso Progss.

Commenta questo articolo qui sotto o tramite X: @IoTNow_

Timestamp:

Di più da IoT ora