OpenAI ne esclude l'uso nelle elezioni e nella repressione degli elettori

OpenAI ne esclude l'uso nelle elezioni e nella repressione degli elettori

Nodo di origine: 3073710

Con una mossa decisiva per combattere la disinformazione nelle elezioni, OpenAI ha dichiarato a presa di posizione rigorosa contro l’uso dei suoi strumenti di intelligenza artificiale generativa nelle campagne elettorali e nelle tattiche di repressione degli elettori.

Questo annuncio rappresenta un passo essenziale per garantire l’integrità di numerose elezioni chiave previste per il 2024.

Leggi anche: OpenAI negozia la licenza per i contenuti delle notizie con CNN, Fox e Time

Combattere gli abusi con l’innovazione e la politica

OpenAI ha avviato una strategia per salvaguardare la sua tecnologia dallo sfruttamento per manipolare i risultati elettorali. L'azienda ha creato un team specializzato focalizzato sulle questioni legate alle elezioni, unendo le competenze di vari dipartimenti, tra cui quello legale, ingegneristico e politico. L’obiettivo principale di questo team è identificare e mitigare il potenziale abuso dell’intelligenza artificiale nelle elezioni.

“Abbiamo uno sforzo interfunzionale dedicato al lavoro elettorale, riunendo le competenze dei nostri sistemi di sicurezza, intelligence sulle minacce, team legali, ingegneristici e politici”.

La minaccia della disinformazione in politica non è nuova, ma l’avvento della tecnologia dell’intelligenza artificiale presenta sfide senza precedenti. Riconoscendo ciò, OpenAI sta adottando misure proattive. L'azienda prevede di utilizzare un mix di tecniche come il red teaming, il coinvolgimento degli utenti e i guardrail di sicurezza. Nello specifico, la loro immagine strumento di generazione, DALL-E, è stato aggiornato per impedire la creazione di immagini raffiguranti persone reali, inclusi candidati politici.

"DALL·E dispone di barriere per respingere le richieste che richiedono la generazione di immagini di persone reali, compresi i candidati."

OpenAI rivede continuamente le proprie politiche sugli utenti per tenere il passo con il panorama in evoluzione della tecnologia AI e il suo potenziale uso improprio. Le sue politiche di sicurezza aggiornate ora limitano esplicitamente lo sviluppo di applicazioni di intelligenza artificiale per campagne politiche e lobbying. Inoltre, sono state messe in atto misure per impedire la creazione di chatbot che imitano persone o organizzazioni reali.

Migliorare la trasparenza e la responsabilità

Una componente chiave della strategia di OpenAI è l’introduzione di un classificatore di provenienza per il suo strumento DALL-E. Questa funzionalità, attualmente in fase di beta testing, è in grado di rilevare le immagini generate da DALL-E. L'azienda mira a rendere questo strumento accessibile a giornalisti, piattaforme e ricercatori per migliorare la trasparenza dei contenuti generati dall'intelligenza artificiale.

"Abbiamo in programma di renderlo presto disponibile al nostro primo gruppo di tester, inclusi giornalisti, piattaforme e ricercatori, per ottenere feedback."

OpenAI sta anche integrando le notizie in tempo reale ChatGPT. Questa integrazione mira a fornire agli utenti informazioni accurate e tempestive, migliorando la trasparenza sulle fonti di informazione fornite dall’IA.

In uno sforzo congiunto con l’Associazione Nazionale dei Segretari di Stato negli Stati Uniti, OpenAI si concentra sull’impedire che la sua tecnologia scoraggi la partecipazione elettorale. Il lavoro di squadra prevede di indirizzare gli utenti di chatbot basati su GPT verso siti Web affidabili di informazioni sul voto come CanIVote.org.

I rivali seguono l'esempio nella gara dell'IA

L’annuncio di OpenAI ha creato un precedente nel settore dell’intelligenza artificiale, con rivali del calibro di Google LLC e Meta Platforms Inc. implementano inoltre misure per combattere la disinformazione diffusa attraverso le loro tecnologie. Questo sforzo collettivo da parte dei leader del settore significa una crescente consapevolezza e responsabilità nei confronti del potenziale impatto dell’intelligenza artificiale sui processi democratici.

Ma questo è sufficiente? Charles King di Pund-IT Inc. solleva un punto critico, chiedendosi se queste misure siano tempestive o reattive. Sostiene che le preoccupazioni sulla disinformazione generata dall’intelligenza artificiale esistono da anni e che il recente annuncio di OpenAI potrebbe essere visto come troppo poco e troppo tardi. Questa prospettiva provoca una riflessione più profonda sul ruolo e sulla responsabilità degli sviluppatori di intelligenza artificiale nel panorama politico.

“Quindi, nella migliore delle ipotesi, questo annuncio suggerisce che OpenAI fosse addormentato al momento dell’interruttore. Ma nel peggiore dei casi, assomiglia a un rituale del lavaggio delle mani che OpenAI può indicare quando l’intelligenza artificiale generativa colpisce i fan durante le prossime elezioni globali di quest’anno”.

Timestamp:

Di più da MetaNotizie