860,000 posti di lavoro in realtà estesa in arrivo entro il 2025, afferma la Commissione europea

860,000 posti di lavoro in realtà estesa in arrivo entro il 2025, afferma la Commissione europea

Nodo di origine: 2765123

La Federal Trade Commission (FTC) degli Stati Uniti ha avviato un'indagine su OpenAI per potenziali violazioni delle leggi sulla protezione dei consumatori relative al suo chatbot AI ChatGPT, accusato di diffondere informazioni false e violare le regole sulla privacy dei dati.

Secondo un rapporto del Washington Post, il cane da guardia della concorrenza ha inviato una lettera di 20 pagine a OpenAI chiedendo informazioni dettagliate sulle sue operazioni commerciali, inclusa la sua politica sulla privacy, la tecnologia AI. misure e processi di sicurezza dei dati.

La lettera è l'ultima mossa delle autorità di regolamentazione per esaminare i potenziali rischi dell'IA generativa, un tipo di intelligenza artificiale che può essere utilizzata per creare testi, immagini e video realistici e convincenti. ChatGPT lanciato con grande successo a novembre, scatenando una "corsa agli armamenti" dell'IA.

Leggi anche: Bard AI Chatbot di Google ora legge immagini e parla, si espande nell'UE

ChatGPT accusato di causare danni agli utenti

Per rapporto, la FTC sta indagando se ChatGPT abbia causato danni alle persone fornendo risposte sbagliate alle loro domande. Vuole sapere se la società "si è impegnata in pratiche sleali o ingannevoli sulla privacy o sulla sicurezza dei dati" che hanno causato "danni alla reputazione" degli utenti.

La Federal Trade Commission ha chiesto a OpenAI quali garanzie ha messo in atto per impedire ai suoi modelli di intelligenza artificiale di "generare dichiarazioni su individui reali che sono false, fuorvianti o denigratorie".

Il fondatore e CEO di OpenAI Sam Altman ha espresso delusione per aver scoperto l'indagine della FTC solo tramite una fuga di notizie al Washington Post. scrittura su Twitter, Altman ha affermato che la mossa "non aiuterebbe a creare fiducia", ma ha aggiunto che la società collaborerà con la FTC.

"Per noi è estremamente importante che la nostra tecnologia sia sicura e pro-consumatore e siamo fiduciosi di rispettare la legge", ha affermato. "Proteggiamo la privacy degli utenti e progettiamo i nostri sistemi per conoscere il mondo, non i privati".

Altman ha anche parlato dell'ultima tecnologia di OpenAI, GPT-4. Ha affermato che il modello è stato "costruito sulla base di anni di ricerca sulla sicurezza e ha trascorso più di 6 mesi dopo aver terminato l'addestramento iniziale per renderlo più sicuro e più allineato prima di rilasciarlo".

"Siamo trasparenti sui limiti della nostra tecnologia, soprattutto quando falliamo", ha sottolineato il CEO.

Al momento in cui scriviamo, la Federal Trade Commission non ha ancora rilasciato alcun commento ufficiale.

Altri grattacapi legali per OpenAI

L'indagine FTC non è l'unica sfida legale che OpenAI deve preoccuparsi. Come già MetaNews segnalati, OpenAI è stata citata in giudizio per 3 miliardi di dollari in un'azione collettiva che accusava il creatore di ChatGPT di aver rubato i dati degli utenti.

Secondo il denuncia depositato in un tribunale federale della California il 28 giugno, OpenAI avrebbe utilizzato "informazioni private rubate" per "addestrare e sviluppare" i suoi prodotti, tra cui ChatGPT 3.5, ChatGPT 4, Dall-E e Vall-E.

La scorsa settimana, la comica Sarah Silverman e altri due autori depositata una causa contro OpenAI e Meta, sostenendo che i sistemi di intelligenza artificiale delle società sono stati addestrati su materiale protetto da copyright dai loro libri senza il loro permesso.

Gli autori affermano che le società hanno utilizzato "librerie ombra" di materiale protetto da copyright per addestrare i propri sistemi di intelligenza artificiale e che ciò costituisce una violazione del copyright.

Preoccupazioni normative

Il rapido sviluppo dell'intelligenza artificiale ha sollevato preoccupazioni sui potenziali rischi della tecnologia, come pregiudizi, discriminazioni e violazioni della privacy. Di conseguenza, le autorità di regolamentazione di tutto il mondo stanno iniziando a prestare molta attenzione al settore emergente.

I governi stanno esaminando come applicare all'intelligenza artificiale le normative esistenti, come quelle che regolano il copyright e la privacy dei dati. Stanno anche valutando nuove regole che potrebbero essere necessarie. Due aree chiave di interesse sono i dati che vengono inseriti nei modelli di intelligenza artificiale e il contenuto che generano.

Negli Stati Uniti, il leader della maggioranza al Senato Chuck Schumer, ha chiesto una "legislazione completa" per garantire salvaguardie sull'IA, ha riferito il Washington Post. Si è anche impegnato a tenere una serie di forum entro la fine dell'anno volti a "stabilire una nuova base per la politica dell'IA".

Di recente, Papa Francesco rilasciato linee guida per lo sviluppo responsabile dell'IA. Cina e Europa stanno inoltre inasprendo e perfezionando le normative sull'intelligenza artificiale.

Timestamp:

Di più da MetaNotizie