ChatGPT di OpenAI sotto indagine GDPR in Italia: di fronte a una scadenza per la difesa di 30 giorni

ChatGPT di OpenAI sotto indagine GDPR in Italia: di fronte a una scadenza per la difesa di 30 giorni

Nodo di origine: 3088858

L'Autorità Garante per la Protezione dei Dati Personali italiana, Garante, ha espresso preoccupazione per potenziali violazioni del GDPR da parte del ChatGPT di OpenAI, richiedendo a OpenAI di difendere il trattamento dei dati personali per 30 giorni.

Lo ha sollevato il Garante per la protezione dei dati personali italiano preoccupazioni about potential violations of the European Union’s General Data Protection Regulation (GDPR) by OpenAI’s ChatGPT. This follows a multi-month investigation, leading to a formal notice issued to OpenAI, suspecting breaches of EU privacy regulations. OpenAI has been given a 30-day period to respond and present a defense against these allegations​​​​.

In precedenza, l'autorità italiana aveva ordinato un divieto temporaneo del trattamento dati locale di ChatGPT in Italia, citando problemi come la mancanza di una base giuridica adeguata per la raccolta e il trattamento dei dati personali per l'addestramento degli algoritmi di ChatGPT. Sono state inoltre rilevate preoccupazioni sulla sicurezza dei bambini e sulla tendenza dello strumento di intelligenza artificiale a produrre informazioni imprecise. OpenAI ha affrontato temporaneamente alcuni di questi problemi, ma ora deve affrontare le conclusioni preliminari secondo cui le sue operazioni potrebbero violare il diritto dell’UE. La questione principale ruota attorno alla base giuridica che OpenAI ha per il trattamento dei dati personali per addestrare i suoi modelli di intelligenza artificiale, considerando che ChatGPT è stato sviluppato utilizzando dati recuperati dall'Internet pubblica.

Inizialmente OpenAI rivendicava l’“esecuzione di un contratto” come base giuridica per la formazione sul modello ChatGPT, ma ciò è stato contestato dalle autorità italiane. Ora, le uniche potenziali basi giuridiche rimaste sono il consenso o gli interessi legittimi. Ottenere il consenso di numerose persone i cui dati sono stati trattati sembra poco pratico, lasciando gli interessi legittimi come base giuridica primaria. Tuttavia, questa base richiede che OpenAI consenta agli interessati di opporsi al trattamento, il che pone sfide per il funzionamento continuo di un chatbot AI.

In risposta ai crescenti rischi normativi nell’UE, OpenAI sta cercando di stabilire una base fisica in Irlanda, con l’obiettivo di far sì che la supervisione della conformità al GDPR sia guidata dalla Commissione irlandese per la protezione dei dati. Questa mossa fa parte di uno sforzo più ampio per affrontare le preoccupazioni legate alla protezione dei dati in tutta l’UE. Oltre all'indagine italiana, OpenAI è sotto esame anche in Polonia a seguito di una denuncia riguardante informazioni inesatte prodotte da ChatGPT e della risposta di OpenAI al denunciante​​.

L’esito di questa indagine avrà probabilmente implicazioni significative non solo per ChatGPT ma anche per il panorama più ampio delle applicazioni IA e la loro aderenza agli standard di protezione dei dati nell’UE. L’evolversi della situazione evidenzia le sfide e le complessità che le tecnologie innovative come i chatbot basati sull’intelligenza artificiale devono affrontare nel districarsi tra le rigorose normative sulla protezione dei dati in Europa.

Fonte immagine: Shutterstock

Timestamp:

Di più da News di Blockchain