ChatGPT d'OpenAI sous enquête RGPD en Italie : face au délai de défense de 30 jours

ChatGPT d'OpenAI sous enquête RGPD en Italie : face au délai de défense de 30 jours

Nœud source: 3088858

L'autorité italienne de protection des données, Garante, a fait part de ses inquiétudes concernant d'éventuelles violations du RGPD par ChatGPT d'OpenAI, exigeant qu'OpenAI défende son traitement des données personnelles pendant 30 jours.

L'autorité italienne de protection des données, Garante, a soulevé préoccupations about potential violations of the European Union’s General Data Protection Regulation (GDPR) by OpenAI’s ChatGPT. This follows a multi-month investigation, leading to a formal notice issued to OpenAI, suspecting breaches of EU privacy regulations. OpenAI has been given a 30-day period to respond and present a defense against these allegations​​​​.

Auparavant, l'autorité italienne avait ordonné une interdiction temporaire du traitement des données locales de ChatGPT en Italie, invoquant des problèmes tels que l'absence de base juridique appropriée pour la collecte et le traitement des données personnelles afin de former les algorithmes de ChatGPT. Des préoccupations concernant la sécurité des enfants et la tendance de l'outil d'IA à produire des informations inexactes ont également été notées. OpenAI a temporairement résolu certains de ces problèmes, mais est désormais confronté à des conclusions préliminaires selon lesquelles ses opérations pourraient enfreindre le droit de l'UE. Le problème principal tourne autour de la base juridique dont dispose OpenAI pour traiter les données personnelles afin de former ses modèles d'IA, étant donné que ChatGPT a été développé à partir de données récupérées sur l'Internet public.

OpenAI a initialement revendiqué « l'exécution d'un contrat » comme base juridique pour la formation du modèle ChatGPT, mais cela a été contesté par l'autorité italienne. Désormais, les seules bases juridiques potentielles qui restent sont le consentement ou les intérêts légitimes. Obtenir le consentement de nombreuses personnes dont les données ont été traitées semble peu pratique, laissant les intérêts légitimes comme base juridique principale. Cependant, cette base nécessite qu'OpenAI permette aux personnes concernées de s'opposer au traitement, ce qui pose des défis pour le fonctionnement continu d'un chatbot IA.

En réponse aux risques réglementaires croissants dans l'UE, OpenAI cherche à établir une base physique en Irlande, dans le but de faire en sorte que la surveillance de la conformité au RGPD soit dirigée par la Commission irlandaise de protection des données. Cette décision s’inscrit dans le cadre d’un effort plus large visant à répondre aux préoccupations liées à la protection des données dans l’ensemble de l’UE. Outre l'enquête italienne, OpenAI fait également l'objet d'une surveillance en Pologne à la suite d'une plainte concernant des informations inexactes produites par ChatGPT et de la réponse d'OpenAI au plaignant​​.

Le résultat de cette enquête aura probablement des implications significatives non seulement pour ChatGPT mais également pour le paysage plus large des applications d'IA et leur respect des normes de protection des données dans l'UE. À mesure que la situation évolue, elle met en évidence les défis et les complexités auxquels les technologies innovantes telles que les chatbots IA sont confrontées pour s'adapter aux réglementations strictes en matière de protection des données en Europe.

Source de l'image: Shutterstock

Horodatage:

Plus de Blockchain Nouvelles