ChatGPT de OpenAI bajo investigación del RGPD en Italia: enfrenta un plazo de defensa de 30 días

ChatGPT de OpenAI bajo investigación del RGPD en Italia: enfrenta un plazo de defensa de 30 días

Nodo de origen: 3088858

La Autoridad Italiana de Protección de Datos, Garante, ha expresado su preocupación por posibles violaciones del RGPD por parte de ChatGPT de OpenAI, exigiendo a OpenAI que defienda su procesamiento de datos personales durante 30 días.

La autoridad italiana de protección de datos, Garante, ha planteado preocupaciones de estudiantes y facultad about potential violations of the European Union’s General Data Protection Regulation (GDPR) by OpenAI’s ChatGPT. This follows a multi-month investigation, leading to a formal notice issued to OpenAI, suspecting breaches of EU privacy regulations. OpenAI has been given a 30-day period to respond and present a defense against these allegations​​​​.

Anteriormente, la autoridad italiana había ordenado una prohibición temporal del procesamiento de datos locales de ChatGPT en Italia, citando cuestiones como la falta de una base legal adecuada para recopilar y procesar datos personales para entrenar los algoritmos de ChatGPT. También se observaron preocupaciones sobre la seguridad infantil y la tendencia de la herramienta de inteligencia artificial a producir información inexacta. OpenAI abordó temporalmente algunos de estos problemas, pero ahora enfrenta conclusiones preliminares de que sus operaciones podrían estar violando la ley de la UE. La cuestión central gira en torno a la base legal que tiene OpenAI para procesar datos personales para entrenar sus modelos de IA, considerando que ChatGPT se desarrolló utilizando datos extraídos de la Internet pública.

OpenAI inicialmente afirmó que la “ejecución de un contrato” era una base legal para el entrenamiento del modelo ChatGPT, pero esto fue impugnado por la autoridad italiana. Ahora, las únicas bases legales potenciales que quedan son el consentimiento o los intereses legítimos. Obtener el consentimiento de numerosas personas cuyos datos han sido procesados ​​parece poco práctico, dejando los intereses legítimos como base jurídica principal. Sin embargo, esta base requiere que OpenAI permita a los interesados ​​objetar el procesamiento, lo que plantea desafíos para el funcionamiento continuo de un chatbot de IA.

En respuesta a los crecientes riesgos regulatorios en la UE, OpenAI busca establecer una base física en Irlanda, con el objetivo de que la supervisión del cumplimiento del RGPD esté dirigida por la Comisión de Protección de Datos de Irlanda. Esta medida es parte de un esfuerzo más amplio para abordar las preocupaciones relacionadas con la protección de datos en toda la UE. Además de la investigación italiana, OpenAI también está bajo escrutinio en Polonia tras una denuncia sobre información inexacta producida por ChatGPT y la respuesta de OpenAI al denunciante.

El resultado de esta investigación probablemente tendrá implicaciones significativas no solo para ChatGPT sino también para el panorama más amplio de las aplicaciones de IA y su cumplimiento de los estándares de protección de datos en la UE. A medida que se desarrolla la situación, se destacan los desafíos y las complejidades que enfrentan las tecnologías innovadoras como los chatbots de IA al navegar las estrictas regulaciones de protección de datos en Europa.

Fuente de la imagen: Shutterstock

Sello de tiempo:

Mas de Blockchain Noticias