Regulador estadounidense investiga ChatGPT de OpenAI por difundir mentiras

Regulador estadounidense investiga ChatGPT de OpenAI por difundir mentiras

Nodo de origen: 2764806

La Comisión Federal de Comercio (FTC) de EE. UU. inició una investigación sobre OpenAI por posibles violaciones de las leyes de protección al consumidor relacionadas con su chatbot de IA ChatGPT, al que se acusa de difundir información falsa y violar las normas de privacidad de datos.

Según un informe del Washington Post, el organismo de control de la competencia envió una carta de 20 páginas a OpenAI exigiendo información detallada sobre sus operaciones comerciales, incluida su política de privacidad, tecnología de IA. medidas y procesos de seguridad de datos.

La carta es el último movimiento de los reguladores para analizar los riesgos potenciales de la IA generativa, un tipo de inteligencia artificial que se puede utilizar para crear textos, imágenes y videos realistas y convincentes. ChatGPT lanzado con gran éxito en noviembre, lo que provocó una "carrera armamentista" de IA.

Lea también: Bard AI Chatbot de Google ahora lee imágenes y habla, se expande a la UE

ChatGPT acusado de causar daño a los usuarios

Por el reporte, la FTC está investigando si ChatGPT causó daño a las personas al proporcionar respuestas incorrectas a sus preguntas. Quiere saber si la empresa "participó en prácticas injustas o engañosas de privacidad o seguridad de datos" que causaron a los usuarios "daño a la reputación".

La Comisión Federal de Comercio le preguntó a OpenAI sobre las medidas de seguridad que implementó para evitar que sus modelos de inteligencia artificial "generen declaraciones sobre personas reales que sean falsas, engañosas o despectivas".

El fundador y director ejecutivo de OpenAI, Sam Altman, expresó su decepción porque solo se enteró de la investigación de la FTC a través de una filtración al Washington Post. Escribiendo en Twitter, Altman dijo que la medida “no ayudaría a generar confianza”, pero agregó que la compañía trabajará con la FTC.

“Es muy importante para nosotros que nuestra tecnología sea segura y pro-consumidor, y estamos seguros de que cumplimos con la ley”, dijo. “Protegemos la privacidad del usuario y diseñamos nuestros sistemas para aprender sobre el mundo, no sobre individuos privados”.

Altman también habló sobre la última tecnología de OpenAI, GPT-4. Dijo que el modelo fue "construido sobre años de investigación de seguridad y pasó más de 6 meses después de que terminamos el entrenamiento inicial haciéndolo más seguro y más alineado antes de lanzarlo".

“Somos transparentes sobre las limitaciones de nuestra tecnología, especialmente cuando nos quedamos cortos”, enfatizó el CEO.

Al momento de escribir este artículo, la Comisión Federal de Comercio aún no había publicado ningún comentario oficial.

Más dolores de cabeza legales para OpenAI

La investigación de la FTC no es el único desafío legal que OpenAI tiene que preocuparse. Como MetaNews anteriormente reportaron, OpenAI fue demandado por $ 3 mil millones en una demanda colectiva acusando al creador de ChatGPT de robar datos de usuarios.

Según la queja presentado en un tribunal federal de California el 28 de junio, OpenAI supuestamente usó "información privada robada" para "entrenar y desarrollar" sus productos, incluidos ChatGPT 3.5, ChatGPT 4, Dall-E y Vall-E.

La semana pasada, la comediante Sarah Silverman y otros dos autores archivado una demanda contra OpenAI y Meta, alegando que los sistemas de inteligencia artificial de las empresas fueron entrenados con material protegido por derechos de autor de sus libros sin su permiso.

Los autores afirman que las empresas utilizaron "bibliotecas en la sombra" de material protegido por derechos de autor para entrenar sus sistemas de IA, y que esto constituye una infracción de derechos de autor.

Preocupaciones regulatorias

El rápido desarrollo de la IA ha generado preocupaciones sobre los riesgos potenciales de la tecnología, como el sesgo, la discriminación y las violaciones de la privacidad. Como resultado, los reguladores de todo el mundo están comenzando a prestar mucha atención a la industria emergente.

Los gobiernos están analizando cómo se pueden aplicar a la IA las regulaciones existentes, como las que rigen los derechos de autor y la privacidad de los datos. También están considerando nuevas reglas que pueden ser necesarias. Dos áreas clave de enfoque son los datos que se introducen en los modelos de IA y el contenido que generan.

En los Estados Unidos, el líder de la mayoría del Senado, Chuck Schumer, ha pedido una "legislación integral" para garantizar las salvaguardas de la IA, informó el Washington Post. También se comprometió a realizar una serie de foros a finales de este año con el objetivo de "establecer una nueva base para la política de IA".

Recientemente, el Papa Francisco liberado Directrices para el desarrollo responsable de la IA. China y Europa también están endureciendo y afinando las regulaciones de inteligencia artificial.

COMPARTIR ESTA PUBLICACION

Sello de tiempo:

Mas de MetaNoticias