OpenAI descarta su uso en elecciones y supresión de votantes

OpenAI descarta su uso en elecciones y supresión de votantes

Nodo de origen: 3073710

En un paso decisivo para combatir la desinformación en las elecciones, OpenAI ha declarado una postura rigurosa contra el uso de sus herramientas de inteligencia artificial generativa en campañas electorales y tácticas de supresión de votantes.

Este anuncio es un paso esencial para garantizar la integridad de numerosas elecciones clave programadas para 2024.

Lea también: OpenAI negocia licencias de contenido de noticias con CNN, Fox y Time

Combatir el uso indebido con innovación y políticas

OpenAI ha iniciado una estrategia para proteger su tecnología de ser explotada para manipular los resultados electorales. La empresa ha establecido un equipo especializado que se centra en inquietudes relacionadas con las elecciones, fusionando la experiencia de varios departamentos, incluidos los legales, de ingeniería y de políticas. El objetivo principal de este equipo es identificar y mitigar el posible abuso de la IA en las elecciones.

"Tenemos un esfuerzo multifuncional dedicado al trabajo electoral, reuniendo la experiencia de nuestros equipos de sistemas de seguridad, inteligencia de amenazas, legales, de ingeniería y de políticas".

La amenaza de la desinformación en la política no es nueva, pero la llegada de la tecnología de inteligencia artificial presenta desafíos sin precedentes. Al reconocer esto, OpenAI está tomando medidas proactivas. La empresa planea emplear una combinación de técnicas como equipos rojos, participación de los usuarios y barreras de seguridad. En concreto, su imagen herramienta de generación, DALL-E, se ha actualizado para evitar la creación de imágenes que representen a personas reales, incluidos candidatos políticos.

“DALL·E tiene barreras para rechazar solicitudes que soliciten la generación de imágenes de personas reales, incluidos los candidatos”.

OpenAI revisa continuamente sus políticas de usuario para mantenerse al día con el panorama cambiante de la tecnología de IA y su posible uso indebido. Sus políticas de seguridad actualizadas ahora restringen explícitamente el desarrollo de aplicaciones de IA para campañas políticas y lobby. Además, se han implementado medidas para evitar la creación de chatbots que imiten a personas u organizaciones reales.

Mejorar la transparencia y la rendición de cuentas

Un componente clave de la estrategia de OpenAI es la introducción de un clasificador de procedencia para su herramienta DALL-E. Esta función, actualmente en prueba beta, puede detectar imágenes generadas por DALL-E. La empresa tiene como objetivo hacer que esta herramienta sea accesible para periodistas, plataformas e investigadores para mejorar la transparencia en el contenido generado por IA.

"Planeamos ponerlo pronto a disposición de nuestro primer grupo de evaluadores, incluidos periodistas, plataformas e investigadores, para recibir comentarios".

OpenAI también está integrando informes de noticias en tiempo real en ChatGPT. Esta integración tiene como objetivo proporcionar a los usuarios información precisa y oportuna, mejorando la transparencia en torno a las fuentes de información proporcionadas por la IA.

En un esfuerzo conjunto con la Asociación Nacional de Secretarios de Estado de EE. UU., OpenAI se centra en evitar que su tecnología desaliente la participación electoral. El trabajo en equipo implica dirigir a los usuarios de chatbots con tecnología GPT a sitios web confiables de información electoral como CanIVote.org.

Los rivales hacen lo mismo en la carrera de la IA

El anuncio de OpenAI ha sentado un precedente en la industria de la IA, con rivales como Google LLC y Meta Platforms Inc. también implementan medidas para combatir la información errónea difundida a través de sus tecnologías. Este esfuerzo colectivo de los líderes de la industria significa una creciente conciencia y responsabilidad hacia el impacto potencial de la IA en los procesos democráticos.

¿Pero es esto suficiente? Charles King, de Pund-IT Inc., plantea un punto crítico y cuestiona si estas medidas son oportunas o reactivas. Sostiene que las preocupaciones sobre la desinformación generada por la IA han existido durante años, y el reciente anuncio de OpenAI podría verse como demasiado poco y demasiado tarde. Esta perspectiva provoca una reflexión más profunda sobre el papel y la responsabilidad de los desarrolladores de IA en el panorama político.

“Entonces, en el mejor de los casos, este anuncio sugiere que OpenAI estaba dormido en el momento del cambio. Pero en el peor de los casos, se parece a un ritual de lavado de manos que OpenAI puede señalar cuando la IA generativa se ponga en marcha durante las próximas elecciones mundiales de este año”.

Sello de tiempo:

Mas de MetaNoticias