OpenAI pide una agencia global para regular la superinteligencia

OpenAI pide una agencia global para regular la superinteligencia

Nodo de origen: 2674707

Una agencia internacional debería estar a cargo de inspeccionar y auditar la inteligencia artificial general para garantizar que la tecnología sea segura para la humanidad, según los altos ejecutivos del fabricante de GPT-4, OpenAI.

El CEO Sam Altman y los cofundadores Greg Brockman e Ilya Sutskever dijeron que es "concebible" que la IA obtenga habilidades extraordinarias que superen a los humanos durante la próxima década.

“En términos de ventajas y desventajas potenciales, la superinteligencia será más poderosa que otras tecnologías con las que la humanidad ha tenido que lidiar en el pasado. Podemos tener un futuro dramáticamente más próspero; pero tenemos que gestionar el riesgo para llegar allí”, el trío escribí el martes.

Los costos de construir una tecnología tan poderosa solo están disminuyendo a medida que más personas trabajan para avanzar, argumentaron. Para controlar el progreso, el desarrollo debe ser supervisado por una organización internacional como la Agencia Internacional de Energía Atómica (OIEA).

El OIEA se estableció en 1957 durante una época en que los gobiernos temían que se desarrollaran armas nucleares durante la Guerra Fría. La agencia ayuda a regular la energía nuclear y establece salvaguardas para asegurarse de que la energía nuclear no se utilice con fines militares.

“Es probable que eventualmente necesitemos algo como un OIEA para los esfuerzos de superinteligencia; cualquier esfuerzo por encima de un cierto umbral de capacidad (o recursos como computación) deberá estar sujeto a una autoridad internacional que pueda inspeccionar sistemas, requerir auditorías, probar el cumplimiento de los estándares de seguridad, imponer restricciones en los grados de implementación y niveles de seguridad, etc. " ellos dijeron.

Dicho grupo estaría a cargo de rastrear el uso de cómputo y energía, recursos vitales necesarios para entrenar y ejecutar modelos grandes y poderosos.

“Podríamos acordar colectivamente que la tasa de crecimiento de la capacidad de IA en la frontera está limitada a una cierta tasa por año”, sugirió el alto mando de OpenAI. Las empresas tendrían que aceptar voluntariamente las inspecciones, y la agencia debería centrarse en "reducir el riesgo existencial", no en cuestiones reglamentarias definidas y establecidas por las leyes individuales de un país.

La semana pasada, Altman planteó la idea de que las empresas deberían obtener una licencia para construir modelos con capacidades avanzadas por encima de un umbral específico en un Senado. .. Su sugerencia fue criticada más tarde, ya que podría afectar injustamente los sistemas de inteligencia artificial creados por empresas más pequeñas o la comunidad de código abierto, que es menos probable que tenga los recursos para cumplir con los requisitos legales.

“Creemos que es importante permitir que las empresas y los proyectos de código abierto desarrollen modelos por debajo de un umbral de capacidad significativo, sin el tipo de regulación que describimos aquí (incluidos mecanismos onerosos como licencias o auditorías)”, dijeron.

Elon Musk a fines de marzo fue uno de los 1,000 firmantes de una carta abierta que pedía una pausa de seis meses en el desarrollo y entrenamiento de IA más poderosa que GPT4 debido a los riesgos potenciales para la humanidad, algo que Altman confirmado a mediados de abril lo estaba haciendo.

“Los poderosos sistemas de IA deben desarrollarse solo una vez que estemos seguros de que sus efectos serán positivos y sus riesgos serán manejables”, decía la carta.

El CEO de Alphabet y Google, Sundar Pichai, escribió un artículo en el Financial Times el fin de semana, decir: “Sigo creyendo que la IA es demasiado importante para no regularla, y demasiado importante para no regularla bien”. ®

Sello de tiempo:

Mas de El registro