Los expertos advierten sobre la extinción de la IA si no se toman medidas ahora

Los expertos advierten sobre la extinción de la IA si no se toman medidas ahora

Nodo de origen: 2688105

Hay otra carta abierta apocalíptico sobre AI haciendo las rondas. Esta vez, una amplia franja de líderes tecnológicos, luminarias de ML e incluso algunas celebridades se han registrado para instar al mundo a tomar más en serio las supuestas amenazas de nivel de extinción que plantea la inteligencia artificial. 

Más acertadamente una declaración, el mensaje del Centro para la Seguridad de la IA (CAIS) firmado por personas como el pionero de la IA Geoffrey Hinton, el director ejecutivo de OpenAI, Sam Altman, el gurú del cifrado Martin Hellman, el director de tecnología de Microsoft, Kevin Scott, y otros es un oración declarativa única prediciendo el apocalipsis si pasa desapercibido:

“Mitigar el riesgo de extinción de la IA debería ser una prioridad mundial junto con otros riesgos a escala social, como las pandemias y la guerra nuclear”. 

¿Por qué tan breve? El objetivo era “demostrar la amplia y creciente coalición de científicos, líderes tecnológicos y profesores de IA que están preocupados por los riesgos de extinción de la IA. Necesitamos un reconocimiento generalizado de lo que está en juego para que podamos tener debates útiles sobre políticas”, dijo el director de CAIS, Dan Hendrycks. El registro.

CAIS no menciona la inteligencia artificial general (AGI) en su lista de riesgos de IA, Nosotros notamos. Y los modelos de la generación actual, como ChatGPT, no son una amenaza apocalíptica para la humanidad, nos dijo Hendrycks. La advertencia de esta semana es sobre lo que puede venir después.

“Los tipos de amenazas catastróficas a las que se refiere esta declaración están asociadas con futuros sistemas avanzados de IA”, opinó Hendrycks. Agregó que los avances necesarios para alcanzar el nivel de "amenaza apocalíptica" pueden tardar entre dos y diez años, no varias décadas. “Tenemos que prepararnos ahora. Sin embargo, los sistemas de IA que podrían causar resultados catastróficos no necesitan ser AGI”, dijo. 

Porque los humanos son perfectamente pacíficos de todos modos.

Uno de tales amenaza es el uso de armas, o la idea de que alguien podría reutilizar la IA benévola para que sea altamente destructiva, como usar un bot de descubrimiento de drogas para desarrollar armas químicas o biológicas, o usar el aprendizaje de refuerzo para el combate basado en máquinas. Dicho esto, los humanos ya son bastante capaces de fabricar ese tipo de armas, que pueden acabar con una persona, un vecindario, una ciudad o un país.

La IA también podría ser entrenada para perseguir sus objetivos sin tener en cuenta los valores individuales o sociales, se nos advierte. Podría "debilitar" a los humanos que terminan cediendo habilidades y destrezas a las máquinas automatizadas, provocando un desequilibrio de poder entre los controladores de la IA y los desplazados por la automatización, o utilizarse para difundir desinformación, de forma intencionada o no. de otra manera.

Nuevamente, ninguna de las IA involucradas en eso necesita ser general, y no es demasiado exagerado ver el potencial de la IA de la generación actual para evolucionar y plantear los tipos de riesgos que preocupan a CAIS. Es posible que tenga sus propias opiniones sobre cuán realmente destructivo o capaz podría ser o será el software, y qué podría lograr realmente.

Según el argumento de CAIS, es crucial examinar y abordar los impactos negativos de la IA que ya se están sintiendo, y convertir esos impactos existentes en previsión. “A medida que lidiamos con los riesgos inmediatos de la IA… la industria de la IA y los gobiernos de todo el mundo también deben enfrentar seriamente el riesgo de que las futuras IA puedan representar una amenaza para la existencia humana”, Hendrycks dijo en un comunicado.

“El mundo ha cooperado con éxito para mitigar los riesgos relacionados con la guerra nuclear. Se necesita el mismo nivel de esfuerzo para abordar los peligros que plantean los futuros sistemas de IA”, instó Hendrycks, con una lista de líderes corporativos, académicos y de opinión que lo respaldan. 

Musk no está a bordo

Otros signatarios incluyen al científico principal de Google DeepMind, Ian Goodfellow, los filósofos David Chalmers y Daniel Dennett, el autor y bloguero Sam Harris y el músico/ex de Elon Musk, Grimes. Hablando del hombre mismo, la firma de Musk está ausente. 

El CEO de Twitter fue entre los que firmaron un carta abierta publicado por el Future of Life Institute en marzo pasado instando a un pausa de seis meses sobre el entrenamiento de sistemas de IA “más potentes que GPT-4”. Como era de esperar, la firma del CEO de OpenAI, Altman, no estaba presente en esa carta en particular, aparentemente porque llamaba directamente a su compañía. 

OpenAI ha emitido desde entonces sus propias advertencias sobre las amenazas que plantea la IA avanzada y pidió el establecimiento de un organismo de control global similar a la Agencia Internacional de Energía Atómica para regular el uso de la IA.

Esa advertencia y llamada regulatoria, en un caso históricamente inoportuno, llegó el mismo día en que Altman amenazada para sacar OpenAI, y ChatGPT con él, de la UE sobre el bloque Ley de IA. Las reglas que apoya son una cosa, pero Altman le dijo a Bruselas que su idea de restricción de IA era un puente regulatorio demasiado lejano, muchas gracias. 

parlamentarios de la UE respondió al decir que OpenAI no los dictaría, y que si la empresa no puede cumplir con las reglas básicas de gobernanza y transparencia, "sus sistemas no son aptos para el mercado europeo", afirmó el eurodiputado holandés Kim van Sparrentak. 

Le hemos pedido a OpenAI que aclare la(s) posición(es) de Altman y actualizaremos esta historia si recibimos una respuesta. ®

Sello de tiempo:

Mas de El registro