Los asesores del primer ministro indio dicen que la IA puede causar "esquizofrenia masiva"

Los asesores del primer ministro indio dicen que la IA puede causar "esquizofrenia masiva"

Nodo de origen: 3091579

El Consejo Asesor Económico del Primer Ministro de la India (EACPM) redactó un documento advirtiendo que las actuales regulaciones globales sobre IA probablemente sean ineficaces y recomendó regular la tecnología con tácticas alternativas, como las utilizadas en los mercados financieros.

El Consejo está muy preocupado por la IA. Su documento advierte: “A través de una combinación de vigilancia, mensajes persuasivos y generación de medios sintéticos, la IA malévola podría controlar cada vez más los ecosistemas de información e incluso fabricar realidades engañosas personalizadas para coaccionar el comportamiento humano, induciendo esquizofrenia masiva”.

La organización critica el enfoque de los EE. UU. hacia la IA por ser demasiado indiferente, el del Reino Unido por presentar riesgos al estar a favor de la innovación y el laissez-faire, y las normas de la UE sobre la IA por ser defectuosas debido a que los países miembros del bloque se dividen y adoptan diferentes énfasis y aplicaciones de medidas de ejecución.

El documento también sostiene que la tendencia de China a regular con “un sistema burocrático centralizado todopoderoso” es defectuosa, como lo demuestra “el probable origen de la COVID-19 en una fuga de laboratorio”.

Estamos a través del espejo aquí, gente.

(Para que conste, la Oficina del Director de Inteligencia Nacional de EE.UU. ha no encontré ninguna indicación que el virus se filtró de un laboratorio chino).

Pero nos estamos desviando.

El Consejo sugiere que la IA se considere un “sistema descentralizado y autoorganizado [que evoluciona] a través de ciclos de retroalimentación, transiciones de fase y sensibilidad a las condiciones iniciales” y propone otros ejemplos de tales sistemas, como entidades no lineales vistas en los mercados financieros, el comportamiento de las colonias de hormigas. o patrones de tráfico.

“Los métodos tradicionales se quedan cortos debido a la naturaleza impredecible y no lineal de la IA. Los sistemas de IA son similares a los Sistemas Adaptativos Complejos (CAS), donde los componentes interactúan y evolucionan de manera impredecible”. explicado [PDF] el consejo.

El Consejo no está dispuesto a depender de medidas "ex ante", ya que es imposible saber de antemano el riesgo que presentará un sistema de IA: su comportamiento es el resultado de demasiados factores.

Por tanto, el documento propone que India adopte cinco medidas regulatorias:

  • Colocación de barandillas y tabiques., que debería garantizar que las tecnologías de IA no excedan su función prevista ni invadan territorios peligrosos, como la toma de decisiones sobre armamento nuclear. Si de alguna manera rompen esa barandilla en un sistema, las particiones están ahí para garantizar que no se propague.
  • Garantizar anulaciones manuales y puntos de bloqueo de autorización que mantienen a los humanos en control y los mantienen seguros con autenticación multifactor y un proceso de revisión de múltiples niveles para los tomadores de decisiones humanos.
  • Transparencia y explicabilidad con medidas como licencias abiertas para algoritmos centrales para fomentar un entorno favorable a las auditorías, auditorías y evaluaciones periódicas y documentación de desarrollo estandarizada.
  • Responsabilidad distinta a través de protocolos de responsabilidad predefinidos, informes de incidentes estandarizados obligatorios y mecanismos de investigación.
  • Promulgar un organismo regulador especializadoque recibe un mandato amplio, adopta un enfoque basado en la retroalimentación, monitorea y rastrea el comportamiento del sistema de IA, integra sistemas de alerta automatizados y establece un registro nacional.

El Consejo recomendó buscar ideas en otros sistemas CAS sobre cómo implementar sus ideas, principalmente en los mercados financieros.

"Los conocimientos obtenidos de la gestión de sistemas caóticos como los mercados financieros demuestran enfoques de regulación viables para tecnologías complejas", observa el documento, sugiriendo que los reguladores dedicados a la IA podrían seguir el modelo de reguladores financieros como el SEBI de la India o la SEC de los EE.UU.

Así como esos organismos imponen suspensiones de operaciones cuando los mercados están en peligro, los reguladores podrían adoptar “puntos de estrangulamiento” similares en los que la IA sería controlada. La presentación de informes financieros obligatorios es un buen modelo para el tipo de divulgación que se podría exigir a los operadores de IA.

Las preocupaciones de los autores se ven alimentadas por la creencia de que la creciente ubicuidad de la IA (combinada con la opacidad de su funcionamiento) significa que la infraestructura crítica, las operaciones de defensa y muchos otros campos están en riesgo.

Entre los peligros que describen se encuentran la “IA desbocada”, donde los sistemas podrían automejorarse recursivamente más allá del control humano y “desalinearse con el bienestar humano”, y el efecto mariposa, un escenario “donde cambios menores pueden conducir a consecuencias significativas e imprevistas”.

“Por lo tanto, un sistema de control estatal opaco sobre algoritmos, conjuntos de entrenamiento y modelos con el objetivo de maximizar los intereses puede conducir a resultados catastróficos”, advirtió el Consejo.

El documento señala que las regulaciones propuestas pueden significar que es necesario descartar algunos escenarios.

“Es posible que nunca permitamos una Internet súper conectada para todo”, admite el Consejo. Pero concluye que la humanidad puede tener más que ganar con regulaciones estrictas.

“Aquellos que crean herramientas de IA no se dejarán llevar fácilmente por supuestas consecuencias no deseadas, insertando así una 'piel en el juego' ex ante. Los humanos conservarán poderes de anulación y autorización. Las auditorías periódicas obligatorias tendrán que hacer cumplir la explicabilidad”. ®

Sello de tiempo:

Mas de El registro