El Reino Unido responderá al libro blanco sobre IA con pruebas regulatorias

El Reino Unido responderá al libro blanco sobre IA con pruebas regulatorias

Nodo de origen: 3070094

El gobierno del Reino Unido publicará pruebas para nuevas leyes de IA, centrándose en la seguridad y el crecimiento de la industria. El Instituto de Seguridad de IA desempeñará un papel, con regulaciones activadas por riesgos de seguridad o incumplimiento por parte de empresas de IA como OpenAI y Google.

Las leyes están en consonancia con el enfoque del gobierno de resistirse a la creación de un régimen regulatorio más estricto para la tecnología de rápido desarrollo, según el Financial Times. En las próximas semanas, los ministros británicos publicarán los criterios, que indicarán las circunstancias bajo las cuales implementarían restricciones a los poderosos modelos de inteligencia artificial (IA) creados por Google, OpenAI y otras empresas.

La Gobierno del Reino Unido implementó un sistema para monitorear esto, que es el AI Safety Institute, un organismo compuesto por académicos y expertos en aprendizaje. Si el AI Safety Institute no logra identificar los riesgos relacionados con la tecnología, se activará una intervención. Otra prueba que puede desencadenar una legislación es si las empresas de IA no cumplen con los compromisos voluntarios para evitar daños.

El enfoque del gobierno del Reino Unido hacia la IA

Una declaración publicada por el gobierno confirma que el enfoque ligero del gobierno del Reino Unido para regular la IA se reflejará en la publicación de estas pruebas. Según el comunicado, tomarán acciones para mitigar riesgos y apoyar de manera segura y responsable Tecnología AI según sea necesario. La declaración continuó diciendo que mantendrían un enfoque pro-innovación en estrecha consulta con la sociedad civil y la industria.

En consecuencia, la filosofía se aplicará a las "pruebas" para aprobar la legislación sobre IA que propondrá el gobierno del Reino Unido con la condición de que cualquier nueva ley no perjudique la innovación sin causa.

Se entiende que las pruebas se publicarán como parte del proceso de consulta para el libro blanco sobre IA del gobierno, publicado en marzo de 2023.

El documento técnico no estuvo exento de críticas. Karen Yeung, profesora de la Universidad de Birmingham y candidata a doctorado Emma Ahmed-Rengers, dijo que el documento era una base inadecuada para una política sólida. Agregaron que el documento no puede servir como base de un marco regulatorio eficaz y legítimo en interés del público.

Sin embargo, otras personas señalaron que la regulación de la IA en el Reino Unido ha comenzado a ser asumida por los reguladores sectoriales. Esto incluye a Ofcom y la Oficina del Comisionado de Información, que han comenzado a realizar auditorías algorítmicas en sus áreas de jurisdicción.

El Reino Unido participa activamente en las normas de IA a nivel internacional

Las empresas de inteligencia artificial, incluidas OpenAI, Google, DeepMind, Microsoft y Meta, firmaron varias políticas voluntarias en noviembre. Están preocupados por la seguridad de sus productos como parte de la Cumbre global de seguridad de la IA organizada por el gobierno del Reino Unido.

Estas empresas acordaron permitir que Instituto de seguridad de IA del Reino Unido evaluar la seguridad de los modelos que fabrican productos como ChatGPT antes de que sean utilizados por empresas y consumidores.

En consecuencia, la evaluación de estos modelos está en marcha, pero aún no está claro cómo se llevarán a cabo. Además, no está claro si las empresas de IA proporcionarán un acceso completo. Según un funcionario del gobierno, actualmente tienen suerte porque dependen de la buena voluntad de ambas partes. El funcionario continuó diciendo que la evaluación de estos modelos depende del carácter y del director ejecutivo.

Sello de tiempo:

Mas de MetaNoticias