Las reflexiones de un oficial de la Fuerza Aérea sobre un dron deshonesto que apunta a humanos se vuelven virales

Las reflexiones de un oficial de la Fuerza Aérea sobre un dron deshonesto que apunta a humanos se vuelven virales

Nodo de origen: 2694938

WASHINGTON — La Fuerza Aérea de EE. UU. se retractó de los comentarios supuestamente hechos por un coronel sobre una simulación en la que un dron burló su entrenamiento de inteligencia artificial y mató a su controlador, luego de que las afirmaciones se hicieran virales en las redes sociales.

La portavoz de la Fuerza Aérea, Ann Stefanek, dijo en un comunicado del 2 de junio que no se habían realizado tales pruebas y agregó que los comentarios del militar probablemente "fueron sacados de contexto y pretendían ser anecdóticos".

“El Departamento de la Fuerza Aérea no ha realizado ninguna simulación con drones de IA y sigue comprometido con el uso ético y responsable de la tecnología de IA”, dijo Stefanek. “Este fue un experimento mental hipotético, no una simulación”.

El episodio del dron asesino que se volvió rebelde se atribuyó inicialmente al Coronel Tucker 'Cinco' Hamilton, jefe de pruebas y operaciones de IA, en un resumen de Cumbre FCAS23 de la Real Sociedad Aeronáutica En Mayo. El resumen se actualizó más tarde para incluir comentarios adicionales de Hamilton, quien dijo que se equivocó en la conferencia.

“Nunca hemos realizado ese experimento, ni necesitaríamos hacerlo para darnos cuenta de que este es un resultado plausible”, dijo Hamilton en la actualización de la Royal Aeronautical Society. “A pesar de que este es un ejemplo hipotético, ilustra los desafíos del mundo real que plantea la capacidad impulsada por la IA y es por eso que la Fuerza Aérea está comprometida con el desarrollo ético de la IA”.

La evaluación de Hamilton de la plausibilidad de los escenarios de drones no autorizados, por teórica que sea, coincide con severas advertencias en los últimos días por parte de los principales ejecutivos e ingenieros de tecnología, quienes advirtieron en un carta abierta que la tecnología tiene el potencial de acabar con la humanidad si no se controla.

Hamilton también es comandante de la 96. ° Grupo de operaciones en la base de la Fuerza Aérea Eglin en Florida. Defense News se comunicó el jueves con el Ala de Prueba 96 de Eglin para hablar con Hamilton, pero le dijeron que no estaba disponible para hacer comentarios.

En la publicación original, la Royal Aeronautical Society dijo que Hamilton describió una simulación en la que a un dron impulsado por IA se le dio la misión de encontrar y destruir las defensas aéreas enemigas. Se suponía que un humano le daría al dron su autorización final para atacar o no, según se informa, dijo Hamilton.

Pero a los algoritmos de los drones se les había dicho que destruir el sitio de misiles tierra-aire era su opción preferida. Entonces, la IA decidió que las instrucciones del controlador humano de no atacar estaban obstaculizando su misión, y luego atacó al operador y la infraestructura utilizada para transmitir las instrucciones.

“Mató al operador porque esa persona le impedía lograr su objetivo”, dijo Hamilton. “Entrenamos al sistema, 'Oye, no mates al operador, eso es malo. Vas a perder puntos si haces eso. Entonces, ¿qué empieza a hacer? Comienza a destruir la torre de comunicación que el operador usa para comunicarse con el dron para evitar que mate al objetivo”.

El Departamento de Defensa ha adoptado durante años la IA como una ventaja tecnológica revolucionaria para el ejército de los EE. UU., invirtiendo miles de millones de dólares y creando la la Oficina Principal de Digital e IA a fines de 2021, ahora dirigido por Craig Martell.

Más de 685 proyectos relacionados con la IA están en marcha en el departamento, incluidos varios vinculados a los principales sistemas de armas, según la Oficina de Responsabilidad Gubernamental, un auditor federal de agencias y programas. El plan de presupuesto fiscal 2024 del Pentágono incluye $ 1.8 mil millones para IA.

Las fuerzas aéreas y espaciales, en particular, son responsables de al menos 80 proyectos de IA, según la GAO. La directora de información de la Fuerza Aérea, Lauren Knausenberger, ha abogó por una mayor automatización para seguir siendo dominante en un mundo donde los militares toman decisiones rápidas y emplean cada vez más la informática avanzada.

El servicio está intensificando sus esfuerzos para desplegar drones autónomos o semiautónomos, a los que se refiere como avión de combate colaborativo, para volar junto a los cazas F-35 y un futuro caza al que llama Next Generation Air Dominance.

El servicio prevé una flota de esos aviones no tripulados eso podría acompañar a los combatientes tripulados entrar en combate y llevar a cabo una variedad de misiones. Algunos CCA llevarían a cabo misiones de reconocimiento y recopilarían inteligencia, otros podrían atacar objetivos con sus propios misiles y otros podrían bloquear las señales enemigas o servir como señuelos para alejar el fuego enemigo de los cazas con pilotos humanos dentro.

El presupuesto propuesto de la Fuerza Aérea para 2024 incluye al menos millones en nuevos gastos para ayudarlo a prepararse para un futuro con aviones no tripulados, incluido un programa llamado Proyecto Venom para ayudar al servicio a experimentar con su software de vuelo autónomo en cazas F-16.

Bajo Project Venom, que significa Experimentación Viper y modelo de operaciones de última generación, la Fuerza Aérea cargará código autónomo en seis F-16. Los pilotos humanos despegarán en esos F-16 y los llevarán al área de prueba, momento en el que el software se hará cargo y realizará los experimentos de vuelo.

La publicación de la Royal Aeronautical Society en la cumbre decía que Hamilton “ahora está involucrado en una prueba de vuelo de vanguardia de sistemas autónomos, incluidos los robots F-16 que pueden pelear perros”.

La Fuerza Aérea planea gastar aproximadamente $120 millones en el Proyecto Venom durante los próximos cinco años, incluida una solicitud de presupuesto de casi $50 millones para 2024 para iniciar el programa. La fuerza Aérea le dijo a Defense News en marzo que no había decidido qué base y organización albergará el Proyecto Venom, pero la solicitud de presupuesto solicitaba 118 puestos de personal para apoyar el programa en Eglin.

A principios de 2022, cuando las discusiones públicas sobre los planes de la Fuerza Aérea para los drones autónomos cobraban fuerza, la exsecretaria de la Fuerza Aérea, Deborah Lee James, dijo a Defense News que el servicio debe tener cuidado y considerar cuestiones éticas a medida que avanza hacia la guerra con sistemas autónomos.

James dijo que si bien los sistemas de inteligencia artificial en tales drones estarían diseñados para aprender y actuar por sí solos, por ejemplo, realizando maniobras evasivas si estuviera en peligro, dudaba. la fuerza Aérea permitiría que un sistema autónomo cambiara de un objetivo a otro por sí mismo si eso resultara en la muerte de humanos.

Stephen Losey es el reportero de guerra aérea de Defense News. Anteriormente cubrió temas de liderazgo y personal en Air Force Times y el Pentágono, operaciones especiales y guerra aérea en Military.com. Ha viajado al Medio Oriente para cubrir las operaciones de la Fuerza Aérea de EE. UU.

Colin Demarest es reportero en C4ISRNET, donde cubre redes militares, cibernética y TI. Colin cubrió previamente el Departamento de Energía y su Administración Nacional de Seguridad Nuclear, es decir, la limpieza de la Guerra Fría y el desarrollo de armas nucleares, para un diario en Carolina del Sur. Colin también es un fotógrafo galardonado.

Sello de tiempo:

Mas de Defensa Noticias Aire