As reflexões do oficial da Força Aérea sobre drones desonestos visando humanos se tornam virais

As reflexões do oficial da Força Aérea sobre drones desonestos visando humanos se tornam virais

Nó Fonte: 2694938

WASHINGTON - A Força Aérea dos EUA voltou atrás nos comentários supostamente feitos por um coronel sobre uma simulação na qual um drone enganou seu treinamento de inteligência artificial e matou seu manipulador, depois que as alegações se tornaram virais nas mídias sociais.

Air Force spokesperson Ann Stefanek said in a June 2 statement no such testing had been conducted, adding that the servicemember’s comments provavelmente foram "tirados do contexto e deveriam ser anedóticos".

“O Departamento da Força Aérea não realizou nenhuma dessas simulações de drones de IA e continua comprometido com o uso ético e responsável da tecnologia de IA”, disse Stefanek. “Este foi um experimento de pensamento hipotético, não uma simulação.”

The killer-drone-gone-rogue episode was initially attributed to Col. Tucker ‘Cinco’ Hamilton, the chief of AI test and operations, in a recap from the Royal Aeronautical Society FCAS23 Summit em maio. O resumo foi atualizado posteriormente para incluir comentários adicionais de Hamilton, que disse ter se expressado mal na conferência.

“Nunca realizamos esse experimento, nem precisaríamos para perceber que este é um resultado plausível”, disse Hamilton na atualização da Royal Aeronautical Society. “Apesar de ser um exemplo hipotético, isso ilustra os desafios do mundo real impostos pela capacidade da IA ​​e é por isso que a Força Aérea está comprometida com o desenvolvimento ético da IA.”

Hamilton’s assessment of the plausibility of rogue-drone scenarios, however theoretical, coincides with stark warnings in recent days by leading tech executives and engineers, who warned in an carta aberta que a tecnologia tem o potencial de acabar com a humanidade se não for controlada.

Hamilton também é comandante do 96º Grupo de Operações na Base Aérea de Eglin in Florida. Defense News on Thursday reached out to Eglin’s 96th Test Wing to speak to Hamilton, but was told he is not available for comment.

No post original, a Royal Aeronautical Society disse que Hamilton descreveu uma simulação na qual um drone alimentado por IA recebeu a missão de encontrar e destruir as defesas aéreas inimigas. Um humano deveria dar ao drone sua autorização final para atacar ou não, disse Hamilton.

But the drone algorithms had been told that destroying o local do míssil terra-ar foi sua opção preferida. Assim, a IA decidiu que as instruções do controlador humano para não atacar estavam atrapalhando sua missão e, em seguida, atacou o operador e a infraestrutura usada para retransmitir as instruções.

“Ele matou o operador porque essa pessoa o impedia de atingir seu objetivo”, disse Hamilton. “Nós treinamos o sistema, 'Ei, não mate o operador, isso é ruim. Você vai perder pontos se fizer isso. Então, o que ele começa a fazer? Ele começa a destruir a torre de comunicação que o operador usa para se comunicar com o drone para impedi-lo de matar o alvo.”

O Departamento de Defesa há anos adota a IA como uma vantagem tecnológica revolucionária para as forças armadas dos EUA, investindo bilhões de dólares e criando o o Escritório Chefe de Digital e IA no final de 2021, agora liderado por Craig Martell.

More than 685 AI-related projects are underway at the department, including several tied to major weapon systems, according to the Government Accountability Office, a federal auditor of agencies and programs. The Pentagon’s fiscal 2024 budget blueprint includes $1.8 billion for AI.

The Air and Space forces, in particular, are responsible for at least 80 AI endeavors, according to the GAO. Air Force Chief Information Officer Lauren Knausenberger has defendeu uma maior automação para permanecer dominante em um mundo onde os militares tomam decisões rápidas e empregam cada vez mais a computação avançada.

The service is ramping up its efforts to field autonomous or semi-autonomous drones, which it refers to as aeronave de combate colaborativa, to fly alongside F-35 fighters and a future fighter it calls Next Generation Air Dominance.

O serviço prevê uma frota desses drones alas isso iria accompany crewed fighters into combat and carry out a variety of missions. Some CCAs would conduct reconnaissance missions and gather intelligence, others could strike targets with their own missiles, and others could jam enemy signals or serve as decoys to lure enemy fire away from the fighters with human pilots inside.

The Air Force’s proposed budget for 2024 includes at least millions in new spending to help it prepare for a future with drone wingmen, including a program called Project Venom to help the service experiment with its autonomous flying software in F-16 fighters.

Sob o Projeto Venom, que significa Experimentação do Viper e modelo de operações de última geração, a Força Aérea carregará código autônomo em seis F-16. Os pilotos humanos decolarão nesses F-16 e os levarão para a área de teste, momento em que o software assumirá e conduzirá os experimentos de voo.

O post da Royal Aeronautical Society na cúpula disse que Hamilton “agora está envolvido em testes de voo de ponta de sistemas autônomos, incluindo robôs F-16 capazes de combate aéreo”.

The Air Force plans to spend roughly $120 million on Project Venom over the next five years, including a nearly $50 million budget request for 2024 to kick the program off. The Air Force disse Defesa News in March that it hadn’t decided which base and organization will host Project Venom, but the budget request asked for 118 staff positions to support the program at Eglin.

In early 2022, as public discussions about the Air Force’s plans for autonomous drone wingmen gathered steam, former Air Force Secretary Deborah Lee James told Defense News that the service needs to take caution and consider ethical questions as it moves towards conducting warfare with autonomous systems.

James said that while the AI systems in such drones would be designed to learn and act on their own, such as by taking evasive maneuvers if it were in danger, she doubted a força Aérea would allow an autonomous system to shift from one target to another on its own if that would result in the deaths of humans.

Stephen Losey é o repórter de guerra aérea do Defense News. Anteriormente, ele cobriu questões de liderança e pessoal no Air Force Times e no Pentágono, operações especiais e guerra aérea no Military.com. Ele viajou para o Oriente Médio para cobrir as operações da Força Aérea dos EUA.

Colin Demarest é repórter do C4ISRNET, onde cobre redes militares, cibernéticas e TI. Colin cobriu anteriormente o Departamento de Energia e sua Administração Nacional de Segurança Nuclear – ou seja, limpeza da Guerra Fria e desenvolvimento de armas nucleares – para um jornal diário na Carolina do Sul. Colin também é um fotógrafo premiado.

Carimbo de hora:

Mais de Notícias de Defesa Aérea