Le riflessioni del funzionario dell'Air Force sul drone canaglia che prende di mira gli umani diventano virali

Le riflessioni del funzionario dell'Air Force sul drone canaglia che prende di mira gli umani diventano virali

Nodo di origine: 2694938

WASHINGTON - L'aeronautica americana ha risposto ai commenti fatti da un colonnello in merito a una simulazione in cui un drone ha superato in astuzia il suo addestramento di intelligenza artificiale e ucciso il suo gestore, dopo che le affermazioni sono diventate virali sui social media.

Air Force spokesperson Ann Stefanek said in a June 2 statement no such testing had been conducted, adding that the servicemember’s comments erano probabilmente "presi fuori contesto e dovevano essere aneddotici".

"Il Dipartimento dell'Aeronautica Militare non ha condotto alcuna simulazione di tali droni AI e rimane impegnato nell'uso etico e responsabile della tecnologia AI", ha affermato Stefanek. "Questo era un ipotetico esperimento mentale, non una simulazione."

The killer-drone-gone-rogue episode was initially attributed to Col. Tucker ‘Cinco’ Hamilton, the chief of AI test and operations, in a recap from the Royal Aeronautical Society FCAS23 Summit a maggio. Il sommario è stato successivamente aggiornato per includere ulteriori commenti di Hamilton, che ha affermato di aver parlato male alla conferenza.

"Non abbiamo mai eseguito quell'esperimento, né ne avremmo bisogno per renderci conto che si tratta di un risultato plausibile", ha detto Hamilton nell'aggiornamento della Royal Aeronautical Society. "Nonostante questo sia un esempio ipotetico, questo illustra le sfide del mondo reale poste dalle capacità basate sull'IA ed è il motivo per cui l'Air Force è impegnata nello sviluppo etico dell'IA".

Hamilton’s assessment of the plausibility of rogue-drone scenarios, however theoretical, coincides with stark warnings in recent days by leading tech executives and engineers, who warned in an lettera aperta che la tecnologia ha il potenziale per spazzare via l'umanità se lasciata incontrollata.

Hamilton è anche comandante del 96° gruppo operativo presso la base aerea di Eglin in Florida. Defense News on Thursday reached out to Eglin’s 96th Test Wing to speak to Hamilton, but was told he is not available for comment.

Nel post originale, la Royal Aeronautical Society ha affermato che Hamilton ha descritto una simulazione in cui a un drone alimentato dall'intelligenza artificiale è stata assegnata una missione per trovare e distruggere le difese aeree nemiche. Un essere umano avrebbe dovuto dare al drone la sua autorizzazione finale per colpire o meno, secondo quanto riferito da Hamilton.

But the drone algorithms had been told that destroying il sito missilistico terra-aria era la sua opzione preferita. Quindi l'intelligenza artificiale ha deciso che le istruzioni del controllore umano di non colpire stavano intralciando la sua missione, quindi ha attaccato l'operatore e l'infrastruttura utilizzata per trasmettere le istruzioni.

"Ha ucciso l'operatore perché quella persona gli stava impedendo di raggiungere il suo obiettivo", avrebbe detto Hamilton. “Abbiamo addestrato il sistema, 'Ehi, non uccidere l'operatore, è male. Perderai punti se lo fai.' Quindi cosa inizia a fare? Comincia a distruggere la torre di comunicazione che l'operatore utilizza per comunicare con il drone per impedirgli di uccidere il bersaglio.

Il Dipartimento della Difesa ha abbracciato per anni l'intelligenza artificiale come vantaggio tecnologico rivoluzionario per l'esercito statunitense, investendo miliardi di dollari e creando il il capo ufficio digitale e intelligenza artificiale alla fine del 2021, ora guidato da Craig Martell.

More than 685 AI-related projects are underway at the department, including several tied to major weapon systems, according to the Government Accountability Office, a federal auditor of agencies and programs. The Pentagon’s fiscal 2024 budget blueprint includes $1.8 billion for AI.

The Air and Space forces, in particular, are responsible for at least 80 AI endeavors, according to the GAO. Air Force Chief Information Officer Lauren Knausenberger has auspicato una maggiore automazione per rimanere dominante in un mondo in cui i militari prendono decisioni rapide e impiegano sempre più computer avanzati.

The service is ramping up its efforts to field autonomous or semi-autonomous drones, which it refers to as aerei da combattimento collaborativi, to fly alongside F-35 fighters and a future fighter it calls Next Generation Air Dominance.

Il servizio prevede una flotta di quei gregari di droni che avrebbe accompany crewed fighters into combat and carry out a variety of missions. Some CCAs would conduct reconnaissance missions and gather intelligence, others could strike targets with their own missiles, and others could jam enemy signals or serve as decoys to lure enemy fire away from the fighters with human pilots inside.

The Air Force’s proposed budget for 2024 includes at least millions in new spending to help it prepare for a future with drone wingmen, including a program called Project Venom to help the service experiment with its autonomous flying software in F-16 fighters.

Sotto Project Venom, che sta per Sperimentazione Viper e modello operativo di nuova generazione, l'Air Force caricherà il codice autonomo in sei F-16. I piloti umani decolleranno su quegli F-16 e li porteranno nell'area di test, a quel punto il software prenderà il sopravvento e condurrà gli esperimenti di volo.

Il post della Royal Aeronautical Society sul vertice afferma che Hamilton "è ora coinvolto in test di volo all'avanguardia di sistemi autonomi, inclusi robot F-16 in grado di combattere".

The Air Force plans to spend roughly $120 million on Project Venom over the next five years, including a nearly $50 million budget request for 2024 to kick the program off. The Air Force ha detto a Defense News in March that it hadn’t decided which base and organization will host Project Venom, but the budget request asked for 118 staff positions to support the program at Eglin.

In early 2022, as public discussions about the Air Force’s plans for autonomous drone wingmen gathered steam, former Air Force Secretary Deborah Lee James told Defense News that the service needs to take caution and consider ethical questions as it moves towards conducting warfare with autonomous systems.

James said that while the AI systems in such drones would be designed to learn and act on their own, such as by taking evasive maneuvers if it were in danger, she doubted l'Air Force would allow an autonomous system to shift from one target to another on its own if that would result in the deaths of humans.

Stephen Losey è il giornalista di guerra aerea per Defense News. In precedenza si è occupato di questioni di leadership e personale presso l'Air Force Times e del Pentagono, operazioni speciali e guerra aerea su Military.com. Ha viaggiato in Medio Oriente per coprire le operazioni della US Air Force.

Colin Demarest è un giornalista di C4ISRNET, dove si occupa di reti militari, cyber e IT. Colin in precedenza si è occupato del Dipartimento dell'Energia e della sua Amministrazione nazionale per la sicurezza nucleare, ovvero la pulizia della Guerra Fredda e lo sviluppo di armi nucleari, per un quotidiano della Carolina del Sud. Colin è anche un fotografo pluripremiato.

Timestamp:

Di più da Notizie sulla difesa aerea