Flygvapnets tjänstemäns funderingar om oseriösa drönare som riktar sig mot människor blir virala

Flygvapnets tjänstemäns funderingar om oseriösa drönare som riktar sig mot människor blir virala

Källnod: 2694938

WASHINGTON - Det amerikanska flygvapnet gick tillbaka kommentarer som enligt uppgift gjorts av en överste angående en simulering där en drönare överlistade sin artificiella intelligensträning och dödade sin förare, efter att påståendena blivit virala på sociala medier.

Flygvapnets talesperson Ann Stefanek sa i ett uttalande den 2 juni att inga sådana tester hade utförts och tillade att servicemedlemmens kommentarer var sannolikt "tagna ur sitt sammanhang och var menade att vara anekdotisk."

"Flygvapnets avdelning har inte genomfört några sådana simuleringar av AI-drönare och är fortfarande engagerade i etisk och ansvarsfull användning av AI-teknik," sa Stefanek. "Detta var ett hypotetiskt tankeexperiment, inte en simulering."

Episoden mördare-drönare-borta-skurk tillskrevs ursprungligen överste Tucker 'Cinco' Hamilton, chefen för AI-test och operationer, i en sammanfattning från Royal Aeronautical Society FCAS23 Summit i maj. Sammanfattningen uppdaterades senare för att inkludera ytterligare kommentarer från Hamilton, som sa att han talade fel på konferensen.

"Vi har aldrig kört det experimentet, och vi skulle inte heller behöva göra det för att inse att detta är ett rimligt resultat," citerade Hamilton för att säga i Royal Aeronautical Societys uppdatering. "Trots att detta är ett hypotetiskt exempel, illustrerar detta de verkliga utmaningarna som AI-driven förmåga utgör och är anledningen till att flygvapnet är engagerat i den etiska utvecklingen av AI."

Hamiltons bedömning av rimligheten i scenarier med skurk-drönare, hur teoretiska de än är, sammanfaller med skarpa varningar de senaste dagarna från ledande tekniska chefer och ingenjörer, som varnade i en öppet brev att tekniken har potential att utplåna mänskligheten om den lämnas okontrollerad.

Hamilton är också befälhavare för 96:e operationsgruppen vid Eglin Air Force Base I florida. Defense News på torsdagen nådde Eglins 96:e testvinge för att prata med Hamilton, men fick veta att han inte är tillgänglig för kommentar.

I det ursprungliga inlägget sa Royal Aeronautical Society att Hamilton beskrev en simulering där en drönare som drivs av AI fick ett uppdrag att hitta och förstöra fiendens luftförsvar. En människa var tänkt att ge drönaren sitt slutgiltiga tillstånd att slå till eller inte, sade Hamilton.

Men drönaralgoritmerna hade fått höra att förstöra plats-till-luft-missilen var dess föredragna alternativ. Så AI beslutade att den mänskliga kontrollantens instruktioner att inte slå till stod i vägen för dess uppdrag, och attackerade sedan operatören och infrastrukturen som användes för att vidarebefordra instruktioner.

"Det dödade operatören för att den personen hindrade den från att uppnå sitt mål", sa Hamilton. "Vi tränade systemet, 'Hej, döda inte operatören, det är dåligt. Du kommer att förlora poäng om du gör det. Så vad börjar det göra? Det börjar förstöra kommunikationstornet som operatören använder för att kommunicera med drönaren för att hindra den från att döda målet."

Försvarsdepartementet har i flera år anammat AI som en banbrytande teknisk fördel för den amerikanska militären, investerat miljarder dollar och skapat Chief Digital and AI Office i slutet av 2021, nu ledd av Craig Martell.

Mer än 685 AI-relaterade projekt pågår vid avdelningen, inklusive flera knutna till stora vapensystem, enligt Government Accountability Office, en federal revisor för byråer och program. Pentagons budgetplan för 2024 inkluderar 1.8 miljarder dollar för AI.

Flyg- och rymdstyrkorna, i synnerhet, är ansvariga för minst 80 AI-strävanden, enligt GAO. Flygvapnets informationschef Lauren Knausenberger har förespråkade större automatisering för att förbli dominerande i en värld där militärer fattar snabba beslut och i allt högre grad använder avancerad datoranvändning.

Tjänsten ökar sina ansträngningar för att ställa in autonoma eller semi-autonoma drönare, som den refererar till som samverkande stridsflygplan, att flyga tillsammans med F-35-jaktplan och ett framtida jaktplan som det kallar Next Generation Air Dominance.

Tjänsten föreställer sig en flotta av de där drönarvingarna det skulle följa med besättningsflygplan in i strid och utföra en mängd olika uppdrag. Vissa CCA:er skulle utföra spaningsuppdrag och samla in underrättelser, andra kunde träffa mål med sina egna missiler, och andra kunde störa fiendens signaler eller tjäna som lockbete för att locka bort fiendens eld från jaktplanen med mänskliga piloter inuti.

Flygvapnets föreslagna budget för 2024 inkluderar minst miljoner i nya utgifter för att hjälpa det att förbereda sig för en framtid med drönarvinge, inklusive ett program som heter Project Venom för att hjälpa tjänsteexperimentet med dess autonoma flygprogram i F-16-stridsflygplan.

Under Project Venom, som står för Viper Experimentation och nästa generations operationsmodell, kommer flygvapnet att ladda autonom kod i sex F-16. Mänskliga piloter kommer att lyfta i dessa F-16:or och flyga dem till testområdet, då programvaran kommer att ta över och genomföra de flygande experimenten.

Royal Aeronautical Societys inlägg på toppmötet sa att Hamilton "nu är involverad i banbrytande flygtest av autonoma system, inklusive robot F-16 som kan slåss mot luft."

Flygvapnet planerar att spendera ungefär 120 miljoner dollar på Project Venom under de kommande fem åren, inklusive en budgetförfrågan på nästan 50 miljoner dollar för 2024 för att starta programmet. Flygvapnet berättade för Defense News i mars att man inte hade bestämt vilken bas och organisation som ska vara värd för Project Venom, men budgetförfrågan bad om 118 anställda för att stödja programmet på Eglin.

I början av 2022, när de offentliga diskussionerna om flygvapnets planer för autonoma drönarvingar tog fart, sa tidigare flygvapnets sekreterare Deborah Lee James till Defense News att tjänsten måste vara försiktig och överväga etiska frågor när den går mot att föra krigföring med autonoma system.

James sa att även om AI-systemen i sådana drönare skulle vara designade för att lära sig och agera på egen hand, till exempel genom att göra undanmanövrar om det var i fara, tvivlade hon flygvapnet skulle tillåta ett autonomt system att skifta från ett mål till ett annat på egen hand om det skulle resultera i människors död.

Stephen Losey är luftkrigsreporter för Defense News. Han täckte tidigare ledarskaps- och personalfrågor på Air Force Times och Pentagon, specialoperationer och luftkrigföring på Military.com. Han har rest till Mellanöstern för att täcka USA:s flygvapenoperationer.

Colin Demarest är reporter på C4ISRNET, där han täcker militära nätverk, cyber och IT. Colin har tidigare bevakat Department of Energy och dess National Nuclear Security Administration - nämligen sanering från kalla kriget och utveckling av kärnvapen - för en dagstidning i South Carolina. Colin är också en prisbelönt fotograf.

Tidsstämpel:

Mer från Defense News Air