Luftforsvarets tjenestemenns tanker om useriøse drone rettet mot mennesker går viralt

Luftforsvarets tjenestemenns tanker om useriøse drone rettet mot mennesker går viralt

Kilde node: 2694938

WASHINGTON – Det amerikanske flyvåpenet gikk tilbake til kommentarer som angivelig ble gitt av en oberst angående en simulering der en drone overlistet sin kunstig intelligens-trening og drepte sin fører, etter at påstandene gikk viralt på sosiale medier.

Air Force spokesperson Ann Stefanek said in a June 2 statement no such testing had been conducted, adding that the servicemember’s comments ble sannsynligvis "tatt ut av kontekst og var ment å være anekdotisk."

"Avdelingen for luftvåpenet har ikke utført noen slike AI-dronesimuleringer og er fortsatt forpliktet til etisk og ansvarlig bruk av AI-teknologi," sa Stefanek. "Dette var et hypotetisk tankeeksperiment, ikke en simulering."

The killer-drone-gone-rogue episode was initially attributed to Col. Tucker ‘Cinco’ Hamilton, the chief of AI test and operations, in a recap from the Royal Aeronautical Society FCAS23 Summit i mai. Sammendraget ble senere oppdatert for å inkludere ytterligere kommentarer fra Hamilton, som sa at han snakket feil på konferansen.

"Vi har aldri kjørt det eksperimentet, og vi ville heller ikke trenge det for å innse at dette er et plausibelt utfall," sa Hamilton i oppdateringen til Royal Aeronautical Society. "Til tross for at dette er et hypotetisk eksempel, illustrerer dette de virkelige utfordringene som AI-drevet evne utgjør, og det er grunnen til at luftforsvaret er forpliktet til den etiske utviklingen av AI."

Hamilton’s assessment of the plausibility of rogue-drone scenarios, however theoretical, coincides with stark warnings in recent days by leading tech executives and engineers, who warned in an åpent brev at teknologien har potensial til å utslette menneskeheten hvis den ikke kontrolleres.

Hamilton er også sjef for 96th Operations Group ved Eglin Air Force Base in Florida. Defense News on Thursday reached out to Eglin’s 96th Test Wing to speak to Hamilton, but was told he is not available for comment.

I det opprinnelige innlegget sa Royal Aeronautical Society at Hamilton beskrev en simulering der en drone drevet av AI fikk et oppdrag for å finne og ødelegge fiendens luftforsvar. Et menneske skulle gi dronen sin endelige tillatelse til å slå til eller ikke, sa Hamilton.

But the drone algorithms had been told that destroying overflate-til-luft missilstedet var dets foretrukne alternativ. Så AI bestemte at den menneskelige kontrollørens instruksjoner om ikke å slå til sto i veien for oppdraget, og angrep deretter operatøren og infrastrukturen som ble brukt til å videresende instruksjoner.

"Den drepte operatøren fordi den personen hindret den i å nå målet," sa Hamilton. "Vi trente systemet, 'Hei, ikke drep operatøren, det er ille. Du kommer til å miste poeng hvis du gjør det. Så hva begynner det å gjøre? Det begynner å ødelegge kommunikasjonstårnet som operatøren bruker til å kommunisere med dronen for å stoppe den fra å drepe målet.»

Forsvarsdepartementet har i årevis omfavnet AI som en banebrytende teknologifordel for det amerikanske militæret, investert milliarder av dollar og skapt Chief Digital and AI Office på slutten av 2021, nå ledet av Craig Martell.

More than 685 AI-related projects are underway at the department, including several tied to major weapon systems, according to the Government Accountability Office, a federal auditor of agencies and programs. The Pentagon’s fiscal 2024 budget blueprint includes $1.8 billion for AI.

The Air and Space forces, in particular, are responsible for at least 80 AI endeavors, according to the GAO. Air Force Chief Information Officer Lauren Knausenberger has talte for større automatisering for å forbli dominerende i en verden der militære tar raske beslutninger og i økende grad bruker avansert databehandling.

The service is ramping up its efforts to field autonomous or semi-autonomous drones, which it refers to as samarbeidende kampfly, to fly alongside F-35 fighters and a future fighter it calls Next Generation Air Dominance.

Tjenesten ser for seg en flåte av de drone wingmen det ville accompany crewed fighters into combat and carry out a variety of missions. Some CCAs would conduct reconnaissance missions and gather intelligence, others could strike targets with their own missiles, and others could jam enemy signals or serve as decoys to lure enemy fire away from the fighters with human pilots inside.

The Air Force’s proposed budget for 2024 includes at least millions in new spending to help it prepare for a future with drone wingmen, including a program called Project Venom to help the service experiment with its autonomous flying software in F-16 fighters.

Under Project Venom, som står for Viper Experimentation og neste generasjons operasjonsmodell, vil luftforsvaret laste autonom kode inn i seks F-16. Menneskelige piloter vil ta av i disse F-16-ene og fly dem til testområdet, på hvilket tidspunkt programvaren vil ta over og gjennomføre de flygende eksperimentene.

Royal Aeronautical Societys innlegg på toppmøtet sa at Hamilton "nå er involvert i banebrytende flytesting av autonome systemer, inkludert robot F-16 som er i stand til å slåss."

The Air Force plans to spend roughly $120 million on Project Venom over the next five years, including a nearly $50 million budget request for 2024 to kick the program off. The Air Force sa til Defense News in March that it hadn’t decided which base and organization will host Project Venom, but the budget request asked for 118 staff positions to support the program at Eglin.

In early 2022, as public discussions about the Air Force’s plans for autonomous drone wingmen gathered steam, former Air Force Secretary Deborah Lee James told Defense News that the service needs to take caution and consider ethical questions as it moves towards conducting warfare with autonomous systems.

James said that while the AI systems in such drones would be designed to learn and act on their own, such as by taking evasive maneuvers if it were in danger, she doubted luftforsvaret would allow an autonomous system to shift from one target to another on its own if that would result in the deaths of humans.

Stephen Losey er luftkrigsreporter for Defense News. Han dekket tidligere leder- og personellspørsmål på Air Force Times, og Pentagon, spesielle operasjoner og luftkrigføring på Military.com. Han har reist til Midtøsten for å dekke US Air Force-operasjoner.

Colin Demarest er reporter ved C4ISRNET, hvor han dekker militære nettverk, cyber og IT. Colin har tidligere dekket Department of Energy og National Nuclear Security Administration - nemlig opprydding i den kalde krigen og utvikling av atomvåpen - for en dagsavis i South Carolina. Colin er også en prisvinnende fotograf.

Tidstempel:

Mer fra Defense News Air