Flyvevåbnets embedsmænds overvejelser om slyngeldroner rettet mod mennesker går viralt

Flyvevåbnets embedsmænds overvejelser om slyngeldroner rettet mod mennesker går viralt

Kildeknude: 2694938

WASHINGTON - Det amerikanske luftvåben gik tilbage til kommentarer, der angiveligt var fremsat af en oberst vedrørende en simulering, hvor en drone overlistede sin kunstige intelligens-træning og dræbte sin fører, efter at påstandene gik viralt på sociale medier.

Luftvåbnets talsmand Ann Stefanek sagde i en erklæring den 2. juni, at ingen sådan test var blevet udført, og tilføjede det servicemedlemmets kommentarer var sandsynligvis "taget ud af kontekst og var ment som anekdotisk."

"Luftvåbnets afdeling har ikke udført sådanne AI-dronesimuleringer og er fortsat forpligtet til etisk og ansvarlig brug af AI-teknologi," sagde Stefanek. "Dette var et hypotetisk tankeeksperiment, ikke en simulation."

Episoden med dræber-drone-borte-slyngel blev oprindeligt tilskrevet oberst Tucker 'Cinco' Hamilton, chefen for AI-test og operationer, i en opsummering fra Royal Aeronautical Society FCAS23 Summit i maj. Resuméet blev senere opdateret til at inkludere yderligere kommentarer fra Hamilton, som sagde, at han talte forkert på konferencen.

"Vi har aldrig kørt det eksperiment, og det ville vi heller ikke behøve for at indse, at dette er et plausibelt resultat," blev Hamilton citeret for at sige i Royal Aeronautical Societys opdatering. "På trods af at dette er et hypotetisk eksempel, illustrerer dette de virkelige udfordringer, som AI-drevet kapacitet udgør, og det er grunden til, at luftvåbnet er forpligtet til den etiske udvikling af AI."

Hamiltons vurdering af plausibiliteten af ​​slyngeldronescenarier, uanset hvor teoretiske de end er, falder sammen med skarpe advarsler i de seneste dage fra førende tech-chefer og ingeniører, som advarede i en åbent brev at teknologien har potentiale til at udslette menneskeheden, hvis den ikke bliver kontrolleret.

Hamilton er også kommandør for 96. operationsgruppe på Eglin Air Force Base i Florida. Defense News tog torsdag ud til Eglins 96. Test Wing for at tale med Hamilton, men fik at vide, at han ikke er tilgængelig for kommentarer.

I det oprindelige indlæg sagde Royal Aeronautical Society, at Hamilton beskrev en simulering, hvor en drone drevet af AI fik en mission for at finde og ødelægge fjendens luftforsvar. Et menneske skulle give dronen sin endelige tilladelse til at slå til eller ej, sagde Hamilton.

Men drone-algoritmerne havde fået at vide, at ødelægge overflade-til-luft missilstedet var dens foretrukne løsning. Så AI besluttede, at den menneskelige controllers instruktioner om ikke at slå til stod i vejen for dens mission, og angreb derefter operatøren og den infrastruktur, der blev brugt til at videresende instruktioner.

"Det dræbte operatøren, fordi denne person forhindrede den i at nå sit mål," sagde Hamilton. "Vi trænede systemet, 'Hey, dræb ikke operatøren, det er slemt. Du vil miste point, hvis du gør det.' Så hvad begynder det at gøre? Det begynder at ødelægge kommunikationstårnet, som operatøren bruger til at kommunikere med dronen for at forhindre den i at dræbe målet."

Forsvarsministeriet har i årevis taget kunstig intelligens til sig som en banebrydende teknologisk fordel for det amerikanske militær, investeret milliarder af dollars og skabt Chief Digital and AI Office i slutningen af ​​2021, nu ledet af Craig Martell.

Mere end 685 AI-relaterede projekter er i gang i afdelingen, herunder flere knyttet til større våbensystemer, ifølge Government Accountability Office, en føderal revisor af agenturer og programmer. Pentagons budgetplan for 2024 inkluderer $1.8 milliarder til kunstig intelligens.

Luft- og rumstyrkerne er især ansvarlige for mindst 80 AI-bestræbelser, ifølge GAO. Air Force Chief Information Officer Lauren Knausenberger har opfordret til større automatisering for at forblive dominerende i en verden, hvor militære træffer hurtige beslutninger og i stigende grad anvender avanceret databehandling.

Tjenesten øger sin indsats for at opstille autonome eller semi-autonome droner, som den refererer til som kollaborative kampfly, at flyve sammen med F-35 jagerfly og et fremtidigt jagerfly, det kalder Next Generation Air Dominance.

Tjenesten forestiller sig en flåde af de drone wingmen det ville ledsage besatte jagerfly ind i kamp og udføre en række forskellige missioner. Nogle CCA'er ville udføre rekognosceringsmissioner og indsamle efterretninger, andre kunne angribe mål med deres egne missiler, og andre kunne blokere fjendens signaler eller tjene som lokkefugle for at lokke fjendens ild væk fra jagerne med menneskelige piloter indeni.

Luftvåbnets foreslåede budget for 2024 inkluderer mindst millioner i nye udgifter til at hjælpe det med at forberede sig på en fremtid med drone-wingmen, herunder et program kaldet Project Venom til at hjælpe tjenesten med at eksperimentere med dets autonome flyvesoftware i F-16 kampfly.

Under Project Venom, som står for Viper Experimentation og Next-gen Operations Model, vil luftvåbnet indlæse autonom kode i seks F-16'er. Menneskelige piloter vil lette i disse F-16'ere og flyve dem til testområdet, hvorefter softwaren vil overtage og udføre de flyvende eksperimenter.

Royal Aeronautical Society's indlæg på topmødet sagde, at Hamilton "nu er involveret i banebrydende flyvetest af autonome systemer, herunder robot F-16'er, der er i stand til at slå i luften."

Luftvåbnet planlægger at bruge omkring 120 millioner dollars på Project Venom i løbet af de næste fem år, inklusive en budgetanmodning på næsten 50 millioner dollars for 2024 for at sætte programmet i gang. Flyvevåbnet fortalte Defence News i marts, at det ikke havde besluttet, hvilken base og organisation der skal være vært for Project Venom, men budgetanmodningen bad om 118 personalestillinger til at støtte programmet hos Eglin.

I begyndelsen af ​​2022, da offentlige diskussioner om luftvåbnets planer for autonome drone-wingmen samlede damp, fortalte den tidligere luftvåbenminister Deborah Lee James til Defence News, at tjenesten skal være forsigtig og overveje etiske spørgsmål, når den bevæger sig mod at føre krigsførelse med autonome systemer.

James sagde, at mens AI-systemerne i sådanne droner ville være designet til at lære og handle på egen hånd, såsom ved at tage undvigemanøvrer, hvis det var i fare, tvivlede hun på luftvåbenet ville tillade et autonomt system at skifte fra et mål til et andet alene, hvis det ville resultere i menneskers død.

Stephen Losey er luftkrigsreporter for Defense News. Han har tidligere dækket ledelses- og personalespørgsmål på Air Force Times og Pentagon, særlige operationer og luftkrigsførelse på Military.com. Han er rejst til Mellemøsten for at dække US Air Force-operationer.

Colin Demarest er reporter på C4ISRNET, hvor han dækker militære netværk, cyber og IT. Colin har tidligere dækket Department of Energy og dets nationale nuklearsikkerhedsadministration - nemlig oprydning fra den kolde krig og udvikling af atomvåben - for en daglig avis i South Carolina. Colin er også en prisvindende fotograf.

Tidsstempel:

Mere fra Defence News Air