Pentagon AI-chef søger 'begrundet selvtillid' for at tage teknologien i kamp

Pentagon AI-chef søger 'begrundet selvtillid' for at tage teknologien i kamp

Kildeknude: 2975340

Pentagons chef for digital og kunstig intelligens, Craig Martell, sagde, at han er bekymret over potentialet for generative kunstige intelligenssystemer som ChatGPT til at bedrage og så desinformation. Hans foredrag om teknologien på DefCon hacker-konventet i august var et kæmpe hit. Men han er alt andet end sur på pålidelig AI.

Ikke en soldat, men en dataforsker, ledede Martell maskinlæring hos virksomheder, herunder LinkedIn, Dropbox og Lyft, før han tog jobbet sidste år.

At samle det amerikanske militærs data og afgøre, hvilken kunstig intelligens der er troværdig nok til at tage med i kampen, er en stor udfordring i en stadig mere ustabil verden, hvor flere lande kæmper for at udvikle dødelige autonome våben.

Interviewet er redigeret for længde og klarhed.

-

Q: Hvad er din vigtigste mission?

A: Vores opgave er at skalere beslutningsfordele fra bestyrelseslokalet til slagmarken. Jeg ser det ikke som vores opgave at løse nogle få bestemte missioner, men snarere at udvikle de værktøjer, processer, infrastruktur og politikker, der tillader afdelingen som helhed at skalere.

Q: Så målet er global informationsdominans? Hvad skal du bruge for at lykkes?

A: Vi kommer endelig til netværkscentreret krigsførelse - hvordan man får de rigtige data til det rigtige sted på det rigtige tidspunkt. Der er et behovshierarki: kvalitetsdata i bunden, analyser og målinger i midten, AI øverst. For at dette kan fungere, er det vigtigste data af høj kvalitet.

Q: Hvordan skal vi tænke på brug af kunstig intelligens i militære applikationer?

A: Alt hvad AI er, er i virkeligheden at tælle fortiden for at forudsige fremtiden. Jeg tror faktisk ikke, at den moderne bølge af kunstig intelligens er anderledes.

Kina, Ukraine

Q: Vinder Kina våbenkapløbet om kunstig intelligens?

A: Jeg finder den metafor noget mangelfuld. Da vi havde et atomvåbenkapløb, var det med en monolitisk teknologi. AI er ikke det. Det er heller ikke en Pandoras æske. Det er et sæt teknologier, vi anvender fra sag til base, og verificerer empirisk, om det er effektivt eller ej.

Q: Det amerikanske militær bruger kunstig intelligens til at hjælpe Ukraine. Hvordan hjælper du?

A: Vores team er ikke involveret i Ukraine udover at hjælpe med at opbygge en database for, hvordan allierede yder assistance. Den hedder Himmelblå. Vi hjælper bare med at sikre, at det forbliver organiseret.

Spørgsmål: Der er meget diskussion om autonome dødelige våben - som angrebsdroner. Konsensus er, at mennesker i sidste ende vil blive reduceret til en tilsynsrolle - at være i stand til at afbryde missioner, men for det meste ikke blande sig. Lyder det rigtigt?

A: I militæret træner vi med en teknologi, indtil vi udvikler en berettiget tillid. Vi forstår grænserne for et system, ved hvornår det virker, og hvornår det måske ikke. Hvordan knytter dette sig til autonome systemer? Tag min bil. Jeg stoler på den adaptive fartpilot på den. Teknologien, der skal holde den fra at skifte vognbane, er derimod forfærdelig. Så jeg har ikke berettiget tillid til det system og bruger det ikke. Ekstrapoler det til militæret.

'Loyal wingman'

Spørgsmål: Luftvåbnets "loyal wingman"-program under udvikling ville få droner til at flyve i tandem med jagerfly fløjet af mennesker. Er computersynet godt nok til at skelne ven fra fjende?

A: Computervision har gjort fantastiske fremskridt i de sidste 10 år. Om det er nyttigt i en bestemt situation er et empirisk spørgsmål. Vi er nødt til at bestemme den præcision, vi er villige til at acceptere for brugssagen, og bygge mod disse kriterier – og teste. Så vi kan ikke generalisere. Jeg ville rigtig gerne have, at vi holdt op med at tale om teknologien som en monolit og i stedet taler om de muligheder, vi ønsker.

Spørgsmål: Du studerer i øjeblikket generativ kunstig intelligens og modeller på store sprog. Hvornår kan det bruges i forsvarsministeriet?

A: De kommercielle storsprogede modeller er bestemt ikke begrænset til at fortælle sandheden, så jeg er skeptisk. Når det er sagt, gennem Task Force Lima (lanceret i august) studerer vi mere end 160 use cases. Vi ønsker at beslutte, hvad der er lavrisiko og sikkert. Jeg fastlægger ikke officiel politik her, men lad os opstille en hypotese.

Lavrisiko kunne være noget som at generere første udkast på skrift eller computerkode. I sådanne tilfælde vil mennesker redigere, eller i tilfælde af software, kompilere. Det kunne også potentielt fungere for informationssøgning - hvor fakta kan valideres for at sikre, at de er korrekte.

Spørgsmål: En stor udfordring med AI er at ansætte og fastholde det talent, der er nødvendigt for at teste og evaluere systemer og mærke data. AI-dataforskere tjener meget mere, end hvad Pentagon traditionelt har betalt. Hvor stort et problem er dette?

A: Det er en kæmpe dåse orme. Vi har netop oprettet et digitalt talent management-kontor og tænker hårdt på, hvordan vi kan udfylde et helt nyt sæt jobroller. Skal vi for eksempel virkelig ansætte folk, der ønsker at blive i forsvarsministeriet i 20-30 år? Sikkert ikke.

Men hvad hvis vi kan få dem for tre eller fire? Hvad hvis vi betalte for deres college, og de betaler os tilbage med tre eller fire år og så går afsted med den erfaring og bliver ansat af Silicon Valley? Vi tænker kreativt på denne måde. Kunne vi for eksempel være en del af en mangfoldighedspipeline? Rekruttere på HBCU'er (historisk sorte gymnasier og universiteter)?

Tidsstempel:

Mere fra Defense News Pentagon