Šef Pentagona AI išče 'upravičeno zaupanje', da bi tehnologijo vzel v boj

Šef Pentagona AI išče 'upravičeno zaupanje', da bi tehnologijo vzel v boj

Izvorno vozlišče: 2975340

Pentagonov glavni uradnik za digitalno in umetno inteligenco Craig Martell je dejal, da je zaskrbljen zaradi možnosti, da sistemi generativne umetne inteligence, kot je ChatGPT, zavajajo in sejejo dezinformacije. Njegov govor o tehnologiji na hekerski konvenciji DefCon avgusta je bil velika uspešnica. Toda glede zanesljive umetne inteligence je vse prej kot kisel.

Martell, ki ni vojak, temveč podatkovni znanstvenik, je vodil strojno učenje v podjetjih, vključno z LinkedInom, Dropboxom in Lyftom, preden je lani prevzel službo.

Zbiranje podatkov ameriške vojske in ugotavljanje, katera umetna inteligenca je dovolj zaupanja vredna, da jo lahko uporabimo v boju, je velik izziv v vse bolj nestabilnem svetu, kjer več držav tekmuje za razvoj smrtonosnega avtonomnega orožja.

Intervju je bil urejen zaradi dolžine in jasnosti.

-

V: Kaj je vaše glavno poslanstvo?

O: Naša naloga je povečati prednost odločanja iz sejne sobe na bojno polje. Ne vidim, da je naša naloga, da se lotimo nekaj posebnih nalog, ampak raje razvijemo orodja, procese, infrastrukturo in politike, ki oddelku kot celoti omogočajo povečanje.

V: Torej je cilj globalna informacijska prevlada? Kaj potrebujete za uspeh?

O: Končno smo prišli do bojevanja, osredotočenega na omrežje – kako spraviti prave podatke na pravo mesto ob pravem času. Obstaja hierarhija potreb: kakovostni podatki na dnu, analitika in meritve na sredini, AI na vrhu. Da bi to delovalo, so najpomembnejši visokokakovostni podatki.

V: Kako naj razmišljamo o uporabi AI v vojaških aplikacijah?

O: Umetna inteligenca pravzaprav šteje preteklost za napovedovanje prihodnosti. Pravzaprav ne verjamem, da je sodobni val AI nič drugačen.

Kitajska, Ukrajina

V: Ali Kitajska zmaguje v oboroževalni tekmi z umetno inteligenco?

O: Ta metafora se mi zdi nekoliko pomanjkljiva. Ko smo imeli jedrsko oboroževalno tekmo, je bila to z monolitno tehnologijo. AI ni to. Niti ni Pandorina skrinjica. To je nabor tehnologij, ki jih uporabljamo za vsak primer posebej in empirično preverjamo, ali je učinkovita ali ne.

V: Ameriška vojska uporablja tehnologijo umetne inteligence za pomoč Ukrajini. Kako pomagate?

O: Naša ekipa se ne ukvarja z Ukrajino, razen da pomaga zgraditi bazo podatkov o tem, kako zavezniki nudijo pomoč. Imenuje se Skyblue. Samo pomagamo zagotoviti, da ostane organizirano.

V: Veliko se razpravlja o avtonomnem smrtonosnem orožju – kot so napadalna brezpilotna letala. Soglasje je, da bodo ljudje na koncu zmanjšani na nadzorno vlogo – lahko bodo prekinili misije, vendar se večinoma ne bodo vmešavali. Zveni prav?

O: V vojski se usposabljamo s tehnologijo, dokler ne razvijemo upravičenega zaupanja. Zavedamo se omejitev sistema, vemo, kdaj deluje in kdaj morda ne. Kako se to preslika na avtonomne sisteme? Vzemi moj avto. Zaupam temu prilagodljivemu tempomatu. Tehnologija, ki naj bi preprečila menjavo voznega pasu, je po drugi strani grozljiva. Zato nimam upravičenega zaupanja v ta sistem in ga ne uporabljam. Ekstrapoliraj to na vojsko.

'Zvesti sopotnik'

V: Razvijajoči se program letalskih sil »zvesti vodja« bi brezpilotnim letalom omogočil letenje v tandemu z bojnimi letali, ki jih upravljajo ljudje. Je računalniški vid dovolj dober, da loči prijatelja od sovražnika?

O: Računalniški vid je v zadnjih 10 letih dosegel neverjeten napredek. Ali je to koristno v določeni situaciji, je empirično vprašanje. Določiti moramo natančnost, ki smo jo pripravljeni sprejeti za primer uporabe, in graditi glede na ta merila – in preizkusiti. Zato ne moremo posploševati. Res bi rad, da nehamo govoriti o tehnologiji kot o monolitu in raje govorimo o zmožnostih, ki jih želimo.

V: Trenutno preučujete generativni AI in modele velikih jezikov. Kdaj se lahko uporablja v ministrstvu za obrambo?

O: Komercialni modeli v velikih jezikih zagotovo niso prisiljeni povedati resnice, zato sem skeptičen. Ne glede na to prek Task Force Lima (ki je začela delovati avgusta) preučujemo več kot 160 primerov uporabe. Želimo se odločiti, kaj je nizko tveganje in varno. Tu ne postavljam uradne politike, ampak postavimo hipotezo.

Nizko tveganje je lahko nekaj podobnega ustvarjanju prvih osnutkov v pisni obliki ali računalniški kodi. V takih primerih bodo ljudje urejali ali v primeru programske opreme prevajali. Prav tako bi lahko delovalo za iskanje informacij - kjer je mogoče potrditi dejstva, da se zagotovi, da so pravilna.

V: Velik izziv pri umetni inteligenci je zaposlovanje in ohranjanje talentov, potrebnih za testiranje in ocenjevanje sistemov ter označevanje podatkov. Podatkovni znanstveniki z umetno inteligenco zaslužijo veliko več od tistega, kar Pentagon tradicionalno plačuje. Kako velik problem je to?

O: To je ogromna pločevinka črvov. Pravkar smo ustvarili digitalno pisarno za upravljanje talentov in močno razmišljamo o tem, kako zapolniti povsem nov nabor delovnih mest. Na primer, ali res moramo zaposlovati ljudi, ki želijo ostati na Ministrstvu za obrambo 20-30 let? Verjetno ne.

Kaj pa, če jih lahko dobimo za tri ali štiri? Kaj če bi plačali njihov kolidž in bi nam oni vrnili s tremi ali štirimi leti, nato pa bi s temi izkušnjami odšli in bi nas zaposlili v Silicijevi dolini? Ustvarjalno razmišljamo takole. Ali bi lahko bili na primer del cevovoda raznolikosti? Zaposlovanje na HBCU (zgodovinsko temnopoltih kolidžih in univerzah)?

Časovni žig:

Več od Pentagon obrambnih novic