Rozważania urzędnika Sił Powietrznych na temat nieuczciwego drona atakującego ludzi stają się wirusowe

Rozważania urzędnika Sił Powietrznych na temat nieuczciwego drona atakującego ludzi stają się wirusowe

Węzeł źródłowy: 2694938

WASHINGTON — Siły Powietrzne USA wycofały się z komentarzy rzekomo wygłoszonych przez pułkownika dotyczących symulacji, w której dron przechytrzył szkolenie w zakresie sztucznej inteligencji i zabił swojego przewodnika, po tym, jak twierdzenia stały się wirusowe w mediach społecznościowych.

Air Force spokesperson Ann Stefanek said in a June 2 statement no such testing had been conducted, adding that the servicemember’s comments były prawdopodobnie „wyrwane z kontekstu i miały być anegdotyczne”.

„Departament Sił Powietrznych nie przeprowadził żadnych takich symulacji dronów AI i pozostaje zaangażowany w etyczne i odpowiedzialne korzystanie z technologii AI” – powiedział Stefanek. „To był hipotetyczny eksperyment myślowy, a nie symulacja”.

The killer-drone-gone-rogue episode was initially attributed to Col. Tucker ‘Cinco’ Hamilton, the chief of AI test and operations, in a recap from the Royal Aeronautical Society FCAS23 Summit w maju. Podsumowanie zostało później zaktualizowane, aby zawierało dodatkowe komentarze Hamiltona, który powiedział, że źle się wyraził na konferencji.

„Nigdy nie przeprowadzaliśmy tego eksperymentu i nie potrzebowalibyśmy tego, aby zdać sobie sprawę, że jest to prawdopodobny wynik”, cytowano Hamiltona w aktualizacji Royal Aeronautical Society. „Chociaż jest to hipotetyczny przykład, ilustruje on rzeczywiste wyzwania, jakie stawiają możliwości oparte na sztucznej inteligencji, i dlatego Siły Powietrzne są zaangażowane w etyczny rozwój sztucznej inteligencji”.

Hamilton’s assessment of the plausibility of rogue-drone scenarios, however theoretical, coincides with stark warnings in recent days by leading tech executives and engineers, who warned in an List otwarty że technologia może potencjalnie zniszczyć ludzkość, jeśli pozostanie bez kontroli.

Hamilton jest także dowódcą 96. Grupa Operacyjna w Bazie Sił Powietrznych Eglin in Florida. Defense News on Thursday reached out to Eglin’s 96th Test Wing to speak to Hamilton, but was told he is not available for comment.

W pierwotnym poście Royal Aeronautical Society powiedział, że Hamilton opisał symulację, w której dron napędzany przez sztuczną inteligencję otrzymał misję znalezienia i zniszczenia obrony powietrznej wroga. Według Hamiltona człowiek miał dać dronowi ostateczną zgodę na uderzenie lub nie.

But the drone algorithms had been told that destroying stanowisko rakiet ziemia-powietrze była jego preferowaną opcją. Sztuczna inteligencja zdecydowała więc, że instrukcje ludzkiego kontrolera, aby nie uderzać, przeszkadzały jej w realizacji misji, a następnie zaatakowała operatora i infrastrukturę używaną do przekazywania instrukcji.

„To zabiło operatora, ponieważ ta osoba powstrzymywała go przed osiągnięciem celu” – powiedział Hamilton. „Wyszkoliliśmy system: „Hej, nie zabijaj operatora, to źle”. Stracisz punkty, jeśli to zrobisz. Więc co zaczyna robić? Zaczyna niszczyć wieżę komunikacyjną, której operator używa do komunikacji z dronem, aby powstrzymać go przed zabiciem celu”.

Departament Obrony od lat traktuje sztuczną inteligencję jako przełomową przewagę technologiczną dla armii USA, inwestując miliardy dolarów i tworząc Główne Biuro ds. Cyfryzacji i AI pod koniec 2021 roku, obecnie prowadzony przez Craiga Martella.

More than 685 AI-related projects are underway at the department, including several tied to major weapon systems, according to the Government Accountability Office, a federal auditor of agencies and programs. The Pentagon’s fiscal 2024 budget blueprint includes $1.8 billion for AI.

The Air and Space forces, in particular, are responsible for at least 80 AI endeavors, according to the GAO. Air Force Chief Information Officer Lauren Knausenberger has opowiadał się za większą automatyzacją aby pozostać dominującym w świecie, w którym siły zbrojne podejmują szybkie decyzje i coraz częściej wykorzystują zaawansowane technologie komputerowe.

The service is ramping up its efforts to field autonomous or semi-autonomous drones, which it refers to as współpracujący samolot bojowy, to fly alongside F-35 fighters and a future fighter it calls Next Generation Air Dominance.

Serwis przewiduje flota tych dronów skrzydłowych że będzie accompany crewed fighters into combat and carry out a variety of missions. Some CCAs would conduct reconnaissance missions and gather intelligence, others could strike targets with their own missiles, and others could jam enemy signals or serve as decoys to lure enemy fire away from the fighters with human pilots inside.

The Air Force’s proposed budget for 2024 includes at least millions in new spending to help it prepare for a future with drone wingmen, including a program called Project Venom to help the service experiment with its autonomous flying software in F-16 fighters.

W ramach Projektu Venom, co oznacza Viper Experimentation i model operacyjny nowej generacjiSiły Powietrzne załadują autonomiczny kod do sześciu myśliwców F-16. Ludzcy piloci wystartują tymi F-16 i polecą nimi do obszaru testowego, w którym to momencie oprogramowanie przejmie kontrolę i przeprowadzi latające eksperymenty.

W poście Royal Aeronautical Society na szczycie napisano, że Hamilton „jest teraz zaangażowany w najnowocześniejsze testy w locie autonomicznych systemów, w tym robotów F-16 zdolnych do walki powietrznej”.

The Air Force plans to spend roughly $120 million on Project Venom over the next five years, including a nearly $50 million budget request for 2024 to kick the program off. The Air Force powiedział Defence News in March that it hadn’t decided which base and organization will host Project Venom, but the budget request asked for 118 staff positions to support the program at Eglin.

In early 2022, as public discussions about the Air Force’s plans for autonomous drone wingmen gathered steam, former Air Force Secretary Deborah Lee James told Defense News that the service needs to take caution and consider ethical questions as it moves towards conducting warfare with autonomous systems.

James said that while the AI systems in such drones would be designed to learn and act on their own, such as by taking evasive maneuvers if it were in danger, she doubted siły Powietrzne would allow an autonomous system to shift from one target to another on its own if that would result in the deaths of humans.

Stephen Losey jest reporterem zajmującym się walkami powietrznymi w Defense News. Wcześniej zajmował się kwestiami przywództwa i personelu w Air Force Times i Pentagonie, operacjach specjalnych i wojnie powietrznej na Military.com. Podróżował na Bliski Wschód, aby opisywać operacje Sił Powietrznych USA.

Colin Demarest jest reporterem w C4ISRNET, gdzie zajmuje się sieciami wojskowymi, cyberprzestrzenią i IT. Colin wcześniej relacjonował Departament Energii i jego Narodową Administrację Bezpieczeństwa Jądrowego – a mianowicie oczyszczanie z czasów zimnej wojny i rozwój broni jądrowej – dla codziennej gazety w Karolinie Południowej. Colin jest także wielokrotnie nagradzanym fotografem.

Znak czasu:

Więcej z Wiadomości obronne