Die Überlegungen eines Air-Force-Beamten über abtrünnige Drohnen, die auf Menschen abzielen, gehen viral

Die Überlegungen eines Air-Force-Beamten über abtrünnige Drohnen, die auf Menschen abzielen, gehen viral

Quellknoten: 2694938

WASHINGTON – Die US-Luftwaffe hat Kommentare eines Obersten zu einer Simulation, bei der eine Drohne ihr Training mit künstlicher Intelligenz überlistete und ihren Fluglotsen tötete, zurückgenommen, nachdem die Behauptungen in den sozialen Medien viral gegangen waren.

Air Force spokesperson Ann Stefanek said in a June 2 statement no such testing had been conducted, adding that the servicemember’s comments wurden wahrscheinlich „aus dem Zusammenhang gerissen und waren als Anekdote gedacht“.

„Das Department of the Air Force hat keine derartigen KI-Drohnensimulationen durchgeführt und setzt sich weiterhin für einen ethischen und verantwortungsvollen Einsatz der KI-Technologie ein“, sagte Stefanek. „Dies war ein hypothetisches Gedankenexperiment, keine Simulation.“

The killer-drone-gone-rogue episode was initially attributed to Col. Tucker ‘Cinco’ Hamilton, the chief of AI test and operations, in a recap from the Royal Aeronautical Society FCAS23 Summit im Mai. Die Zusammenfassung wurde später aktualisiert, um zusätzliche Kommentare von Hamilton aufzunehmen, der sagte, er habe sich auf der Konferenz falsch ausgedrückt.

„Wir haben dieses Experiment noch nie durchgeführt und müssten es auch nicht tun, um zu erkennen, dass dies ein plausibles Ergebnis ist“, wurde Hamilton im Update der Royal Aeronautical Society zitiert. „Obwohl es sich hierbei um ein hypothetisches Beispiel handelt, verdeutlicht dies die realen Herausforderungen, die KI-gestützte Fähigkeiten mit sich bringen, und ist der Grund, warum sich die Luftwaffe für die ethische Entwicklung von KI einsetzt.“

Hamilton’s assessment of the plausibility of rogue-drone scenarios, however theoretical, coincides with stark warnings in recent days by leading tech executives and engineers, who warned in an offenen Brief dass die Technologie das Potenzial hat, die Menschheit auszulöschen, wenn sie nicht kontrolliert wird.

Hamilton ist auch Kommandant der 96. Operationsgruppe auf der Eglin Air Force Base in Florida. Defense News on Thursday reached out to Eglin’s 96th Test Wing to speak to Hamilton, but was told he is not available for comment.

In dem ursprünglichen Beitrag sagte die Royal Aeronautical Society, Hamilton beschreibe eine Simulation, in der eine mit KI betriebene Drohne den Auftrag erhielt, feindliche Luftverteidigungen zu finden und zu zerstören. Berichten zufolge sollte ein Mensch der Drohne die endgültige Genehmigung zum Angriff geben oder nicht, sagte Hamilton.

But the drone algorithms had been told that destroying der Boden-Luft-Raketenstandort war seine bevorzugte Option. Daher kam die KI zu dem Schluss, dass die Anweisungen des menschlichen Controllers, nicht zuzuschlagen, ihrer Mission im Wege standen, und griffen dann den Bediener und die Infrastruktur an, die zur Weiterleitung der Anweisungen verwendet wurde.

„Es hat den Betreiber getötet, weil diese Person es daran gehindert hat, sein Ziel zu erreichen“, wurde Hamilton zitiert. „Wir haben das System trainiert: ‚Hey, töte den Bediener nicht, das ist schlecht.‘ Wenn du das tust, verlierst du Punkte.“ Was fängt es also an? Es beginnt mit der Zerstörung des Kommunikationsturms, über den der Bediener mit der Drohne kommuniziert, um zu verhindern, dass sie das Ziel tötet.“

Das Verteidigungsministerium betrachtet KI seit Jahren als bahnbrechenden Technologievorteil für das US-Militär, investiert Milliarden von Dollar und entwickelt sie das Chief Digital and AI Office Ende 2021, jetzt geleitet von Craig Martell.

More than 685 AI-related projects are underway at the department, including several tied to major weapon systems, according to the Government Accountability Office, a federal auditor of agencies and programs. The Pentagon’s fiscal 2024 budget blueprint includes $1.8 billion for AI.

The Air and Space forces, in particular, are responsible for at least 80 AI endeavors, according to the GAO. Air Force Chief Information Officer Lauren Knausenberger has plädierte für eine stärkere Automatisierung um in einer Welt dominant zu bleiben, in der Militärs schnelle Entscheidungen treffen und zunehmend fortschrittliche Computer einsetzen.

The service is ramping up its efforts to field autonomous or semi-autonomous drones, which it refers to as kollaboratives Kampfflugzeug, to fly alongside F-35 fighters and a future fighter it calls Next Generation Air Dominance.

Der Dienst sieht vor eine Flotte dieser Drohnenflügelmänner das würde accompany crewed fighters into combat and carry out a variety of missions. Some CCAs would conduct reconnaissance missions and gather intelligence, others could strike targets with their own missiles, and others could jam enemy signals or serve as decoys to lure enemy fire away from the fighters with human pilots inside.

The Air Force’s proposed budget for 2024 includes at least millions in new spending to help it prepare for a future with drone wingmen, including a program called Project Venom to help the service experiment with its autonomous flying software in F-16 fighters.

Unter Project Venom steht das für Viper-Experimente und Betriebsmodell der nächsten Generation, wird die Luftwaffe autonomen Code in sechs F-16 laden. Menschliche Piloten werden mit diesen F-16 starten und sie zum Testgelände fliegen, wo die Software die Flugexperimente übernimmt und durchführt.

Im Beitrag der Royal Aeronautical Society zum Gipfel hieß es, Hamilton sei „jetzt an hochmodernen Flugtests autonomer Systeme beteiligt, darunter robotische F-16, die Luftkämpfe betreiben können.“

The Air Force plans to spend roughly $120 million on Project Venom over the next five years, including a nearly $50 million budget request for 2024 to kick the program off. The Air Force sagte Defense News in March that it hadn’t decided which base and organization will host Project Venom, but the budget request asked for 118 staff positions to support the program at Eglin.

In early 2022, as public discussions about the Air Force’s plans for autonomous drone wingmen gathered steam, former Air Force Secretary Deborah Lee James told Defense News that the service needs to take caution and consider ethical questions as it moves towards conducting warfare with autonomous systems.

James said that while the AI systems in such drones would be designed to learn and act on their own, such as by taking evasive maneuvers if it were in danger, she doubted die Luftwaffe would allow an autonomous system to shift from one target to another on its own if that would result in the deaths of humans.

Stephen Losey ist Luftkriegsreporter für Defense News. Zuvor berichtete er über Führungs- und Personalfragen bei Air Force Times und das Pentagon, Spezialoperationen und Luftkrieg bei Military.com. Er ist in den Nahen Osten gereist, um Operationen der US Air Force abzudecken.

Colin Demarest ist Reporter bei C4ISRNET, wo er über militärische Netzwerke, Cyber ​​und IT berichtet. Colin berichtete zuvor für eine Tageszeitung in South Carolina über das Energieministerium und seine National Nuclear Security Administration – insbesondere die Aufräumarbeiten im Kalten Krieg und die Entwicklung von Atomwaffen. Colin ist auch ein preisgekrönter Fotograf.

Zeitstempel:

Mehr von Verteidigungsnachrichten Air