Les réflexions d'un responsable de l'Air Force sur un drone voyou ciblant les humains deviennent virales

Les réflexions d'un responsable de l'Air Force sur un drone voyou ciblant les humains deviennent virales

Nœud source: 2694938

WASHINGTON – L'US Air Force est revenue sur les commentaires qui auraient été faits par un colonel concernant une simulation dans laquelle un drone a déjoué sa formation en intelligence artificielle et tué son maître, après que les affirmations soient devenues virales sur les réseaux sociaux.

La porte-parole de l'Air Force, Ann Stefanek, a déclaré dans un communiqué du 2 juin qu'aucun test de ce type n'avait été effectué, ajoutant que les commentaires du militaire étaient probablement « sortis de leur contexte et censés être anecdotiques ».

"Le département de l'armée de l'air n'a pas mené de telles simulations de drones IA et reste attaché à une utilisation éthique et responsable de la technologie IA", a déclaré Stefanek. "Il s'agissait d'une expérience de pensée hypothétique, pas d'une simulation."

L'épisode du drone tueur devenu voyou a été initialement attribué au colonel Tucker « Cinco » Hamilton, chef des tests et des opérations de l'IA, dans un récapitulatif de le sommet de la Royal Aeronautical Society FCAS23 en mai. Le résumé a ensuite été mis à jour pour inclure des commentaires supplémentaires de Hamilton, qui a déclaré s'être mal exprimé lors de la conférence.

"Nous n'avons jamais mené cette expérience, et nous n'en aurions pas besoin pour réaliser qu'il s'agit d'un résultat plausible", a déclaré Hamilton dans la mise à jour de la Royal Aeronautical Society. "Bien qu'il s'agisse d'un exemple hypothétique, cela illustre les défis du monde réel posés par les capacités alimentées par l'IA et c'est pourquoi l'Air Force s'est engagée dans le développement éthique de l'IA."

L'évaluation par Hamilton de la plausibilité des scénarios de drones malveillants, aussi théorique soit-elle, coïncide avec les sévères avertissements émis ces derniers jours par d'éminents dirigeants et ingénieurs du secteur technologique, qui ont mis en garde dans un communiqué. lettre ouverte que la technologie a le potentiel d'anéantir l'humanité si elle n'est pas contrôlée.

Hamilton est également commandant de la 96e groupe d'opérations à la base aérienne d'Eglin en Floride. Defence News a contacté jeudi la 96e Escadre d'essai d'Eglin pour parler à Hamilton, mais on lui a dit qu'il n'était pas disponible pour commenter.

Dans le message d'origine, la Royal Aeronautical Society a déclaré que Hamilton avait décrit une simulation dans laquelle un drone alimenté par l'IA s'était vu confier la mission de trouver et de détruire les défenses aériennes ennemies. Un humain était censé donner au drone son autorisation finale de frapper ou non, aurait déclaré Hamilton.

Mais les algorithmes des drones avaient été informés que détruire le site de missiles sol-air était son option préférée. L'IA a donc décidé que les instructions du contrôleur humain de ne pas frapper gênaient sa mission, puis a attaqué l'opérateur et l'infrastructure utilisée pour relayer les instructions.

"Cela a tué l'opérateur parce que cette personne l'empêchait d'atteindre son objectif", a déclaré Hamilton. "Nous avons formé le système, 'Hey ne tue pas l'opérateur, c'est mauvais. Tu vas perdre des points si tu fais ça. Alors qu'est-ce que ça commence à faire ? Il commence à détruire la tour de communication que l'opérateur utilise pour communiquer avec le drone pour l'empêcher de tuer la cible.

Le ministère de la Défense a adopté pendant des années l'IA comme un avantage technologique révolutionnaire pour l'armée américaine, investissant des milliards de dollars et créant le le Bureau principal du numérique et de l'IA fin 2021, désormais dirigé par Craig Martell.

Plus de 685 projets liés à l'IA sont en cours au ministère, dont plusieurs liés à des systèmes d'armes majeurs, selon le Government Accountability Office, un auditeur fédéral des agences et des programmes. Le plan budgétaire du Pentagone pour l'exercice 2024 prévoit 1.8 milliard de dollars pour l'IA.

Les forces aériennes et spatiales, en particulier, sont responsables d'au moins 80 projets d'IA, selon le GAO. Lauren Knausenberger, directrice de l'information de l'armée de l'air, a a plaidé pour une plus grande automatisation afin de rester dominant dans un monde où les militaires prennent des décisions rapides et utilisent de plus en plus l'informatique de pointe.

Le service intensifie ses efforts pour déployer des drones autonomes ou semi-autonomes, qu'il appelle avion de combat collaboratif, pour voler aux côtés des chasseurs F-35 et d’un futur chasseur qu’il appelle Next Generation Air Dominance.

Le service prévoit une flotte de ces ailiers de drones qui serait accompagner les combattants en équipage au combat et effectuer diverses missions. Certains CCA mèneraient des missions de reconnaissance et rassembleraient des renseignements, d'autres pourraient frapper des cibles avec leurs propres missiles, et d'autres encore pourraient brouiller les signaux ennemis ou servir de leurres pour détourner les tirs ennemis des chasseurs avec des pilotes humains à l'intérieur.

Le budget proposé par l'Air Force pour 2024 comprend au moins des millions de nouvelles dépenses pour l'aider à se préparer à un avenir avec des ailiers de drones, y compris un programme appelé Projet Venom pour aider le service à expérimenter son logiciel de vol autonome dans les chasseurs F-16.

Dans le cadre du projet Venom, qui signifie Expérimentation Viper et modèle d'opérations de nouvelle génération, l'Air Force chargera du code autonome dans six F-16. Des pilotes humains décolleront dans ces F-16 et les feront voler jusqu'à la zone de test, moment auquel le logiciel prendra le relais et mènera les expériences de vol.

Le message de la Royal Aeronautical Society sur le sommet a déclaré que Hamilton "est maintenant impliqué dans des tests en vol de pointe de systèmes autonomes, y compris des robots F-16 capables de se battre."

L'Air Force prévoit de dépenser environ 120 millions de dollars pour le projet Venom au cours des cinq prochaines années, y compris une demande de budget de près de 50 millions de dollars pour 2024 pour lancer le programme. La force aérienne dit Defence News en mars, il n'avait pas encore décidé quelle base et quelle organisation accueillerait le projet Venom, mais la demande de budget demandait 118 postes pour soutenir le programme à Eglin.

Début 2022, alors que les discussions publiques sur les projets de l'Air Force concernant les ailiers de drones autonomes prenaient de l'ampleur, l'ancienne secrétaire de l'Air Force, Deborah Lee James, a déclaré à Defense News que le service devait faire preuve de prudence et considérer les questions éthiques alors qu'il s'orientait vers une guerre avec des systèmes autonomes.

James a déclaré que même si les systèmes d'IA de ces drones seraient conçus pour apprendre et agir par eux-mêmes, par exemple en effectuant des manœuvres d'évitement s'ils étaient en danger, elle en doutait. la force aérienne permettrait à un système autonome de passer lui-même d’une cible à une autre si cela entraînait la mort d’humains.

Stephen Losey est le journaliste de guerre aérienne pour Defence News. Il a précédemment couvert les questions de leadership et de personnel à Air Force Times, et le Pentagone, les opérations spéciales et la guerre aérienne à Military.com. Il s'est rendu au Moyen-Orient pour couvrir les opérations de l'US Air Force.

Colin Demarest est reporter à C4ISRNET, où il couvre les réseaux militaires, le cyber et l'informatique. Colin a précédemment couvert le ministère de l'Énergie et sa National Nuclear Security Administration – à savoir le nettoyage de la guerre froide et le développement d'armes nucléaires – pour un quotidien de Caroline du Sud. Colin est également un photographe primé.

Horodatage:

Plus de Défense News Air