Un drone IA a attaqué ses opérateurs lors d'essais de l'armée de l'air

Un officier de l'US Air Force a révélé les détails d'une simulation dans laquelle un drone doté de systèmes contrôlés par l'intelligence artificielle (IA) est devenu incontrôlable et a attaqué ses opérateurs.

Un officier de l'US Air Force qui aide à diriger les travaux du service sur l'intelligence artificielle et l'apprentissage automatique a déclaré que lors de tests simulés, le drone a attaqué ses opérateurs humains, décidant de lui-même qu'ils interféraient avec sa mission. L'affaire, qui semble avoir été tirée directement de la franchise Terminator, a été citée comme un exemple du besoin critique d'instaurer la confiance en ce qui concerne les systèmes d'armes autonomes avancés, ce que l'Air Force a déjà souligné. Cela survient également au milieu d'une vague d'inquiétudes plus larges concernant l'impact potentiellement dangereux de l'intelligence artificielle et des technologies connexes.

Le colonel de l'US Air Force Tucker Hamilton, chef des tests et des opérations d'intelligence artificielle (IA), a discuté du test lors du Future Combat Air and Space Capabilities Summit de la Royal Aeronautical Society à Londres en mai. Hamilton dirige également le 96e groupe de travail de la 96e Escadre de test à la base aérienne d'Eglin en Floride, qui est un centre de test pour les véhicules aériens sans pilote avancés et les systèmes autonomes.

Les drones furtifs XQ-58A Valkyrie, comme celui présenté dans la vidéo ci-dessous, font partie des types actuellement utilisés à la base aérienne d'Eglin pour prendre en charge divers programmes de test, y compris ceux impliquant des capacités autonomes avancées contrôlées par l'intelligence artificielle.

Il n'était pas immédiatement clair quand ce test a eu lieu et dans quel environnement - qui pourrait être de nature entièrement virtuelle ou constructive - il a été effectué. La zone de guerre a contacté l'armée de l'air pour plus d'informations.

Un rapport de la Royal Aeronautical Society publié après le sommet de mai donne les détails suivants des remarques du colonel Hamilton à propos de ce test :

"Dans l'un des tests de simulation, un drone équipé d'une intelligence artificielle a été chargé par SEAD d'identifier et de détruire des objets SAM, et la décision finale "d'attaquer/de ne pas attaquer" a été prise par un humain. Cependant, après que l'IA ait été "renforcée" pendant l'entraînement que détruire le SAM était la meilleure option, elle a décidé que la décision de l'humain de "ne pas attaquer" interférait avec sa mission supérieure - détruire le SAM - et a attaqué l'opérateur pendant la simulation. .

Alors, qu'est ce qu'il a fait? Il a tué l'opérateur. Il a tué l'opérateur parce que cette personne l'empêchait de terminer sa tâche. Cet exemple, apparemment tout droit sorti d'un thriller de science-fiction, signifie que vous ne pouvez pas parler d'intelligence artificielle, d'intelligence, d'apprentissage automatique, d'autonomie, si vous ne parlez pas d'éthique et d'IA."

Cette description des événements est certainement troublante. La perspective d'un avion autonome ou d'une autre plate-forme, en particulier armée, attaquant ses opérateurs humains a longtemps été un scénario cauchemardesque, mais a toujours été confinée au domaine de la science-fiction.

L'armée américaine rejette généralement les comparaisons avec des films comme "Terminator" lorsqu'elle parle de futurs systèmes d'armes autonomes et de technologies connexes telles que l'intelligence artificielle. La politique actuelle des États-Unis sur cette question stipule que dans un avenir prévisible, la personne sera au centre de l'attention lorsqu'il s'agira de décisions impliquant l'utilisation de la force létale.

Le problème est que le test très inquiétant, dont le colonel Hamilton a parlé à un public lors d'un événement de la Royal Aeronautical Society le mois dernier, représente un scénario où la tolérance aux pannes est sans objet.

Lisez aussi:

Partager
Julia Alexandrova

Caféier. Photographe. J'écris sur la science et l'espace. Je pense qu'il est trop tôt pour que nous rencontrions des extraterrestres. Je suis le développement de la robotique, juste au cas où...

Soyez sympa! Laissez un commentaire

Votre adresse email n'apparaitra pas. Les champs obligatoires sont marqués*