Le drone n’a pas tué son opérateur humain lors d’une simulation

Publié

États-UnisLe drone n’a pas tué son opérateur humain lors d’une simulation

L’armée américaine a démenti la tenue d’un exercice virtuel au cours duquel un homme aurait été sacrifié par l’algorithme de la machine commandée par l’intelligence artificielle.

Y a-t-il un algorithme tueur dans l’avion?

Y a-t-il un algorithme tueur dans l’avion?

USAF

L’autonomie des drones dans le domaine militaire suscite de vives inquiétudes, des chercheurs estimant notamment que ce n’est pas aux algorithmes de décider de la vie ou de la mort de personnes. Mais une autre information tout aussi inquiétante avait récemment défrayé la chronique. Un colonel américain avait relaté le «sacrifice» d’un opérateur humain lors d’une simulation d’engagement de drones au combat. «Le système a commencé à se rendre compte que même s’il identifiait la menace, l’opérateur humain lui disait parfois de ne pas tuer cette menace. Alors qu'est-ce qu’il a fait? Il a tué l’opérateur! Il a tué l’opérateur parce que cette personne l’empêchait d’atteindre son objectif», avait déclaré le colonel Tucker «Cinco» Hamilton, chef des tests d’intelligence artificielle au sein de l’US Air Force,

Mais après le battage médiatique suscité par ses propos, le colonel Hamilton a finalement dû se rétracter. «Il semble que les commentaires du colonel ont été sortis de leur contexte et se voulaient anecdotiques», a tenté de justifier Ann Stefanek, porte-parole de l’armée de l’air américaine interrogée par Business Insider.

Le colonel avoue désormais «s’être mal exprimé» lors de sa présentation le mois passé à Londres sous l’égide de la Royal Aeronautical Society, un organe de promotion des activités aéronautiques et aérospatiales. La simulation de drone IA malveillant citée n’était «qu’une expérience de pensée hypothétique provenant de l’extérieur de l’armée, basée sur des scénarios plausibles et des résultats probables plutôt qu’une simulation réelle de l’armée de l’air américaine». Mais le colonel a quand même jugé bon d’ajouter qu’il n’y aurait pas besoin de faire cette expérience «pour [se] rendre compte qu’il s’agit d’un résultat plausible».

Le département de l’armée de l’air a encore réaffirmé n’avoir jamais procédé à de telles simulations et qu’il «reste attaché à une utilisation éthique et responsable de la technologie d’intelligence artificielle».

(laf)

Ton opinion

17 commentaires