Intelligence artificielle

22 août 2019 03:09; Act: 22.08.2019 22:58 Print

Armes autonomes: géants de la tech dans le viseur

Le rôle d'Amazon, Microsoft et Intel est pointé du doigt dans le développement des armes autonomes grâce à l'intelligence artificielle.

storybild

Image d'illustration. (Photo: AFP)

Sur ce sujet
Une faute?

Les américains Amazon, Microsoft et Intel font partie des géants technologiques qui pourraient mener une gigantesque course aux armements dans le secteur de l'intelligence artificielle, selon un rapport d'une ONG sur les armes de destruction autonomes.

L'organisation néerlandaise PAX a sondé les principaux acteurs de ce secteur hautement stratégique et a classé 50 entreprises selon trois critères: développent-elles des technologies permettant de créer des «robots tueurs»? Travaillent-elles sur des projets militaires liés à ces technologies? Ont-elles promis de s'abstenir d'y contribuer dans le futur?

L'usage de l'intelligence artificielle pour permettre à des systèmes d'armement de choisir automatiquement et d'attaquer des cibles a provoqué d'importants débats éthiques au cours des dernières années. Pour certains critiques, on pourrait même assister à la troisième révolution de l'art de la guerre après les inventions de la poudre et de la bombe nucléaire.

«Armes hautement controversées»

«Pourquoi est-ce que les entreprises comme Microsoft et Amazon ne nient pas qu'elles sont actuellement en train de développer ces armes hautement controversées qui pourraient décider d'elles-mêmes de tuer, sans implication humaine?», demande Frank Slijper, principal auteur du rapport publié lundi.

Vingt-deux entreprises représentent une «inquiétude moyenne» pour les auteurs du rapport, dont l'analyse se porte sur 12 pays à travers le monde. Parmi elles, le japonais SoftBank, notamment connu pour son robot humanoïde Pepper.

La catégorie «haute inquiétude» compte 21 entreprises, dont Amazon et Microsoft, qui essaient tous les deux de passer un contrat avec le Pentagone pour fournir à l'armée américaine l'infrastructure de son «cloud» (service de stockage de données en ligne).

«Les armes autonomes deviendront inévitablement des armes de destruction massive», prédit à l'AFP Stuart Russell, professeur de sciences informatiques à l'université californienne de Berkeley. «Des travaux sont actuellement entrepris pour que tout ce qui constitue actuellement une arme - chars, avions de chasse, sous-marins - ait sa version autonome», ajoute-t-il.

Google bon élève

Google et six autres entreprises sont dans la catégorie «bonne pratique». L'année dernière, Google a renoncé à candidater pour le contrat du Pentagone sur le «cloud», car il pourrait être en contradiction avec ses «principes» en matière d'intelligence artificielle.

Le géant californien avait expliqué ne pas vouloir s'impliquer dans des «technologies qui sont ou pourraient être nocives» et «des armes ou d'autres technologies dont le but principal ou la mise en oeuvre causeraient ou faciliteraient l'atteinte physique aux personnes».

Pas de consensus

Mardi, aux Nations unies à Genève, un panel d'experts gouvernementaux a débattu des options politiques pour encadrer les armes autonomes, même s'il s'est avéré jusqu'ici très difficile de parvenir à un consensus autour de cette question.

Selon le rapport de l'ONG PAX, des employés de Microsoft ont également signalé leur opposition à un contrat avec l'armée américaine concernant des lunettes de réalité augmentée HoloLens destinées à l'entraînement et au combat.

Beaucoup d'inquiétudes entourent également le futur de l'armement autonome, des armes qui n'ont pas encore été inventées mais sont présentées dans certains films de science-fiction, comme les mini-drones.

Règles éthiques

«Avec ce genre d'armes, vous pourriez en envoyer un million dans un container ou un avion-cargo et elles auraient la capacité destructrice d'une bombe nucléaire, mais laisseraient tous les immeubles intacts derrière elles», notamment grâce à la reconnaissance faciale, explique Stuart Russell.

En avril, la Commission européenne a proposé une série de règles éthiques pour le secteur de l'intelligence artificielle. La liste de propositions fournie rappelait le besoin de placer «l'humain» au coeur des technologies liées à l'IA et la nécessité de favoriser la «non-discrimination», ainsi que le «bien-être de la société et l'environnement».

Pour Stuart Russell, la prochaine étape est une interdiction internationale des intelligences artificielles tueuses. «Les machines qui peuvent décider de tuer des humains ne doivent pas être développées, déployées ou utilisées», résume-t-il.

(nxp/afp)

L'espace commentaires a été désactivé
L'espace commentaires des articles de plus de 72 heures est automatiquement désactivé en raison du très grand nombre de messages que nous devons valider sur des sujets plus récents. Merci de votre compréhension.

Les commentaires les plus populaires

  • Atak le 22.08.2019 11:01 via via Mobile Report dénoncer ce commentaire

    C'est génial!

    Comment dépeupler la planète, faire des génocides, des pogroms sans risquer un Nuremberg, il y aurait juste eu un bug.

  • globale le 22.08.2019 08:05 Report dénoncer ce commentaire

    extermination

    c'est déjà trop tard, il fallait la tuer dans l'oeuf. mais voilà, l'être humain n'a pas de limites, il aime jouer avec le feu. et toutes ces fourmis qui sont aveuglées par la technologie sans comprendre comment elle marche, achétent, consomment, sans se soucier de son but ultime...

  • Sand Man le 22.08.2019 08:21 via via Mobile Report dénoncer ce commentaire

    Dormez !!!!!! Dormez !!!!! Dormez !!!!

    Voilà voilà ceci explique cela ! Et nous les moutons approuvons sans aucun sens critique.

Les derniers commentaires

  • Cortana Home Assistant le 23.08.2019 11:51 Report dénoncer ce commentaire

    au bonheur des dames

    Microsoft a écouté des conversations via la Xbox? Le même Microsoft espionne toujours via son Cortana Home Assistant. Tout comme votre cireur de chaussures, vos démarcheurs en tous genres enregistrent chaque appel parce qu'ils vous aiment.

  • Bachi-bouzouk le 23.08.2019 08:47 via via Mobile Report dénoncer ce commentaire

    Arrêter d'acheter avec ces boites

    Vous crée votre propre perte. Y'a un tas d'autres site où vous pouvez acheter des truc.

  • Zorgl le 23.08.2019 08:47 Report dénoncer ce commentaire

    Naïveté

    Les interdictions internationales, les USA, la Russie et surtout la Chine vont s' asseoir dessus. Que le Botswana ou la Suisse signent ce genre de traité n' a aucune importance. L' AI en Europe c' est déjà perdu, c' est fini, classé. Trop de retard. La bataille se fera entre les USA et la Chine. Même la Russie a trop de retard.

  • Patrick le 23.08.2019 07:38 via via Mobile Report dénoncer ce commentaire

    Impossible

    OK. On présente ici des risques de développement d'armes « physiques ». What about les armes numériques ? Nous ne le saurons jamais, mais Microsoft, Intel, Apple et les autres n'ont certainement qu'à lancer un script, sélectif ou pas, afin n'anéantir le business et les mémoires de quiconque. Faisons confiance au stockage dans le nuage, au tout numérique et connectons-nous n'importe et n'importe comment. Ainsi nous nous mettons royalement échec et mat. Et si votre disque dur ne s'allumait plus ce matin? Ou que le FBI saisisse les serveurs Microsoft? C'est naturellement impossible...

  • Calamine Lilou le 22.08.2019 20:56 via via Mobile Report dénoncer ce commentaire

    Technologie quand tu nous tiens ...

    Ça a toujours été ainsi et ce depuis la Nuit des Temps ! L'Homme s'autodétruit grâce ou à cause (c'est selon) des nouvelles Technologies qu'il avait lui-même étudiées et fabriquées , en pesant le pour et le contre , mais par ambition démesurée, il voudrait les mettre à exécution et tant pis pour les dégâts !!!