Ces dernières années, on a beaucoup débattu des drones, en raison de leur utilisation massive et controversée par l'armée américaine en Irak et en Afghanistan. Mais cette polémique cache un phénomène beaucoup plus vaste : la montée en puissance de la robotique militaire, qui englobe à la fois des machines autonomes et d'autres commandées à distance. Son essor concerne tous les domaines. On y a déjà recours dans la logistique, les communications et l'entraînement, avec des effets attendus sur les effectifs et la productivité. L'introduction progressive de la robotique aura des conséquences sur la sécurité des troupes engagées et le combat sur le champ de bataille. Elle pose aussi des questions éthiques.

Cet article est le deuxième d’une série de sept consacrée à la robotique, série dont la publication s’étalera sur deux mois.

Aux Etats-Unis, le pays le plus en pointe pour la recherche sur les robots militaires, la raison le plus souvent invoquée pour le recours à ces machines est la nécessité de réduire la pénibilité et la dangerosité du travail militaire. La formule de la « guerre propre », lancée au début des années 1990, ne renvoie pas seulement à une guerre qui épargne les civils et plus généralement les vies humaines grâce à des « frappes chirurgicales ». Elle traduit aussi la réticence de plus en plus marquée des opinions publiques à engager la vie des soldats, ou plus généralement à mettre en danger leur intégrité physique et leur santé mentale (stress post-traumatique). Dans des conflits asymétriques menés contre des guérillas qui ne respectent pas le droit de la guerre, la question du traitement des prisonniers est, elle aussi, devenue très sensible.

C’est dans ce contexte que les robots prennent depuis une vingtaine d’années une place de plus en plus grande dans la doctrine et les opérations militaires, à telle enseigne que les industries de la défense ont contribué de façon significative à l’essor récent de la robotique civile.

Quand on parle de robotique militaire, on ne parle pas seulement de robotique au sens strict (des machines autonomes pilotées par des algorithmes) mais aussi d’engins commandés à distance. Les uns et les autres présentent de nombreux avantages sur le théâtre d’opérations. Leurs performances ne sont pas sensibles à la fatigue ou aux conditions (froid, pluie, obscurité), ils ne connaissent ni la distraction, ni la peur, et quand ils sont endommagés on peut les détruire sans états d’âme.

Mais c’est en termes de ressources humaines et de masse salariale que l’utilisation massive de la robotique militaire peut faire la différence. Les soldats coûtent cher, à la fois pendant et après leur service actif. En 2012, par exemple, la rémunération et la couverture sociale et médicale des militaires actifs ou à la retraite ont englouti un quart du budget américain de la Défense, soit près de 150 milliards de dollars. Une des raisons avouées de l’essor de la robotique militaire est la volonté de réduire les coûts de la Défense. Il s’agit de comprimer les effectifs de 60 000 hommes avant la fin 2015 puis à nouveau de 60 000 avant 2019, de manière à revenir à un total de 420 000.

Le Pentagone cherche donc à réduire la taille des « briques » opérationnelles de base, tout en préservant l’efficacité de l’ensemble. Début 2014, le général américain Robert Cole, responsable du commandement de l’entraînement et de la doctrine (Tradoc), expliquait qu’à l’horizon 2030-2040, la Brigade Combat Team (BCT), la plus petite des grandes unités pouvant être envoyée au combat de manière autonome, doit passer de 4000 à 3000 hommes. Cela passe par la restructuration de la plus petite unité utile, l’escouade (« squad ») de neuf hommes. Fondée sur cette escouade, la doctrine militaire repose en partie sur les véhicules qui peuvent la transporter. L’objectif de la Darpa (Defense Advanced Research Projects Agency), le grand laboratoire technologique du Pentagone, tient en quelques mots : inventer les robots permettant de réduire la taille de l’escouade et le coût de ses véhicules.

À chaque danger, son robot
Les robots sont présents dans les équipements militaires depuis longtemps par le truchement des ordinateurs de bord, qui sont devenus les partenaires indispensables des pilotes dans les avions de chasse. À terre, les robots ont vocation à occuper les fonctions ennuyeuses, sales ou dangereuses. Certains sont polyvalents, d’autres sont extrêmement spécialisés. À chaque danger, son robot.

La destruction des engins explosifs improvisés (IED en anglais) est ainsi l’une des missions où les robots sont aujourd’hui devenus indispensables. Cet essor a une histoire. Alors que la guerre d’Irak se déroulait essentiellement sur des routes où les véhicules étaient les cibles de prédilection, celle d’Afghanistan a confronté les troupes à pied à des IED fabriqués à leur intention. La progression de ces éléments était considérablement ralentie parce qu’il fallait les faire précéder de démineurs équipés de détecteurs de mines, obligés d’avancer très lentement. Les ingénieurs ont rapidement découvert que des pressions de 2,6 à 3,7 kg/cm2 suffisent à déclencher un IED, bien moins que les 6,2 kg/cm2 correspondant à un soldat équipé. Ils ont donc mis au point une sorte de mini-bulldozer animé par un kit de robotique sommaire. Depuis, différents robots démineurs ont été mis au point, souvent de tout petit format : Minirogen, celui de la société française ECA Robotics, ne pèse que 6 kg. Ses dimensions réduites lui permettent d’inspecter des endroits difficilement accessibles, tels des buses d’évacuation d’eau ou le dessous d’un véhicule.

minirogen
Minirogen

Les forces armées américaines possèdent 7000 drones et environ 5000 robots terrestres, dont le plus sophistiqué reste le « Packbot 510 » de la compagnie iRobot, capable de se redresser après une chute, de manœuvrer sur des terrains accidentés, de restaurer une liaison radio défectueuse et de transmettre des images HD. Pour alléger la logistique, les « robots-mules » sont capables de porter le matériel militaire et le ravitaillement. La société Boston Dynamics a mis au point une mule rapide et agile appelée « grand chien » (« big dog »), qui peut transporter 180 kg d’équipement sur 32 km en 24 heures. La DARPA travaille de son côté à un « chat sauvage » (« wildcat »), un nouveau robot autonome (contrairement à son prédécesseur) et équipé d’un moteur deux temps, couplé à une pompe hydraulique. Ce quadrupède de métal, qui n’est encore qu’un prototype, peut atteindre 26 km/h sur terrain plat. La DARPA a d’ailleurs lancé un concours, le « Robotics Challenge Trials », où les machines doivent tenter d’ouvrir une porte, éliminer un tas de gravats ou conduire une voiture.

irobot_packbot
Le PackBot d’iRobot

Le terme-clé de la robotique militaire est la notion de « soldat artificiel ». Une de ses branches est l’imbrication du corps humain et d’une machine, avec l’exosquelette – une combinaison high tech rendue célèbre par le film Iron Man – qui permettrait de démultiplier la vitesse, la puissance et la précision des fantassins sur le champ de bataille. Le XOS2, présenté en 2012, ne pèse que 10 kg et permet à un soldat de manœuvrer des charges de près de 100 kg !

L’autonomie, jusqu’où?
Les opportunités sont évidentes mais les défis sont considérables, notamment pour les machines les plus autonomes, celles qui sont pilotées par des algorithmes et non par un humain. Comme ce fut le cas pour les chaînes de montage de l’industrie, la difficulté est de fabriquer des robots capables de fonctionner au milieu des hommes sans nuire à leur efficacité ou à leur intégrité physique ou psychique. En outre, un flou juridique peut s’installer. Les actions d’un robot étant le reflet à la fois de son programmeur, de son constructeur et de son opérateur, à qui attribuer la responsabilité en cas de dysfonctionnement ?

Le recours aux machines semi-autonomes ou commandées à distances a en outre des conséquences psychologiques sur les personnels qui les utilisent et sur ceux qui les côtoient. L’expérience a montré que les techniciens qui pilotent les drones à distance subissaient des troubles liés à la déconnexion entre leur vie quotidienne et les décisions qu’ils prennent, aux conditions parfois létales à des milliers de kilomètres. Une étude conduite par Julie Carpenter, de l’université de Washington, a montré que sur le champ de bataille, la relation entre un soldat et un robot démineur est plus complexe que celle qui relie habituellement l’utilisateur et son instrument. Dans notre cas, l’utilisateur peut s’attacher au robot et ce lien affectif est de nature à affecter son efficacité.

Mais c’est avec les machines les plus autonomes que se posent les questions les plus graves. Avec les progrès de l’intelligence artificielle et la montée en puissance des machines apprenantes, la question se pose des limites qu’il faut fixer à l’autonomie des robots. Pour les robots militaires qui interviennent sur le champ de bataille, et tout particulièrement en milieu urbain (le plus dangereux pour les soldats), l’interrogation porte principalement sur la possibilité de déléguer à la machine la décision d’ouvrir le feu. Faut-il que l’homme continue de jouir d’un droit de véto, interrogent les faucons ? Un rapport récent de l’US Air Force note que « d’ici 2030, les capacités de la machine auront augmenté au point que les humains seront devenus le maillon le plus faible dans un large éventail de systèmes et de processus ».

Les robots quasi autonomes existent déjà. Le drone israélien Harpy vole de son propre chef jusqu’à une zone de patrouille, y circule jusqu’à ce qu’il détecte un signal radar ennemi, puis ouvre le feu pour détruire la source de ce signal. Les systèmes de défense antimissile, le Phalanx de la marine américaine ou le système israélien « Dôme de Fer », tirent automatiquement des missiles avec un délai qui ne laisse pratiquement aucune place pour une intervention humaine. De même, le système Samsung Techwin SGR-A1, qui remplace les soldats le long de la frontière entre les deux Corées, est un robot qui détecte l’entrée d’une personne dans son périmètre pertinent et lui demande un mot de passe. Théoriquement, le SGR-A1 peut être réglé pour tirer automatiquement.

Où fixer la limite ? Ron Arkin, roboticien et éthicien à Georgia Tech, qui a beaucoup collaboré avec des agences du Pentagone sur les différents systèmes de robotique, propose une charte éthique, un ensemble de règles constituant une forme de conscience artificielle, qui pourrait être programmée dans les machines afin d’assurer le respect du droit international humanitaire.

Une éthique robotique?
Pour les robots militaires, les notions de sécurité et de fiabilité ne sont pas dissociables de la capacité à sélectionner les cibles qui doivent être détruites. Ils doivent être programmés de manière à épargner les cibles « dignes de considération morale », ce qui englobe au minimum les militaires « amis », les civils et les adversaires hors de combat. On peut y ajouter les adversaires, tout court, dans la mesure où il est toujours préférable de désarmer un adversaire que de l’éliminer. Les robots doivent choisir parmi différents modes d’action et par conséquent être aptes aux jugements éthiques. C’est ce que les ingénieurs appellent un « agent moral artificiel ». L’enjeu dépend de la latitude du robot. Lorsque le robot évolue dans un contexte géographiquement très circonscrit, ses actions sont dans les mains des programmeurs et des designers qui peuvent intégrer à l’avance dans son logiciel tous les éléments de réponse en fonction de chaque occurrence prévisible. Ce robot est dit « opérationnellement moral ». Il n’a pas besoin d’évaluer par lui-même le contexte éthique, c’est-à-dire les conséquences de ses actions. Un tel robot ne se retrouvera jamais dans une situation requérant de lui qu’il choisisse en une fraction de seconde les règles éthiques s’appliquant dans un cas particulier, ou qu’il fasse le tri entre plusieurs règles contradictoires.

Un rapport remis à la Marine américaine par le groupe « Éthique et sciences émergentes » de la California Polytechnic State University de San Luis Obispo (Californie) affirme que cette moralité opérationnelle est insuffisante car elle peut être mise en défaut dans des environnements complexes qui soumettraient les robots à des influences imprévues risquant de saturer une architecture de contrôle trop simple. Pour ces chercheurs, les machines doivent également acquérir une moralité fonctionnelle, c’est-à-dire une capacité autonome de jugement éthique. Cette programmation n’est pas sans poser de sérieuses difficultés. Le groupe d’universitaires s’est penché sur ce que pourrait être la programmation, dans des robots, des lois « morales » les plus simples, en partant de celles qu’avait imaginées le célèbre vulgarisateur scientifique et auteur de science-fiction, l’Américain Isaac Asimov. Elles sont au nombre de trois : 1- un robot ne doit pas blesser un homme ou, par inaction, permettre qu’il le soit ; 2 – un robot doit obéir à un homme, sauf si cela l‘amène à enfreindre la règle n°1 ; 3 – le robot doit préserver son existence, sauf si cela l’amène à enfreindre une des deux règles précédentes. Il est aisé de voir que ces règles se heurtent d’emblée aux limites de la connaissance de la machine, tout simplement sur ce qui peut blesser un homme.

Autre piste : une éthique « automatique » se rapprochant du projet kantien d’universalisation des règles de comportement à travers ce que le philosophe appelait l’ « impératif catégorique ». Mais les promoteurs de cette idée se heurtent au fait qu’un robot n’a ni volonté, ni intention, bonne ou mauvaise. D’autres équipes de chercheurs recommandent d’abandonner toute idée d’incruster une éthique dans les logiciels et préconisent de gérer les robots militaires comme des machines obéissantes dotées d’une « éthique de l’esclave », une proposition apparemment rassurante mais qui se heurte à une contrainte d’efficacité : l’utilisation d’un robot militaire sur un théâtre d’opérations n’a de sens que s’il peut agir et réagir très rapidement.

Certains philosophes proposent une autre approche. Selon eux, certains sous-systèmes distincts sont en cours d’élaboration par des informaticiens, qui pourraient potentiellement contribuer à l’élaboration d’« agents moraux artificiels » même si, individuellement, chacun de ces sous-systèmes n’est pas explicitement conçu pour le raisonnement moral. Selon eux, les algorithmes d’apprentissage, les capteurs affectifs et les mécanismes sociaux peuvent tous contribuer à la perspicacité éthique d’un robot. Toutefois, les informaticiens ignorent si un tel assemblage pourrait déboucher un jour sur un ordre cognitif supérieur amenant le robot aux frontières de l’intelligence émotionnelle, du jugement moral et de la conscience.

Quelles que soient les précautions envisagées, l’idée de déployer des machines autonomes dotées de capacités létales provoque des inquiétudes partout dans le monde. Le Comité international pour le contrôle des armes robotisées (ICRAC ), une ONG fondée en 2009 par des experts en robotique, en éthique, en relations internationales et en droits de l’homme, est devenu leur porte parole et prêche contre la « dystopie » (anti-utopie) d’un monde de robots armés. L’ICRAC pilote la campagne pour mettre fin à la course aux armements robotisés avant même qu’elle ne commence. Elle porte certains fruits. En mai 2013, un rapport des Nations Unies appelait à une interdiction temporaire des systèmes létaux autonomes jusqu’à ce que les pays membres établissent des règles pour leur utilisation.

More on paristech review

By the author

  • Biologie de synthèse: quelles perspectives industrielles?on September 6th, 2016
  • L’État-plateforme, ou comment l’open innovation aide à moderniser l’administrationon June 20th, 2016
  • Mobilité durable: le secteur automobile accélèreon April 26th, 2016

www.paristechreview.com

This content is licensed under a Creative Commons Attribution 3.0 License
You are free to share, copy, distribute and transmit this content

Logo creative commons

5 quai Voltaire 75007 Paris, France - Email : contact@paristechreview.com / Landline : +33 1 44 50 32 89