Accueil High Tech Le développement des robots tueurs, peut-on leur faire confiance ? Analyse de...

Le développement des robots tueurs, peut-on leur faire confiance ? Analyse de la nouvelle course aux armements

150
0

Les armes artificielles intelligentes transforment les armées du monde entier – faut-il s’inquiéter ?

Les robots tueurs et les drones « kamikazes » sont arrivés : l’armement intelligent artificiel de la science-fiction est désormais une réalité – et il est sur le point de transformer les armées, les marines et les forces aériennes du monde entier.

Cela a déclenché une nouvelle course aux armements.

« Pensez à ce que la mitrailleuse a fait dans la guerre en 1914 ou à ce que le dirigeable a fait en 1939 », déclare Peter Singer, un « futuriste » américain et auteur à succès. « Pourquoi s’attendre à ce que l’intelligence artificielle et la robotique aient un impact moindre ? » À terme, dit-il en riant, il y aura une application Waze pour les généraux : « Elle dira que vous aurez moins de pertes si vous allez par là. » écrit le Times.

Des drones armés turcs bombardent des dizaines de positions arméniennes

Les armes autonomes sont déjà sur le champ de bataille

L’utilisation de drones turcs pour chasser des cibles militaires – véhicules blindés et soldats – en Libye l’année dernière est considérée comme l’un des premiers exemples d’intelligence artificielle déclenchée pour tuer de sa propre initiative. Lancées en quelques touches de clavier (et pour une fraction du coût de toute force aérienne traditionnelle), des « munitions lentes » similaires ont été déployées par l’Azerbaïdjan pour détruire la plupart des systèmes d’artillerie et de missiles de l’Arménie et environ 40 % de ses véhicules blindés lors d’une guerre l’année dernière.

La Russie appelle l’Arménie et l’Azerbaïdjan à mettre fin à l’escalade du conflit

« Ces chiffres sont stupéfiants », déclare M. Singer. « C’est comme être de retour aux premiers jours du char. »

La « frappe » contre l’Iran

L’attaque israélienne de la fin de l’année dernière contre le responsable du programme d’armement nucléaire iranien, Mohsen Fakhrizadeh, pourrait être un autre exemple de mort par robot. Selon les Iraniens, Fakhrizadeh a été mortellement touché par une mitrailleuse montée à l’arrière d’un pick-up sur le bord de la route. Le canon hyperprécis a été tiré par un opérateur dans un autre pays et programmé pour ouvrir le feu dès qu’il a reconnu la cible en approche. Fakhrizadeh a été tué sur le coup, mais sa femme, qui était assise à côté de lui, n’a pas été blessée.

des images de la scène de l’assassinat de Fakrizadeh. Les services de renseignement américains et israéliens ont décrit le scientifique, Mohsen Fakhrizadeh, comme la force derrière ce qu’ils appellent la poussée secrète de l’Iran vers les armes nucléaires.

Depuis des années, des canons « sentinelles » capables d’ouvrir le feu tout seuls contre les intrus sont déployés par la Corée du Sud le long de la zone démilitarisée coréenne et par Israël à la frontière de la bande de Gaza. Un « chien robot » non armé est déjà en service sur une base de l’armée de l’air américaine, où il effectue des patrouilles de périmètre ; une version armée d’un fusil d’assaut télécommandé a été dévoilée lors d’une convention de l’armée américaine le mois dernier.

Des machines dotées d’un degré d’autonomie et d’une puissance meurtrière encore plus grands – notamment des essaims de drones miniatures et de véhicules de combat sans pilote – proliféreront bientôt sur le champ de bataille.

Mais pouvons-nous leur faire confiance pour aller au combat en notre nom ? Pouvons-nous nous permettre de ne pas le faire ?

Risquer des machines au lieu d’hommes au combat a ses attraits pour les planificateurs militaires. Les robots sont bon marché et jetables. « Voici le choix », déclare au Times le général Sir Richard Barrons, ancien commandant de l’armée britannique :

« Je peux construire une machine qui peut aller dans un endroit dangereux et tuer l’ennemi ou nous pouvons envoyer votre fils – parce que c’est l’alternative. Comment vous sentez-vous maintenant ? Les gens vont dire, vous savez quoi, cette voiture est une meilleure alternative. »

Des drones ont été utilisés pour tuer le chef du programme d’armes nucléaires de l’Iran, Mohsen Fakhrizadeh.

Le « père » de la bombe atomique iranienne assassiné près de Téhéran

En outre, les dispositifs ne nécessitent ni célébrations ni paiements.

Ils ne se fatiguent pas et n’obéissent pas aux ordres. « Ces systèmes font ce pour quoi ils sont programmés », ajoute Barrons.

« Ils n’ont pas besoin d’un entraînement régulier ou de rater un tir en omettant de relâcher le cran de sûreté à cause de l’excitation. »

Ces machines ont déjà surpassé les pilotes de chasse expérimentés dans les combats aériens.

En août dernier, un pilote américain identifié seulement comme « Banger », qui a 2 000 heures d’expérience de vol sur un F16, a été systématiquement battu par un algorithme dans un simulateur de vol. M. Banger a déclaré par la suite que l’algorithme « n’était pas limité par la formation et la réflexion qui sont ancrées dans un pilote de l’armée de l’air ». Sur le terrain, des véhicules blindés russes et américains capables de parcourir le champ de bataille en décidant eux-mêmes du moment de l’attaque – dans le cadre de paramètres définis par l’homme – sortent des chaînes de production.

La technologie rend de nombreuses personnes anxieuses. Les robots défient.

VIDEO Le robot de service résistant aux chocs

Certains scientifiques ont invoqué des cauchemars de science-fiction pour nous faire fuir l’automatisation. Imaginez des robots tels que l’inarrêtable assassin métamorphe des films Terminator, parcourant la terre à la recherche de proies, ou des machines qui finissent par asservir leurs maîtres. Ou peut-être la réalité suivra-t-elle le dernier film de James Bond, qui met en scène des nanorobots tueurs capables de cibler l’ADN individuel.

Stephen Hawking : la théologie n’est pas nécessaire, l’explication scientifique est suffisante

Le regretté Stephen Hawking a averti que l’intelligence artificielle pourrait « sonner le glas de la race humaine », et Elon Musk affirme que nous « invoquons un démon » en poursuivant les « systèmes d’armes autonomes létaux » – les lois, comme on les appelle.

Vladimir Poutine, le président russe, est plus enthousiaste – et ses propos devraient nous alarmer : « Celui qui règne sur l’IA régnera sur le monde », a-t-il déclaré.

Lire aussi :  Des prix d'une valeur de 9 000 dollars dans le cadre du premier concours de développeurs d'applications Huawei Watch 2021

Les appels à l’interdiction des armes autonomes se sont intensifiés.

« Les machines qui tuent des gens sont une direction inacceptable pour nous, nous voulons créer un sentiment d’accord moral sur ce point », déclare Richard Moyes, directeur de Stop Killer Robots, un groupe qui préconise l’interdiction des robots et dont les partisans ont organisé des manifestations, déguisés en robots, de Londres à Berlin. Et le pape s’est joint à la mêlée pour soutenir la réglementation, dénonçant les armes autonomes pour « manque d’humanité et de conscience publique ».

De nombreux pays se sont engagés en faveur de la réglementation lors d’une série de discussions organisées à Genève sous l’égide des Nations unies, mais pas la Grande-Bretagne ni plusieurs autres pays, dont les États-Unis, la Chine et Israël. La position officielle de la Grande-Bretagne est qu’elle ne produira jamais de lois. Mais elle les définit comme « capables de comprendre une intention et une direction de niveau supérieur ». Cela ressemble à une esquive talentueuse : personne ne croit vraiment que nous sommes sur le point de produire des robots généralement intelligents, et encore moins des processus de pensée – ou une conscience – de type humain dans des machines qui pourraient les inciter à prendre le pouvoir.

La menace inquiétante pour les militants vient des drones autonomes et autres armes robotisées qui existent déjà et peuvent être lâchés sur le champ de bataille en mode automatique, programmés pour sélectionner et détruire des cibles sans attendre les ordres des humains.

« Les contrôles juridiques doivent être appliqués aux systèmes qui existent aujourd’hui, et pas seulement au Terminator dans mille ans », déclare Moyes, qui note que certains des drones tueurs peuvent fonctionner de manière autonome pendant deux heures ou plus. « Lorsqu’il est utilisé sur une période plus longue et sur une zone plus large, l’utilisateur peut avoir relativement peu de contrôle sur ce qui sera effectivement ciblé. »

Les drones errants et autres armes robotisées utilisent la reconnaissance d’images, accédant à une bibliothèque d’images pour déterminer si un objet est un char ou une machine, ou si un être humain est un combattant ou un civil. « Une zone de risque, dit une source de sécurité, est que si un char T72 est un char, une personne portant un camouflage de combat pourrait ne pas valoir la peine d’être abattue. »

Le problème est que, aussi sophistiquées soient-elles sur le plan technologique, les armes robots « n’ont pas d’intuition, de capacité de réflexion ou de discernement », précise la source de sécurité. Actuellement, la technologie fonctionne mieux dans « des circonstances bien définies, par exemple lorsqu’un missile se dirige vers son navire ».

Le nouvel avion de combat « Checkmate » dévoilé lors du salon aéronautique MAKS-2021 à Zhukovsky, près de Moscou, le 21 juillet 2021. Image RT vidéo

Au fur et à mesure que la technologie se développe, la prochaine génération de chasseurs britanniques, Tempest, comprendra une version sans pilote capable de voler pendant de nombreuses heures et de choisir ses propres cibles si elle est déployée en mode automatique. Tout comme le dernier jet russe, surnommé Checkmate. Des sous-marins sans pilote et des navires autonomes de chasse aux mines sont également en projet. Des images satellites récentes ont montré que l’armée chinoise construit déjà des « navires de surface sans équipage », autrement dit des navires de guerre robotisés, dans une base secrète située sur la côte nord-est de la Chine.

« Les gens vont se demander si ce que nous faisons est vraiment autonome, dit Barrons, parce que vous avez défini certains paramètres où vous êtes heureux de tuer la bonne cible. »

Quoi qu’il en soit, la technologie se développe à un moment où le monde semble de plus en plus instable et peu sûr – un terrain fertile pour une révolution de la guerre. Les réserves des gens quant à l’éthique des robots tueurs disparaîtront à mesure qu’ils se sentiront menacés, affirme M. Barrons : « Si vous combattez les Chinois, lorsqu’ils arriveront à Douvres ou sur les côtes de Taïwan, vous ressentirez très différemment le risque de déclenchement d’armes automatiques. Beaucoup d’objections à ces désagréments disparaîtront. Nous n’avons pas eu à réfléchir de la sorte depuis un certain temps, pas depuis la fin de la guerre froide. »

les armes automatiques suivantes. De nombreuses objections à faire des choses désagréables disparaîtront. Nous n’avons pas eu à réfléchir de la sorte depuis un certain temps, pas depuis la fin de la guerre froide. »

Ce qui inquiète le plus les planificateurs militaires, c’est la perspective que des systèmes automatisés soient utilisés comme armes de destruction massive par un État ou un groupe terroriste. Imaginez un pays libérant des millions de mini-machines à tuer armées d’une petite charge explosive dans des villes ennemies pour éliminer ceux qui ont été sélectionnés par des algorithmes sur la base de leurs croyances politiques, de leur race ou de leur religion. Cette perspective cauchemardesque a été mise en évidence par la vidéo YouTube de 2017 intitulée Slaughterbots. On y voyait des essaims de petits drones équipés de systèmes de reconnaissance faciale et d’explosifs se déchaîner pour rechercher et tuer des individus sélectionnés. On voit certains des mini-drones s’associer pour faire un trou dans un mur afin d’accéder à des cibles du Congrès américain.

Le film de fiction Slaughterbots a montré comment l’automatisation pouvait rendre la guerre totale plus probable.

« C’était une fiction », déclare Stuart Russell, professeur britannique d’intelligence artificielle à l’université de Californie, à Berkeley, qui a créé le film grâce au financement du Future of Life Institute, un groupe de scientifiques et de technologues. « Notre objectif était de montrer quelles sont les conséquences logiques de la fabrication de telles armes ». Maintenant, il se sent justifié. « Des machines similaires sont déjà utilisées », dit-il, faisant référence aux champs de bataille libyens et arméniens.

Lire aussi :  Netflix lance une fonction similaire à TikTok pour montrer des clips courts aux enfants.

Imaginez ce que pourrait faire un dictateur bien doté avec des intentions génocidaires. « Si un pays est vraiment sérieux, il n’y aurait pas grand-chose à faire pour l’exploitation de centaines de milliers, voire de millions de drones, je pense que c’est une préoccupation sérieuse », déclare M. Russell.

Il espère toujours que la propagation des robots tueurs pourra être contrôlée. « Les gens disent : « Si nous ne faisons pas ça, nos ennemis le feront ». » C’est un peu comme la course aux armements biologiques des années 1960 et 1970″, explique M. Russell. « Mais nous avons arrêté les armes chimiques, nous avons arrêté les armes biologiques, nous avons arrêté les mines terrestres. Je ne vois pas pourquoi ils ne peuvent pas arrêter ça aussi. »

Mary Wareham, directrice de la défense des armes pour Human Rights Watch, est d’accord. Selon elle, « déléguer des décisions de vie ou de mort à des machines sur le champ de bataille est un pas de trop » qui pourrait conduire à « une déshumanisation accrue de la guerre ».

Cependant, les avantages des systèmes autonomes sont si importants que certains pays puissants s’opposent à toute réglementation, au motif que les concurrents pourraient tricher et obtenir un avantage imbattable en cas de guerre.

« Il ne sert à rien de dire que ces choses ne peuvent pas exister, parce qu’elles existent déjà », déclare M. Barrons, « et on ne peut pas arrêter les gens qui veulent les faire. Vous ne pouvez pas désinventer ces choses. »

D’autres experts affirment qu’il sera impossible de déterminer où tracer la ligne de démarcation entre la robotique autorisée et celle qui ne l’est pas, d’autant plus que la technologie est déjà utilisée dans de nombreux aspects des opérations militaires modernes.

« Qu’il s’agisse de droïdes de combat ou d’IA (intelligence artificielle) conseillant les politiciens et les généraux, nous sommes à l’aube d’une guerre artificiellement intelligente », écrit Kenneth Payne dans I, Warbot, un livre récent sur l’automatisation militaire. Le développement rapide de la technologie militaire de l’IA rend les responsables européens et américains de la sécurité nerveux quant à la façon dont les pays impliqués dans un conflit « existentiel » (Israël, par exemple) pourraient être prêts à appliquer « toute une série de ces technologies » ; et comment cela pourrait aggraver les tensions au Moyen-Orient avec des conséquences catastrophiques. « C’est un chemin que beaucoup d’entre nous ne veulent pas emprunter », déclare une source du renseignement.

La nouvelle course aux armements a suscité une explosion de la recherche dans le secteur privé.

Anduril Industries, développeur de drones armés

Anduril Industries a été fondée en Amérique en 2017 par Palmer Luckey, 29 ans, concepteur de casques de réalité virtuelle et éminent donateur républicain. Actuellement évaluée à 4,6 milliards de dollars, Anduril a commencé cette année à fournir son drone Ghost aux Royal Marines du Royaume-Uni.

Chris Brose, directeur de la stratégie de l’entreprise, explique que Ghost est utilisé en conjonction avec un logiciel d’IA appelé Lattice, qui permet aux drones de « collaborer les uns avec les autres, en retirant la charge cognitive des opérateurs humains » lorsqu’ils scrutent le champ de bataille à la recherche de menaces ou d' »objets » d’intérêt » pour lesquels ils ont été programmés pour alerter leurs maîtres humains. Ils peuvent également être équipés d’armes et programmés pour tirer automatiquement lorsqu’ils détectent certaines cibles.

Toutefois, Brose estime que « de nombreuses batailles futures » ne seront pas « cinétiques » – un euphémisme militaire pour désigner les tirs. Tout aussi importante sera « la capacité de scanner le champ de bataille et de mener une guerre électronique » en brouillant les machines de l’autre camp.

C’est un territoire inexploré.

Plus les machines sont utilisées dans les combats, plus la guerre peut devenir une compétition entre les robots de chaque camp. Cela pourrait signifier que les pays partent plus souvent en guerre – parce que les machines sont consommables – au risque de provoquer une conflagration plus large. Ou bien elle pourrait rendre la guerre moins ruineuse en termes humains.

Les experts sont toutefois sceptiques quant à la possibilité de guerres sans effusion de sang. « Avec cet argument, nous pourrions régler tous nos différends en jouant au tir à la cible », dit Russell. Il avertit que l’automatisation pourrait rendre l’escalade plus probable : les machines pourraient répondre à une attaque perçue par une attaque réelle, déclenchant une guerre totale. « Nous avons connu plusieurs situations de guerre nucléaire, mais heureusement, il y avait des gens dans la boucle quelque part pour prendre une décision. »

Oliver Lewis, ancien directeur adjoint du Government Digital Service britannique et cofondateur de Rebellion Defence, une entreprise qui produit des logiciels d’IA pour l’armée, s’inquiète également d’une escalade accidentelle. « Vous pouvez vous retrouver dans une situation où vous avez une machine écrite avec une logique et une autre écrite avec une autre logique qui, quelle que soit l’intention des opérateurs humains, se retrouve coincée dans une spirale de mort avec l’incapacité de désamorcer la situation même si elle le voulait. « 

Il ne pense pas qu’une interdiction ou une réglementation sera adoptée de sitôt, ce qui rend d’autant plus urgent pour les pays de trouver un moyen de désamorcer ce qu’il appelle l’événement « probable » d’un affrontement à fort enjeu entre des systèmes automatisés rivaux dans un avenir proche.

Alors certaines personnes prennent position, une dernière défense contre les machines. « Il s’agit d’algorithmes et d’ordinateurs qui prennent des décisions concernant nos vies », explique Moyes de Stop Killer Robots. « Nous avons tous intérêt à tracer une ligne ici. »

Article précédent« Tout va fermer » : les militaires remplacent le personnel médical. La population, arrêtée pour ne pas faire d’émeute. Des milliers de Roumains sont visés par des restrictions
Article suivantQuel message Viktor Orban a-t-il envoyé à Nicolae Ciucă ?
25 ans et depuis 3 ans dans le Digital, je rédige aussi vite que mon ombre ^^ Fan de Rugby et de boxe, j'aime aussi l'Art et la Littérature !