Les robots pénètrent progressivement dans tous les domaines de la vie humaine. Nous utilisons divers appareils robotisés, tels que des aspirateurs robots, même dans la vie de tous les jours. Bien entendu, l'introduction des robots dans la sphère militaire n'est pas passée inaperçue. Cependant, les humains continuent de mener des conflits militaires, qui se soldent parfois par la perte de dizaines de milliers de vies. Dès lors, une question se pose : les robots peuvent-ils remplacer complètement les humains à l'avenir ? Une guerre entre robots est-elle possible, alors que les humains se contenteront de l'observer ? Dans le même temps, nous ne serons pas confrontés à de terribles conséquences sous la forme de villes détruites, de décès de civils, de conscription forcée et d'envoi au front.
De plus, les robots n'ont aucun élément humain. Cela signifie qu'ils respecteront toutes les lois de la guerre. En cas de danger, les robots ne se disperseront pas, ne quitteront pas l'armée, ne se mettront pas à piller, à terroriser la population locale et à commettre d'autres crimes.
Et les capacités des robots de combat seront bien connues des responsables militaires. Cela signifie qu'il y a moins de risques de surestimer leurs propres forces et d'échouer dans des opérations militaires particulières, comme c'est le cas avec la force vitale. La liste des autres avantages des robots de combat est longue. Mais dans quelle mesure leur utilisation à la place des humains est-elle réaliste, ou représentent-ils en soi un danger pour l'humanité ?
Histoire des robots de combat
L'idée d'utiliser des machines à la place des humains dans la guerre est apparue il y a longtemps. Le premier drone a été créé en 1935 en Grande-Bretagne. L'appareil était équipé d'une télécommande et pouvait voler sur une distance allant jusqu'à 5 kilomètres avec une vitesse maximale de 170 km/h. Cependant, il ne s'agissait pas vraiment d'un véhicule de combat, car le drone n'était utilisé que comme cible d'entraînement.
Les premiers drones pouvant effectuer des missions de reconnaissance de combat sont apparus aux Etats-Unis en 1948. Les AQM-34 se sont bien comportés lors des tests et ont été mis en production de masse trois ans plus tard.
Robots de combat modernes
Actuellement, de nombreuses entreprises dans le monde se concentrent sur le développement de robots marcheurs. Un robot de combat à quatre pattes a été conçu en 2005. Il pouvait porter des charges allant jusqu'à 110 kg et se déplacer à 6,5 km/h. Le robot pouvait même franchir une pente de 35 degrés. Cependant, il était trop bruyant, ce qui est inacceptable pour l'armée.
D'autres fabricants se sont ensuite orientés dans une autre direction. Ils ont créé un fusil particulier pour les robots à quatre pattes. Il était équipé d'une caméra thermique avec un grossissement de 30x, ce qui permettait à l'opérateur de détecter toute cible vivante. Le fusil pouvait être chargé de munitions de 6,5 millimètres ou de 7,62 millimètres. Mais ces robots ne pouvaient pas être entièrement qualifiés de militaires.
L'un des premiers véritables robots militaires a été créé pour la reconnaissance et la surveillance. Le robot est équipé de mitrailleuses, de quatre grenades et d'armes laser. Il dispose d'un haut-parleur, d'un système de détection d'incendie et d'une sirène. Le véhicule de combat a une autonomie de 12 heures. Le robot peut fonctionner en mode autonome, mais c'est l'opérateur qui prend les décisions..
Divers complexes robotiques sur des plates-formes à chenilles ont également été créés pour les opérations offensives et défensives, le minage et le déminage de territoires, la surveillance et l'engagement de cibles, ainsi que la patrouille de la zone et la livraison de marchandises.
Pourquoi les robots de combat ne sont pas près de remplacer les humains
Comme nous pouvons le constater, les robots de combat sont de plus en plus introduits dans l'armée, et la liste des tâches qu'ils accomplissent ne cesse de s'allonger. Comme nous l'avons dit précédemment, les nouveaux robots permettent d'accomplir plus efficacement certaines tâches de combat. Cependant, nous ne nous intéressons pas seulement à leur application, mais au remplacement total des humains par des robots..
Mais l'introduction massive des robots est entravée par plusieurs problèmes. Les robots industriels, qui sont activement mis en œuvre dans les installations de production, sont destinés à remplacer le travail manuel lourd et monotone. Ainsi, ils permettent d'augmenter l'efficacité de la production et de réduire les coûts de production.
Dans le cas de l'application des robots de combat, la situation est inverse - ils doivent remplacer des spécialistes hautement qualifiés. En outre, le risque de perdre un robot fantassin est injustifié. Les équipements de haute technologie peuvent finir dans les mains de l'ennemi, ce qui est hautement indésirable. Mais il ne s'agit pas seulement du danger que la technologie tombe entre les mains de l'ennemi. Le principal problème de l'introduction massive de robots militaires est leur coût élevé.
La montée des machines et autres inconvénients des robots de combat modernes
Les robots modernes peuvent être divisés en trois grands types : entièrement télécommandés, semi-autonomes, qui peuvent agir de manière indépendante, mais l'opérateur, et entièrement autonomes prennent toutes les décisions. Compte tenu du rythme actuel de la guerre, les futurs robots, pour qu'ils remplacent totalement les humains, doivent agir de manière entièrement automatique. Pour ce faire, ils doivent être capables d'examiner leurs erreurs, d'acquérir de l'expérience et de s'auto-apprendre.
Récemment, l'émergence de machines entièrement autonomes a été favorisée par le développement de réseaux neuronaux auto-apprenants. Cependant, ces derniers ne sont pas encore assez perfectionnés pour fonctionner de manière totalement automatique. Par conséquent, elles ne sont adaptées que pour aider les gens, et non pour se battre seules.
Mais même si l'IA permet de créer des machines entièrement autonomes, de graves dangers sont associés à leur utilisation. Lors de la crise libyenne en 2020, un quadcoptère turc sans pilote, le Kargu-2, fonctionnant en mode autonome, a repéré et attaqué l'ennemi. Il existe déjà un précédent de destruction de personnes par l'IA.
Elle a provoqué une réaction négative de la part des militants. Dans le cas d'une erreur logicielle, des personnes innocentes pourraient mourir. De nombreuses entreprises qui développent des robots et des organisations de défense des droits de l'homme ont écrit une lettre ouverte à la Convention des Nations unies, dans laquelle elles demandent d'interdire le développement et l'utilisation des robots autonomes..
Par conséquent, selon de nombreux experts, les robots paramilitaires doivent fonctionner exclusivement sous le contrôle des militaires. Leur fonctionnement indépendant doit être exclu.
Les robots entièrement contrôlés et semi-autonomes présentent également un inconvénient de taille : la nécessité de communiquer par radio avec l'opérateur. Cela signifie qu'ils sont vulnérables à la guerre électronique. Pratiquement toutes les armées du monde disposent de moyens de guerre électronique. Elles peuvent simplement couper la communication entre le robot et l'opérateur. En outre, le signal radio peut être perdu à cause du terrain.
Qui est le plus rapide
Dans le même temps, les experts prévoient une augmentation exponentielle des robots et de l'intelligence artificielle dans les conflits militaires du XXIe siècle. Une nouvelle course aux armements et même un changement du paysage géopolitique sont associés à la robotisation totale de la technosphère militaire. La robotisation ne signifie pas seulement la saturation des armées avec toutes sortes de drones - volants, à cheval ou flottants. Des éléments d'autonomie et d'intelligence artificielle vont imprégner tous les domaines de la confrontation militaire. Des technologies émergent qui peuvent ajouter les capacités des robots de combat aux systèmes d'armes traditionnels - complexes nucléaires, systèmes satellitaires, systèmes de défense antimissile, etc. Bientôt, nous devrions nous attendre à l'apparition de nouveaux types d'armes et d'unités : cybercommandes, installations de reconnaissance basées sur l'intelligence artificielle, véhicules autonomes et unités robotiques.
Quant à la nouvelle course aux armements, elle est déjà en cours. Au cours des 20 années écoulées depuis le milieu des années 1980, les États-Unis, la Grande-Bretagne, l'Allemagne, la France, la Chine et Israël ont augmenté le financement de programmes visant à créer des robots de combat.
L'armée américaine estime que d'ici 2030, la part des systèmes sans pilote atteindra 30 % de la flotte totale de véhicules de combat, ce qui multipliera par 2 à 2,5 les capacités de combat des unités. Environ 200 prototypes de ces véhicules sont apparus aux États-Unis au cours des 20 dernières années.
Aujourd'hui, plus de trois douzaines de pays développent des drones de différents types, et les armées de plus de cinquante pays les ont en service. Au cours des dernières décennies, des dizaines de milliers de systèmes de drones ont été impliqués dans des conflits militaires. Et l'expérience des conflits récents au Moyen-Orient a montré que les drones sont disponibles non seulement pour les armées régulières mais aussi pour les unités de guérilla : vous pouvez littéralement assembler un drone kamikaze fonctionnel avec du ruban adhésif et des bâtons.
Les robots apprennent à penser : bien ou mal
Les experts établissent un lien entre les perspectives de développement du combat robotique complexe (RTK) et le passage de systèmes télécommandés à des systèmes autonomes capables de résoudre des tâches avec une participation humaine minimale, voire nulle. Ils trouvent eux-mêmes la cible, l'identifient et la détruisent. Dans le même temps, il existe un ensemble de risques associés à l'exclusion des humains de la chaîne de décision. C'est ce qu'on appelle le "problème du contrôle humain significatif dans les forums internationaux". Est-il possible de déléguer le droit de tuer à une machine ? Comment les robots intelligents interagiront-ils avec les humains, et un robot peut-il donner un ordre à un humain ?
Et le conflit militaire lui-même se transforme d'une confrontation entre personnes armées (au moins partiellement) en un combat entre un humain et une machine pensante ou des robots entre eux.
Les armes entièrement autonomes peuvent sortir du cadre du droit international humanitaire. Se pose également le problème de la responsabilité juridique des actes commis : si un drone identifie mal des cibles et utilise des armes sur elles, qui sera responsable de l'erreur ?
Des véhicules partiellement autonomes existent déjà et sont activement utilisés - des humains les contrôlent, mais des programmes spécifiques peuvent être pratiqués de manière indépendante. Il n'existe pas encore de systèmes de combat entièrement autonomes basés sur l'intelligence artificielle. Du moins, pas officiellement. Mais certains experts pensent que des éléments d'IA sont utilisés dans les drones d'attaque américains. Des commentaires non officiels suggèrent même que des frappes de drones sur des objets civils pourraient avoir été effectuées précisément à cause d'une erreur d'IA.
La question de savoir si l'intelligence artificielle peut rivaliser sur le champ de bataille avec le cerveau humain fait toujours l'objet d'un débat. Les spécialistes de l'IA disent : oui, absolument. Les militaires en doutent. Les réseaux neuronaux avec apprentissage profond nécessitent une grande puissance de calcul et fonctionnent sur des tableaux de données pertinentes vérifiées. On ignore comment ils fonctionneront avec des données incorrectes..
Éléments pour les robots
Un autre problème est de savoir comment les RTK autonomes pourront accomplir des tâches dans différents environnements (air, terre, eau) et où ils seront le plus efficaces. De nombreux experts estiment que le cadre idéal pour les armes intelligentes est la mer.
Le développement rapide des drones de surveillance et de frappe sera une tendance prometteuse pour les 30-40 prochaines années. Des flottilles de véhicules sous-marins sans pilote seront en mesure d'assurer la sécurité des formations navales en détectant les sous-marins, les mines et autres problèmes. Certains capteurs sont déjà installés sur des submersibles pilotés à distance. À mesure que les systèmes d'IA se développent et que les tâches protocolaires sont prescrites, les submersibles pilotés seront remplacés par des submersibles autonomes.
Pour l'environnement marin, il est relativement facile de prescrire les algorithmes nécessaires. L'environnement aérien est beaucoup plus compliqué ; par exemple, un drone d'attaque devra sélectionner de manière indépendante des cibles sur une surface complexe (relief, bâtiments résidentiels) comportant divers objets. Certains d'entre eux doivent être touchés, tandis que d'autres ne peuvent en aucun cas être battus.
Si une machine est programmée pour un ensemble spécifique de tâches, elle les accomplira avec plus d'efficacité qu'un humain. Mais dans les batailles complexes combinées avec un grand nombre d'informations et d'objets divers, elle peut se comporter comme bon lui semble. Techniquement, ce problème est soluble, y compris avec l'utilisation de l'IA pour le traitement des données. Progressivement, les machines apprendront à reconnaître les images et seront capables d'identifier les cibles pas plus mal et peut-être mieux que les humains. Toutefois, il s'agit d'une tâche difficile et, par conséquent, les véhicules de frappe téléguidés existeront probablement encore pendant longtemps.
Problèmes et perspectives d'évolution
Les perspectives des RTK de combat terrestres restent sombres. Aujourd'hui, les robots terrestres sont des plateformes à roues ou à chenilles allant de la voiture radiocommandée d'un enfant au petit char. Leurs armes vont du pistolet aux modules équipés de canons automatiques, de lance-grenades et de missiles antichars guidés. De nombreuses entreprises du monde entier - des monstres de la défense aux petites sociétés privées - tentent aujourd'hui de fabriquer quelque chose de similaire. Pour la plupart, il s'agit de systèmes expérimentaux, et l'éventail de leurs tâches n'est pas très clair.
Mais tous ces développements posent deux grands problèmes : le contrôle et la passabilité. Le maintien d'un canal de communication au sol est beaucoup plus complexe qu'en l'air - le terrain et les bâtiments font obstacle. C'est pourquoi la portée des RTK à roues et à chenilles est plusieurs fois, voire plusieurs ordres de grandeur, inférieure à celle des drones. Quant à la capacité de franchissement, les robots à roues et à chenilles ne se déplacent pas bien sur un terrain accidenté, ne franchissent guère (ou pas du tout) les zones de ruines solides et les escaliers. Ils ne peuvent pas accompagner les soldats en combat de rue, en terrain rocheux, etc.
Par conséquent, l'éventail des tâches assignées aux robots de combat terrestre est limité. Il est tout à fait irréaliste de vouloir encore remplacer les soldats par eux. Mais ils peuvent être d'une grande aide dans le combat et le soutien logistique : reconnaissance, y compris la surveillance du combat, protection et livraison de consommables. Les systèmes terrestres ont également pour fonction le déminage et, à long terme, la décontamination des territoires, les travaux de protection contre les radiations, les produits chimiques et biologiques.
Cependant, la recherche d'un système de propulsion pour les RTK basés au sol se poursuit. La plupart des experts russes et étrangers voient l'avenir dans les systèmes de marche. L'homme ne détermine que les conditions dans lesquelles une machine identifie une cible comme hostile et ouvre le feu sans ordre ou au moins autorisation de l'opérateur.
Défis pour l'humanité
Elle soulève de nombreux nouveaux défis pour l'humanité, des applications techniques aux questions politiques, juridiques et éthiques. Si dans l'utilisation traditionnelle des armes - y compris les drones pilotés à distance - il y a toujours ces personnes spécifiques qui ont donné l'ordre et appuyé sur la "gâchette", alors qui exactement et comment être reconnu coupable d'un meurtre dont la décision a été prise par un robot autonome selon des algorithmes ? Qui sera responsable si le programme échoue et que les machines se mettent à tuer des civils, des médecins, des soldats de la paix ou leurs propres militaires ? Qui pourra dire avec certitude s'il s'agissait d'un dysfonctionnement, d'un piratage ou d'une imitation malveillante d'une erreur ? Qui sera tenu pour responsable si la machine de guerre devient totalement incontrôlable et commence à tuer tous ceux qu'elle peut ?
Questions juridiques et éthiques
À l'ONU, le sujet des véhicules de combat autonomes et de leur conformité au droit international humanitaire, au droit des droits de l'homme et à la convention sur les armes "inhumaines" fait l'objet de discussions actives depuis 2013. Des propositions visant à imposer un moratoire général sur le développement et l'exploitation des systèmes de combat autonomes ont été faites à plusieurs reprises, mais aucune décision et action drastiques n'ont été prises jusqu'à présent.
Lors des consultations organisées sous l'égide de l'ONU à Genève en 2018, seuls 26 des 88 pays qui y ont participé ont soutenu une interdiction des systèmes de combat autonomes - et les principales puissances militaires n'en faisaient pas partie. Les délégations ont pu se mettre d'accord sur une douzaine de "principes potentiels" de la nature la plus générale : que les développements soient conformes aux "principes humanistes" et que la responsabilité de leur utilisation soit de toute façon assumée par au moins un être humain.
La résolution du Parlement européen de 2018 et la campagne de 2019 pour l'interdiction des robots de combat autonomes menée par Jody Williams, lauréate du prix Nobel de la paix - bien que 130 organisations de la société civile de 60 pays et le secrétaire général de l'ONU António Guterres s'y soient associés. À ce jour, les systèmes de combat autonomes se trouvent dans une "zone grise" juridique pratiquement non décrite du droit international humanitaire et militaire.
La campagne Stop Killer Robots lancée par Human Rights Watch en août 2020 a trouvé le soutien de déjà 165 organisations de 65 pays - mais seuls 30 pays sur près de 200 se sont prononcés en faveur de l'interdiction des robots de combat.
Des forums internationaux et des réunions plus ou moins représentatives sur l'interdiction des véhicules de combat autonomes se tiennent régulièrement dans différentes parties du monde - mais il n'y a aucune perspective sérieuse d'interdiction des robots de combat, car la demande de tels systèmes dans les armées actuelles est trop importante et continuera de croître à l'avenir.
L'humanisme et l'aversion pour la violence ne cessent de croître dans la plupart des sociétés de la planète. Selon les recherches, le nombre de personnes prêtes à aller personnellement au combat une arme à la main plutôt que de rester assises derrière une console de drone dans un bunker sécurisé est en baisse dans un nombre croissant de pays. Il en va de même pour la volonté de faire du mal aux autres, même s'il s'agit d'ennemis militaires.
De plus, une machine autonome peut avoir une vitesse de réaction et une précision incomparablement meilleures que celles de tout opérateur humain. Le dispositif ne remet pas en question l'éthique et la légitimité de la participation à une opération particulière, surtout si elle n'est pas très officielle. La responsabilité s'avère être floue, ce qui est parfois très pratique lorsque personne ne veut être responsable des conséquences.
Une autre grande question sera inévitablement la combinaison des systèmes de combat autonomes avec les réseaux neuronaux. Les réseaux neuronaux peuvent augmenter considérablement la flexibilité, l'adaptabilité et l'efficacité globale des véhicules de combat, en les rendant auto-apprenants et létaux - ce qui rend leur comportement beaucoup moins prévisible, même pour les développeurs.
Tout cela soulève une foule de questions complexes qui, d'une manière ou d'une autre, devront être résolues au cours des prochaines décennies. L'intensité du débat international sur les systèmes de combat autonomes augmentera parallèlement à la puissance de leur application au combat. Beaucoup dépendra de la pratique de leur utilisation : de leur efficacité et de leur utilité réelles sur le champ de bataille pour les militaires et du nombre de tragédies très médiatisées associées à leur service. Peut-être les guerres futures se transformeront-elles en affrontements entre des armées de robots presque sans participation humaine. Il est possible que la pression de l'opinion publique soit si forte et les avantages de l'utilisation si discutables que les principales puissances militaires elles-mêmes finiront par juger bon de faire respecter l'interdiction et de surveiller sa mise en œuvre. Toutefois, même dans ce cas, le cours du progrès conduira au fait que, très bientôt, un véhicule de combat autonome, y compris un véhicule doté d'un réseau neuronal, pourra être assemblé "dans le garage". Il en résultera une autre montagne de problèmes militaires, sociaux et politiques compliqués.
Une chose est claire : il n'est pas question d'une bataille de machines, et non d'hommes, dans un avenir proche. En revanche, l'utilisation massive de robots à des fins militaires n'est qu'une question de temps.