europia logo white

Armes autonomes létales : l'avenir de la guerre sans humains

futuristic-computer-eq`uipment-glows-dark-connected-by-network-server-generated-by-ai-1080x675.png
21 Jul, 2025

De la science-fiction à la réalité du terrain

En septembre 2020, un événement historique se produit en Libye, largement passé inaperçu du grand public. Un drone turc Kargu-2, équipé d'intelligence artificielle, traque et attaque automatiquement des combattants sans intervention humaine directe. Pour la première fois dans l'histoire, une machine a pris la décision de tuer.

Ce n'est que le début. En Ukraine, les drones Switchblade américains et les systèmes russes Lancet font leurs preuves sur le terrain. Ces « munitions rôdeuses » peuvent identifier, poursuivre et détruire des cibles de manière semi-autonome. En 2023, la Chine dévoile une vidéo troublante à l’occasion de sa fête nationale : plus de 10 000 drones évoluant en formation parfaite, réalisant un spectacle lumineux dans le ciel. Cette démonstration de « swarm intelligence » (intelligence en essaim) invite à penser une approche radicalement différente de la guerre autonome.

Contrairement aux armes traditionnelles, ces systèmes ne se contentent pas d'exécuter des ordres. Ils analysent, décident et agissent selon leurs propres calculs. Un seul essaim de drones autonomes pourrait théoriquement neutraliser une base militaire entière en coordonnant ses attaques de manière imprévisible pour les défenses humaines.

Aujourd'hui, au moins 12 pays développent activement des systèmes d'armes autonomes : États-Unis, Chine, Russie, Israël, Royaume-Uni, France, Allemagne, Corée du Sud, Turquie, Iran, Inde et Australie. Chacun y investit des milliards. Les États-Unis misent sur la précision avec leurs programmes LAWS (Lethal Autonomous Weapons Systems) et leurs investissements dans la startup Anduril, valorisée à 14 milliards de dollars. La Russie développe ses systèmes Pantsir et S-400 avec des capacités autonomes croissantes. Israël, pionnier avec Iron Dome, perfectionne ses systèmes de défense automatisés.

Mais c'est la Chine qui inquiète le plus. Ses investissements massifs dans l'IA militaire, combinés à une approche moins restrictive sur l'éthique, pourraient lui donner un avantage décisif. Le pays ne cache pas ses ambitions : dominer le champ de bataille du futur grâce à l'intelligence artificielle – car les avantages tactiques sont de taille.

Avantages tactiques : la supériorité de la machine

Pourquoi cette course effrénée ? Parce que les avantages militaires sont considérables :

  • Vitesse de réaction surhumaine : Un système autonome peut détecter, analyser et engager une cible en quelques millisecondes, là où un humain met plusieurs secondes.
  •  Capacité opérationnelle continue : Pas de fatigue, pas de stress, pas d'émotions qui altèrent le jugement.
  • Environnements hostiles : Opérations dans des zones radioactives, chimiques ou sous-marines impossibles pour l'humain.
  • Réduction des pertes humaines : Pour le pays qui les déploie, évidemment.


Mais ces avantages cachent des risques existentiels. Le premier danger est, évidemment, l'erreur d'identification. En 2020, un système de défense iranien abat par erreur un avion civil ukrainien, tuant 176 personnes. Il s’agissait alors d’une erreur humaine. Mais avec des armes entièrement autonomes, de telles tragédies pourraient (au moins au début, tant que les systèmes ne sont pas parfaitement robustes et « alignés ») se multiplier.

Le second risque est la prolifération incontrôlée. Contrairement aux armes nucléaires, les technologies d'IA sont relativement accessibles. Des groupes terroristes ou des États voyous pourraient développer leurs propres systèmes autonomes à moindre coût.

Enfin, un nouveau risque que les doctrines militaires doivent envisager et que j’appelle « escalade de l’autonomie » : face à des armes autonomes adverses, la tentation sera grande de raccourcir les délais de réaction humaine, jusqu'à les éliminer complètement. Nous nous dirigerions alors vers des conflits entièrement automatisés, où les machines décident de la vie et de la mort à la vitesse de l'algorithme.

Face à ces enjeux, la communauté internationale tente de réagir. La Convention sur certaines armes classiques (CCW) de l'ONU discute depuis 2014 d'une possible interdiction des armes autonomes létales. En vain pour l’instant. En effet, les définitions restent trop floues et les intérêts nationaux divergent. Où commence l'autonomie ? Un missile guidé par GPS est-il autonome ? Un drone qui choisit sa trajectoire pour éviter les défenses ? Un système qui identifie automatiquement des cibles mais attend validation humaine ?

Surtout, aucune grande puissance militaire n'acceptera de se priver unilatéralement de ces technologies tant que ses rivaux les développent. Le dilemme du prisonnier à l'échelle géopolitique.

2025-2030 : la fenêtre critique

Nous voici à un tournant historique. Les cinq prochaines années détermineront si l'humanité saura encadrer cette révolution militaire ou si elle subira ses conséquences.

Car contrairement aux armes nucléaires, développées dans le secret par quelques nations, l'IA militaire progresse au grand jour, portée par l'innovation civile. Chaque avancée de ChatGPT, chaque progrès de la vision par ordinateur, chaque amélioration des processeurs peut être détournée à des fins militaires.

La question n'est plus de savoir si les armes autonomes létales vont se développer, mais comment l'humanité va réussir à les contrôler. L'enjeu dépasse la simple stratégie militaire : il s'agit de préserver notre humanité dans un monde où les machines décideront peut-être bientôt qui vit et qui meurt.

L'avenir de la guerre se joue aujourd'hui. Et nous ne pouvons plus fermer les yeux.

Crédits : Flavien Chervet (avec Midjourney)

Références :

- UN Security Council Report S/2021/229, Panel of Experts on Libya

- Hyperarme (Flavien Chervet, 2025 - https://hyperarme.com)

- JdG, 3 octobre 2024



Articles
Actualités
Partager:
hmyXqiVG_400x400.jpeg
Flavien Chervet

© 2019–2025 Institut EuropIA – Tous droits réservés.