L'IA au service du chef militaire

L’intelligence artificielle (IA) est une technologie révolutionnaire qui transforme divers secteurs de la société moderne, y compris le domaine militaire. Pour le chef militaire, l’IA offre des opportunités uniques qui aide à la planification, à la prise de décision, à la gestion des ressources, à la conception de manoeuvre et aux opérations sur le terrain. Elle se décline ainsi sur le champ stratégique, tactique et opérationnel mais doit demeurer sous la supervision du chef qui en assure la responsabilité. Plus qu'un investissement technologique, l'IA nécessite un leadership visionnaire fondé sur la connaissance, l'agilité et la stabilité. En effet, l'IA est un différenciateur tant au niveau stratégique, tactique qu'opérationnel. Ce différenciateur dans le champ de la sécurité intérieure est celui de l'influence et de la puissance de l'Etat à protéger sa population de la criminalité en ayant la capacité à comprendre, à réaliser et à anticiper à partir d' une vision incarnée par des applications responsables. Alors que la stratégie définit les objectifs à long terme, la tactique élabore la conception de manœuvre conformément à la stratégie tandis que l'opérationnel concrétise la manœuvre tactique par un effet direct sur l'adversaire ou la situation.
L'IA, un vecteur d'accroissement de l'efficacité
Dans un monde où la donnée est omniprésente, croît en permanence et dont la véracité est sujette à caution, il devient de plus en plus difficile à un chef de prendre des décisions rapides dans un environnement incertain. La décision repose alors bien souvent sur des schémas acquis ou une expérience avérée. Bien que satisfaisante dans certaines situations, cette manière de décider rend le chef vulnérable car prévisible et risque de le maintenir dans un effet tunnel potentiellement nuisible. L'IA ouvre les possibles dans le champ de la décision en analysant dans un temps record des masses de données inexplorées, en s'assurant de la véracité des informations collectées et aujourd'hui en proposant des hypothèses comme des solutions. Dès lors, l'IA pour le chef est l'outil en mesure d'enrichir la qualité et d'accroître la célérité de sa décision.
Préalablement à l'enjeu de la décision dans un contexte d'incertitude, l'IA permet également d'anticiper les phénomènes à brève, courte, moyenne et longue échéance. C'est un atout considérable sur le plan stratégique comme tactique car cela permet de comprendre l'évolution de la manœuvre adverse en avance de phase et donc de disposer du fameux temps d'avance, nerf de toutes les batailles. Il est alors possible de concevoir le mode d'action adapté à la menace voire d'orienter l'adversaire dans une direction souhaitée. Et, cette capacité d'anticipation ne se limite au seul champ de l'action, elle permet d'optimiser la planification sur le plan des ressources logistiques comme humaines. Il est ainsi parfaitement envisageable de programmer un apport de compétences spécialisées au regard d'une situation évolutive ou encore d'anticiper des défaillances techniques inattendues.
A titre d'illustration en sécurité intérieure, nous pouvons citer l'analyse prédictive de l'évolution des phénomènes de délinquance de masse tels les cambriolages qui se comportent comme des séries d'évènements temporels. Fort de ces prédictions ne reposant sur aucune donnée nominative, et placer au niveau de la sphère décisionnel et non d'exécution, le chef peut en connaissance faire le choix d'orienter ses patrouilles, de cibler des contrôles routiers, d'alerter des élus ou des référents citoyens, voire des associations. Il dispose ainsi d'un outil qui lui offre différentes possibilités d'action car la cartographie présentée lui permet de réfléchir avec un temps d'avance. Ce type d'outil s'avère également particulièrement pertinent vis à vis de l'autorité administrative ou judiciaire pour présenter l'action de la gendarmerie sur un territoire. Il est également possible de s'ouvrir aux citoyens en organisant des réunions pour expliquer les actions préventives à venir. Ce type d'approche enrichit la réflexion du chef car elle lui demande de se projeter et d'envisager les leviers d'action les plus pertinents. Il est entendu que ce n'est pas l'IA qui décide de l'action mais bien le chef qui s'approprie les résultats de l'IA comme toute autre source de résultats pertinente. Dans le champ de la logistique, la maintenance prédictive de nos véhicules constitue un outil particulièrement efficace pour éviter d'immobiliser un véhicule d'intervention pendant des mois, faute d'avoir anticiper une panne ou une révision non planifiée. Comment se plaindre si souvent de visions trop court-termistes alors que l'IA constitue un moyen de voir loin et de se projeter.
Il est un autre domaine qui exploite l'anticipation en permettant une optimisation des modes d'action : la simulation. Par sa capacité générative, l'IA est aujourd'hui en mesure de construire des scénarri originaux à partir d'opérations passées afin de confronter la pertinence de modes d'action ami face à des modes opératoires ennemi. Cette simulation trouve dans les espaces immersifs un terrain d'expérimentation et dans les IA génératives des outils de mise en situation particulièrement réalistes.
Sur le plan de l'action opérationnelle, l'IA apporte un atout considérable par un meilleur ciblage des objectifs, un accroissement de la célérité d'action, et une augmentation de l'efficacité sur des domaines spécialisés. Dans le champ de la sécurité intérieure cela peut être par exemple une détection d' images à caractère pédophiles dans de larges base de données, la détection d'objets d'intérêt au sein de nombreuses heures de vidéo et les exemples ne manquent pas.
Ainsi, l'IA permet une meilleure planification, une meilleure préparation, une allocation plus efficace des ressources, une meilleure action au quotidien par le développement de la capacité d'anticipation. Pour autant, toutes ces avancées nécessitent tout de même d'être expliquer à des chefs trop peu formés à l'usage de l'IA. En effet, les aspects positives d'une exploitation raisonnée et responsable sont importants mais le spectre d'une utilisation non maitrisée ne peut être écartée.
L'IA, un vecteur de risque à maitriser
L’intelligence artificielle peut être qualifiée de véritable révolution, notamment depuis l’essor des IA génératives qui bouleversent nos pratiques professionnelles et sociétales. L’engouement pour ces nouvelles technologies est indéniable, mais il s’accompagne de risques majeurs : mésusage, perte de compétences au sein des forces de sécurité, remplacement inadapté de personnels qualifiés, déshumanisation de la relation au service public ou encore atteintes aux droits fondamentaux.
Consciente de ces enjeux, la Gendarmerie nationale, dès 2020 dans le cadre de sa stratégie, la gendarmerie a très tôt pris des mesures. Elle a rapidement publié une charte éthique de l’IA, avant même l’entrée en vigueur d’une réglementation spécifique. Cette charte, rendue publique, affirme la confiance comme principe fondateur et repose sur des valeurs essentielles : transparence, explicabilité, connaissance, respect et loyauté.
Mais au-delà de la mise en place d’un cadre éthique, la responsabilité incombe directement aux chefs et décideurs. Ceux-ci doivent demeurer conscients de leur rôle dans l’acte de décision, préserver leur libre arbitre et maintenir une distance critique face aux recommandations des systèmes d’IA.
On parle souvent de « humans in the loop » (l’humain dans la boucle) pour désigner la supervision humaine dans un processus d’IA. La Gendarmerie préfère une autre approche : « humans out of the box » (l’humain hors de la boîte). Cette posture signifie que le chef doit rester extérieur au système, en conserver la maîtrise et être capable de remettre en cause, voire d’interrompre, l’exécution d’une proposition algorithmique. Ce n’est pas une simple nuance sémantique, mais bien une conduite à tenir face à des technologies puissantes qui pourraient enfermer le décideur dans un cadre trop rigide.
La notion de responsabilité est ici centrale. Dans le domaine de la protection des populations, la décision doit demeurer fondamentalement humaine. L’IA peut être extrêmement performante dans des tâches spécialisées, mais elle reste limitée dans sa capacité à raisonner de manière globale et contextuelle. Or, la décision d’un chef intègre une multitude de facteurs – humains, sociaux, opérationnels, éthiques – que l’IA ne peut pleinement appréhender. S’en remettre aveuglément à une machine, c’est courir le risque d’erreurs d’appréciation lourdes de conséquences, y compris des atteintes aux libertés et aux droits fondamentaux.
Dans le champ plus spécifique des ressources humaines, l’IA doit rester un outil d’assistance, et non d’« assistanat ». Elle ne doit pas réduire le niveau de qualification des gendarmes, par exemple en se substituant à leur expertise dans l’évaluation d’infractions. La tentation d’automatiser ces tâches est réelle, mais chaque déploiement d’un système d’IA doit être guidé par une question simple : cet outil enrichit-il la réflexion et le discernement du gendarme, ou les appauvrit-il ?
Ce choix engage directement la responsabilité du chef vis-à-vis de ses subordonnés. Car au-delà des gains de performance immédiats, il s’agit d’un enjeu de long terme : préserver la compétence, l’autonomie et la capacité de jugement des forces de sécurité face à un environnement de plus en plus technologique.
Ainsi, l’intelligence artificielle ouvre indéniablement de nouvelles perspectives pour le chef militaire comme pour le chef de sécurité intérieure. Elle renforce la capacité d’anticipation, d’analyse et d’action, tout en apportant des leviers inédits d’efficacité. Mais ces atouts ne prennent pleinement leur sens que lorsqu’ils sont accompagnés d’une gouvernance claire, d’un encadrement éthique solide et d’une appropriation raisonnée par les décideurs. L’IA doit être considérée comme un outil au service de l’autorité humaine, et non comme un substitut à celle-ci. Elle enrichit la réflexion, elle éclaire la décision, mais c’est au chef qu’il appartient d’assumer la responsabilité ultime de l’action. C’est dans cette articulation entre puissance technologique et discernement humain que réside la véritable valeur ajoutée de l’IA. Préserver cet équilibre, c’est garantir que l’innovation reste au service de la mission première : protéger et servir la population dans le respect des valeurs républicaines et des droits fondamentaux.
