ANALYSES

De la guerre en essaim : drones, cyber et IA

Tribune
30 novembre 2018


L’essor combiné de l’intelligence artificielle et de la diffusion militaire des drones nourrit plus que jamais l’imagination des principales puissances. Mais ce sont les États-Unis qui semblent toujours faire la course en tête dans cette compétition mondiale aux « essaims de drones ».

Récemment, la DARPA (Defense Advanced Research Projects Agency) a rendu publique une série de tests concluants qui se sont déroulés, pendant trois semaines, à Yuma Proving Ground, un immense terrain d’essai de l’US Air Force situé en Arizona : ces tests visaient à déployer des essaims de drones dans des environnements hostiles. La particularité de ces drones, c’est leur capacité à se coordonner de façon autonome, sous la supervision d’un seul opérateur humain. Le programme CODE (Collaborative Operations in Denied Operations), à l’origine de ces essais, est explicitement destiné au développement de systèmes d’intelligence artificielle, où l’opérateur humain ne remplirait qu’une mission de supervision, afin de permettre à l’intelligence artificielle de libérer l’étendue de ses capacités d’adaptation, d’improvisation et d’ajustement d’un bout à l’autre de l’opération.

Le programme CODE de la DARPA

Ces systèmes d’essaim sont spécialement conçus pour étendre les opérations américaines à des environnements hostiles, pour des missions de reconnaissance, de surveillance, de renseignement (ISR), mais aussi pour engager tant des attaques planifiées que contextuelles. Autrement dit, ces essaims de drones seraient susceptibles de s’adapter aux différentes situations rencontrées, grâce à leurs logiciels d’intelligence artificielle. Selon un communiqué de la DARPA, publié le 19 novembre 2018, les systèmes CODE auraient démontré des capacités inédites à « s’adapter aux menaces inattendues dans un environnement hostile », notamment en coupant leurs communications et leurs signaux GPS. Or, lorsque les communications se sont dégradées ou ont été coupées, même sur une période relativement longue, les drones du programme CODE sont parvenus à maintenir leur plan de vol et à atteindre leurs objectifs sans aucune instruction humaine pour les aiguiller. Ils ont poursuivi leurs missions de détection collaborative (basée sur l’IoT [Internet of Things]) même à faible bande passante.

L’intérêt d’un tel système, c’est qu’il évite d’avoir recours à des pilotes, qui les contrôleraient en continu, à des opérateurs pour gérer les capteurs accolés à ces drones, et à l’armada d’analystes en télémétrie que nécessitent d’ordinaire de telles opérations. Les essaims de drones sont donc bien plus adaptables et rentables que les systèmes existants ; ils permettent de surmonter les défis opérationnels posés par les engagements dynamiques et distants contre des cibles très mobiles dans des environnements électromagnétiques contestés.

Peu à peu, les chercheurs de CODE parviennent ainsi à bâtir une architecture logicielle modulaire tout à fait innovante, résiliente en situation de faible bande passante et de perturbation des communications, tout en rendant possibles des mises à niveau, relativement peu coûteuses et peu complexes techniquement, des plateformes existantes. Autrement dit, l’US Air Force peut innover tout en capitalisant sur les technologies déjà à sa disposition.

Les ingénieurs du programme CODE portent un intérêt tout particulier au concept d’« autonomie collaborative ».  La limite d’un tel dispositif repose sur la place qu’y occupe l’opérateur humain. Se situe-t-il dans ou sur la « boucle de décision » de l’essaim autonome ? Le traitement de données opéré en collaboration par ces systèmes d’intelligence artificielle débouche-t-il sur l’autonomie tactique complète des drones, ou bien simplement sur la formulation de recommandations à l’intention de l’opérateur humain, qui aurait ensuite le privilège d’approuver ou non les actions proposées ? La DARPA laisse planer le doute. Néanmoins, la configuration technique du dispositif laisse supposer que la solution de l’autonomie complète est privilégiée, ce qui révèle une contradiction majeure de la part des États-Unis sur la question des systèmes d’armes létales autonomes. Les Américains ont toujours insisté sur la nécessité de maintenir l’humain dans la boucle de décision lors de l’engagement du feu ; or ce programme semble écarter toute possibilité de contrôle humain.

L’intérêt tactique de la guerre en essaim

Les drones commandés à distance sont aujourd’hui la norme. Mais le déploiement de tels systèmes n’est possible que dans un ciel dégagé de toute menace, où le spectre électromagnétique ne subit aucune interférence. Or, les restrictions d’accès au domaine aérien se feront toujours plus fortes à l’avenir ; les techniques de guerre électronique et cognitive s’amélioreront et le coût de mise en place de systèmes d’interférence électromagnétique se réduira, ce qui nécessite des drones à l’autonomie accrue avec un contrôle humain minimal. Dans certaines conditions, un opérateur humain ne pourra tout simplement plus maîtriser les systèmes d’armes basés sur des capacités électroniques et cognitives avancées, capables d’analyser le spectre électromagnétique et de le brouiller à leur gré. Le champ de bataille du futur verra inexorablement s’affronter entre elles des machines capables d’évoluer dans des environnements complexes et volatiles de ce type.

Par ailleurs, dans la guerre électronique, les données sont la clef : elles sont enregistrées, analysées, transférées à des dispositifs de machine learning qui entraînent les systèmes d’intelligence artificielle à les interpréter et à s’adapter en conséquence. Dans un environnement de faible bande passante, cette autonomie est essentielle : elle réduit drastiquement la quantité de données que le drone doit transférer à l’opérateur humain qui le supervise. Le programme CODE vise précisément à développer des solutions dans un environnement où les communications transitent à très faible vitesse, de l’ordre de 50 kilobits par seconde, à la manière des modems conçus dans les années 1990. Ce serait néanmoins suffisant dans le cadre d’une supervision minimale, car l’opérateur recevrait malgré tout des photos de faible résolution toutes les deux secondes pour suivre les manœuvres des drones.

L’armée américaine a très bien compris l’intérêt de tels systèmes. Plusieurs États développent des armes autonomes, notamment la Russie, la Chine, Israël, la Corée du Sud, le Royaume-Uni, la Biélorussie, l’Estonie, ou encore la Slovaquie, avec une attention particulière prêtée aux capacités de brouillage des communications, d’interception des transmissions et d’intrusion dans les systèmes informatiques. L’autonomie des systèmes d’armes n’en est que plus nécessaire. Et, alliés à la « guerre en essaim », ces systèmes sont susceptibles d’accorder un avantage tactique majeur à celui qui les déploierait. Leur autonomie, leur capacité de coordination et leur résilience en milieu électromagnétique dégradé pourraient fournir un atout de poids dans l’attaque de certaines infrastructures critiques, dont le système de protection se verrait totalement saturé.
Sur la même thématique
Caraïbe : quels enjeux pour les opérations HADR ?