ANALYSES

Nouvelles menaces dans la course à l’intelligence artificielle

Presse
2 octobre 2018
La course à l’intelligence artificielle est lancée. Comme toute technologie, l’IA ne constitue pas un risque en soi ; c’est de son utilisation que dépendra le niveau et la nature des menaces qu’elle sera susceptible d’engendrer.

L’IA ouvre des perspectives fabuleuses dans le domaine médical, dans le secteur des transports, voire de la protection de l’environnement. Néanmoins, ces dernières avancées dessinent aussi un nouveau spectre de menaces dont nous allons tenter de tracer les grandes lignes, en nous concentrant sur trois types particuliers : éthico-militaire, sociopolitique et géopolitique.

Opportunités militaires, enjeux éthiques : les armes autonomes

Dans le champ militaire, l’utilisation de l’IA est envisagée principalement sous deux angles, celui du combat collaboratif (entre l’homme et la « machine ») et celui des armes autonomes. Ce sont ces dernières, appelées aussi systèmes d’armes létales autonomes (SALA), qui éveillent les craintes les plus affirmées. Plusieurs organisations internationales, dont le Comité international de la Croix-Rouge et l’UNESCO¹, ont relevé les problèmes éthiques et juridiques que soulève ce type d’armes. Pour résumer, au stade actuel des progrès de l’IA, les SALA seraient incapables, selon elles, de respecter trois des principes fondamentaux du droit international humanitaire, ou droit de la guerre : les principes de proportionnalité, de discrimination et de responsabilité.

Dans une situation d’urgence, il est peu probable, en effet, qu’une arme autonome soit toujours capable d’engager une attaque proportionnée à la menace qui lui fait face, étant donné les nombreux paramètres à intégrer qui sont pour la plupart difficilement traduisibles en termes algorithmiques. Ensuite, il serait délicat pour un robot autonome de distinguer un combattant d’un non-combattant, ou un terroriste d’un civil armé protégeant sa maison. Quelle décision prendrait un « robot tueur » face à un enfant pointant une arme factice en direction de soldats ? Ce choix requiert des capacités cognitives de réflexion, d’abstraction, voire d’empathie, qui dépassent de loin le niveau actuel d’élaboration des algorithmes d’IA.

Enfin, en cas d’« erreur de jugement » du robot, qui devrait être tenu responsable ? Est-ce l’opérateur, le concepteur, le fabricant, l’état-major ou les décideurs politiques qui auront approuvé son utilisation ? Face à tant d’incertitudes, ces organisations réclament l’interdiction totale des SALA, le maintien de l’être humain dans la boucle de décision et une régulation stricte de l’utilisation de l’IA, pour éviter qu’elle n’accentue les velléités dominatrices des États, tant sur leurs adversaires extérieurs que sur leur propre population.

L’IA et l’État Big Brother

Certains États sont susceptibles d’instrumentaliser l’IA à des fins de surveillance, de régulation, voire de contrôle social : les révélations d’Edward Snowden et de Wikileaks l’ont largement démontré, y compris dans des régimes démocratiques. Mais c’est en Chine que cette ambition est la plus manifeste : les données produites par les 800 millions d’internautes sont traitées par de grandes plateformes qui les mettent au service de l’État chinois à des fins de régulation sociale. En fonction de leurs comportements, détectés et analysés grâce à des logiciels de traitement automatisé de textes, d’images et de sons, les citoyens reçoivent désormais des « notes » en fonction desquelles leur niveau de liberté est plus ou moins élevé. Le système de notation de Sesame Credit, l’une des plus grandes plateformes de prêt en Chine, filiale d’Alibaba, évalue ainsi chaque internaute dans cinq domaines : son historique d’emprunteur ; son aptitude à tenir ses engagements ; ses caractéristiques personnelles ; ses préférences et son comportement ; ses relations sociales. Tous ces éléments sont collectés par Alibaba dès lors qu’on utilise les services de ses filiales (Taobao, Alipay) qui entretiennent des liens particulièrement étroits avec l’État chinois.

L’utilisation de l’intelligence artificielle à des fins de surveillance généralisée n’est pourtant pas l’apanage des États autoritaires ou totalitaires. Les démocraties libérales lorgnent aussi sur de tels systèmes : les États-Unis, bien sûr, mais également la France, dont le ministère de l’Intérieur souhaite renforcer son système de renseignement par la généralisation de l’usage indiscriminé de caméras « intelligentes ».

À mesure qu’il s’approprie les applications technologiques de l’IA, le pouvoir de l’État se fait insaisissable et pourtant omniprésent, dispersé dans tous les interstices de la vie sociale via les canaux numériques. En Chine, particulièrement, la société dans son ensemble est placée sous un dispositif disciplinaire, à la manière du Panoptique de Jeremy Bentham revisité par Michel Foucault. Avec des régimes profondément enclins à l’omniscience, l’IA peut devenir un instrument irrésistible de contrôle du débat public et de neutralisation de tout esprit de déviance. Ce sont ces potentialités fabuleuses de la technologie qui excitent la convoitise des États, dont les ambitions en matière de puissance dépassent allègrement les frontières nationales.

Vers un nouvel ordre mondial ?

Les formidables promesses de l’IA, notamment en matière économique, policière et militaire, pourraient à terme bouleverser la structure sociopolitique des États, mais aussi la grammaire des relations internationales, et ce essentiellement pour deux raisons. D’une part, la Chine paraît bien placée pour devenir leader dans le domaine dès 2025-2030. Rendu public en juillet 2017, son « plan de développement de la nouvelle génération d’IA » est doté d’un budget annuel de 22 milliards de dollars, qui devrait atteindre les 59 milliards d’ici à 2025 ; selon une étude du cabinet PwC l’IA pourrait accroître le PIB chinois de 26 % à l’horizon 2030. En outre, la Chine dispose des financements, des firmes technologiques (BATX) et des données nécessaires pour rattraper et dépasser les États-Unis en la matière dans la décennie à venir. Or, Xi Jinping l’a rappelé à de nombreuses reprises : il compte sur les progrès technologiques chinois pour faire de son pays la première puissance mondiale.

D’autre part, l’IA a ceci de particulier que ses récentes avancées ne prennent pas leur origine dans le secteur public ; elles émanent de la sphère privée. De sorte que les États sont sous la dépendance partielle d’entreprises qui acquièrent une position centrale, en particulier dans le procès d’innovation techno-militaire. Du programme de « fusion militaro-civile » chinois au projet Maven américain, les États ont conscience du rôle fondamental des firmes technologiques pour le développement de l’IA et son application à des fins économiques et militaires. Cette interpénétration des ambitions commerciales et militaires, privées et publiques, à l’échelle de la planète, confère à ces compagnies un rôle démesuré : les États placent le choix souverain de leurs orientations stratégiques entre les mains d’acteurs mus par leurs intérêts particuliers.

La position centrale qu’occupent les firmes technologiques dans la course à l’IA tient aussi à la nature duale de ce répertoire de techniques, lesquelles sont réputées facilement transposables du domaine civil à la sphère militaire. En témoignent les sentinelles (semi-)autonomes sud-coréennes SGR-A1, placées le long de la frontière entre les deux Corées, capables de détecter, de cibler, voire d’engager le feu sans intervention humaine, qui ont été développées par Samsung dès 2006.

Il en résulte un réseau d’interrelations étroites entre le commercial et le militaire, qui accroissent le risque d’une diffusion large et incontrôlée de ces technologies d’IA. Or l’on sait comment des groupes terroristes, comme Daesh, se sont saisis d’outils technologiques civils, tels les réseaux sociaux ou des logiciels de chiffrement, pour déployer leur propagande et coordonner certaines attaques : les terroristes pourraient tout aussi bien utiliser des véhicules autonomes remplis d’explosifs pour commettre leurs attentats. Les progrès réalisés par la technique dite des « réseaux neuronaux », dont AlphaGo est le meilleur exemple, leur permettraient de détecter et d’exploiter les vulnérabilités de certains systèmes informatiques, comme le mécanisme de refroidissement d’une centrale nucléaire, le dispositif d’appels d’urgence d’un hôpital ou les capteurs de pression d’eau d’un barrage hydraulique.

Comme toute technologie, l’IA est intrinsèquement amorale : ce sont ses usages qui déterminent son niveau de menace. De toute évidence, à ces défis répondent des avantages potentiels que nous avons volontairement choisi de ne pas traiter. Il demeure qu’eu égard à toutes ses potentialités, l’IA exige un cadre exigeant de régulation qui sera difficile à mettre en place, tant l’IA suscite chez chacun le fantasme prométhéen d’une complète hégémonie.

******

1 / Voir le Rapport de la Commission mondiale d’éthique des connaissances scientifiques et des technologies (COMEST/UNESCO) sur l’éthique de la robotique, septembre 2017.
Sur la même thématique
Caraïbe : quels enjeux pour les opérations HADR ?